Hoesung Lee’s speech (IPCC president), from the IAEA conference, about nuclear and climate

Hoesung Lee’s speech (IPCC president) from the IAEA conference

https://twitter.com/iaeaorg/status/1181116534477017089?s=19

Excellences and dear colleagues,
I wish to thank very much the IAEA for organizing this very timely and important conference.
Nuclear power currently supplies about 11% of the world’s electricity. Today’s output, as you know very well, is lower than it was a decade ago. Ten years ago, when there was no Paris agreement, the world global temperature was not as high as today’s one degree C above pre-industrial levels. 10 years ago, when the world did not have the benefit of having IPCC’s special report on 1.5 degrees, we didn’t know at the time the differential impacts of global warming of 1 degree C, 1.5 degrees C and 2 degrees C and its policy implications.
Four years ago, at the December 2015 COP-meeting in Paris, the countries invited IPCC to provide a special report on the very important aspects of 1.5 degrees and the impacts of keeping the warming to 1.5 degrees as well as the compatible mitigation pathways to achieve that global warming.
Now, one of the key conclusion is that, as was very often mentioned in this conference as well as also before this conference, it is feasible to limit the global warming 1.5 degrees C. Considering that the world is already experiencing warming, it implies that it is feasible to achieve a limited warming of close to 0.5 degrees C. It is feasible. But more important message is that limiting that warming to 1.5 degrees C comes with the opportunities for clean economy, job creation, better jobs, innovation and great potential for achieving sustainability.

We analyzed 21 models, globally available, and we came up with the conclusion that to limit 1.5 degrees C global warming, the global net anthropogenic CO2 emissions must reach net-zero around 2050. That must be accompanied by very deep reductions in non- CO2 emissions as well. Obviously, emission reductions of that scale and speed require a very rapid transition in energy, industry and consumption. Emissions in all of these sectors must be virtually eliminated, net-zero, within a few decades. Achieving this will require a wide portfolio of mitigation options and a significant upscaling of investments in those options. The transitions required to realize this emission reduction are clearly unprecedented in terms of scale but not necessarily in terms of speed.
The benefit of limiting warming to 1.5 degrees C is lower climate related risks to ecosystems, health, livelihoods, food security, water supply, human security and economic growth.
Now, what is the implications for the energy sector transition? We have so much relied on fossil fueled energy systems the last 100 years. Reducing energy sector CO2 emissions to 0 by 2050 involves three broad strategies. One is energy efficiency improvement, the second is increased electrification and, [thirdly], decarbonization of electricity supply. As I said before, we examined 21 models available and those 21 models provided by the scientific communities a total of 85 emission pathways consistent with 1. 5 degrees C.

Looking at energy efficiency first. Efficiency is reflected in the data of the global primary energy supply. Across these 85 pathways modelled pathways of 1.5 degrees C implies that the medium primary energy supply declined from 582 exajoule in 2020, the next year, to 503 exajoule 2030, in 10 years, and then 581 exajoule in 2050. These projections are, of course, uncertain – let me say this very clearly – uncertain. And the range increases as they go further into the future. For 2050 the range is 289 to 1012 exajoule. In short, over the next 30 years global energy primary energy supply could grow at a rate of 1.9% or decline at a rate of 2.3% per year. But the medium projection is no growth of primary energy supply to 2050. Stabilizing primary energy for the next 30 years while the global population and income rises is possible only with significant improvements in the efficiency of energy production, transformation, distribution and final use.

Now, secondly, about electrification. The electricity share of global energy use is projected to more than double. Generally known that electricity is more versatile than fossil fuels and in most energy use more efficient. Based on median values of 89 1.5 degrees C pathways, electricity share as primary equivalent of total primary energy arises from 19% in 2020 to 43% in 2050. As usual the ranges across the pathways are very large, over 3 decades, but in every case global electricity consumption rises. The rate of growth varies between 0.5% and 5% per year. This is the range.

Thirdly, about decarbonization. Increased electrification reduces emissions only if the power comes from non-fossil sources. Fossil fuel share of electricity generation declines from 63% to 22% within the next 30 years and this is based on median results of 89 pathways. Non-biomass renewables offset this decline of fossil generation and most of the increased supply. Over 30 years their supply increases from 25 exajoule to 137 exajoule, that is an average annual growth rate of 5.9%.

Now finally about nuclear power. In most 1.5 degrees C pathways, nuclear power contributes to the decarbonization of electricity supply over the next 30 years. Based on, again the median results of these 89 pathways, nuclear power increases from 11 exajoule in 2020 two 23 exajoule in 2050 – an average annual growth rate of about 2.5%. There are large variations, however, in nuclear power between models and across pathways. The pathway with minimum nuclear power assumption anticipates output of only 3 exajoule in 2050 – about 30% of the 2020 output. While the pathway with maximum reliance on nuclear power estimates 116 exajoule on nuclear power on that year – a tenfold increase from 2020. One reason for this large variation is that the future development of nuclear can be constrained by societal preferences, assumed that narratives underlying the pathways. A second reason for the variation is the technology assumptions built into the models. For example, only 7 of 21 models we analyzed includes advanced small modular reactor designs as possible technologies. In addition to electricity generation, nuclear energy contributes to mitigation of other GHG missions in many pathways. Nuclear process heat is an option in 6 of the 21 models used to generate the emissions pathways.

Clearly, 1.5 degrees C pathways are consistent with everything from negligible nuclear power to a tenfold increase in nuclear power over the next three decades. The opportunity exists. The challenge is how much of the opportunity will you be able to catch up? Time is critical, so the share of the opportunity you capture will depend on the speed at which nuclear technology can be deployed.

In summary, human activity has already led to 1 degree C increase in global average temperature. It is still possible, though, but challenging, to limit the global average temperature increase to 1.5 degrees Celsius – the goal of the Paris agreement. To meet that goal will require the global net anthropogenic CO2 emissions to be reduced to net- zero by 2050 and that human induced emissions of other GHGs be reduced to zero shortly thereafter. The strategies for reducing energy related CO2 emissions are robust and well known: very ambitious efficiency improvements, increased electrification and decarbonization of electricity supply.

The available models indicate that this can be done using widely different mixes of technologies including pathways with much greater and with very limited use of nuclear power. In short, there is considerable potential as well as uncertainty for nuclear power. Obviously, we don’t and cannot know what technologies will be available over the next 30 years and how they will perform. The challenges for nuclear power are to be a cost- effective alternative to other non-fossil generation technologies and to deploy nuclear power much faster than in the past. I wish you success in meeting these challenges because climate needs all the help it can get.

Thank you very much for your attention.

French translation here

Publicités

RECONQUERIR L’AUTONOMIE DE DECISION DANS L’INTERET DU CONSOMMATEUR PARTICULIER ET INDUSTRIEL. (H. Proglio)

FONDATION RES PUBLIQUA

2019 – RECONQUERIR L’AUTONOMIE DE DECISION DANS L’INTERET DU CONSOMMATEUR PARTICULIER ET INDUSTRIEL. LE SENS DE L’INTERET GENERAL ET L’UTILITE D’UNE VISION A LONG TERME.

Intervention d’Henri Proglio, ancien Président-directeur général d’EDF, lors du colloque « Défis énergétiques et politique européenne » du mardi 18 juin 2019.

Je crois, Monsieur le ministre, qu’il y a un croisement de politiques qui non seulement ne sont pas cohérentes mais se contredisent.

On ne peut pas dire qu’on en sorte pleinement convaincu.

Je n’ai pas pour habitude de tenir des discours très diplomatiques. Vous me pardonnerez d’être parfois un peu brutal.

Des politiques nationales de l’énergie, il en a existé, notamment en France.

Il y a soixante-dix ans le constat avait été fait que la France, ne bénéficiant pas de ressources énergétiques, était totalement dépendante de ses importations et qu’il était nécessaire de construire son indépendance énergétique, d’assurer la qualité des services et l’accès permanent de tous à l’énergie à un prix compétitif. C’est ce qui a guidé la France dans ses choix énergétiques de l’époque.

Ces choix ont été initialement marqués par l’hydraulique qui représente encore 12,5 % de la production d’électricité en France. Ce fut ensuite la grande aventure nucléaire qui a donné à ce pays un outil (le parc nucléaire français : cinquante-huit réacteurs, plusieurs en « construction éternelle ») et, à travers un opérateur initié et construit pour cela (EDF), l’électricité la plus compétitive d’Europe qui arrive au même prix dans tous les foyers, quelle que soit leur situation géographique, y compris dans les DOM-TOM.

La France avait conquis son indépendance énergétique, un atout dont ne disposait aucun autre pays industriel, a fortiori européen.

Il y avait alors une politique, il y avait même un ministre de l’Energie.

Aujourd’hui, il n’y a plus de politique énergétique mais une politique de la « transition ». On mute, on transite, on essaye de détruire ce qui existe pour aller vers… quelque chose dont ni l’objectif ni même les grandes caractéristiques n’ont été définis.
(On dirait un dialogue d’Audiard !!!)

On a donc confié la « transition » à des ministres qui ne sont pas chargés de l’énergie.

Dans le même temps, un pays voisin qui, bien que n’ayant pas eu cette consistance, avait réussi sa politique industrielle, donc sa compétitivité mondiale à travers son industrie, a identifié un grand risque : son énergie électrique coûtait à peu près deux fois plus cher que l’énergie française.

Or, dans la compétitivité des territoires, l’énergie allait jouer un rôle déterminant. Par conséquent, à défaut de résoudre son problème, il lui fallait a minima détruire la compétitivité du voisin.

J’avais rencontré Mme Merkel en 2011 au moment de la décision sur l’Energiewende et de l’arrêt du nucléaire. Elle avait eu ces paroles dont je me souviendrai toute ma vie : « Allemande de l’Est, je suis totalement convaincue par le nucléaire. Mais j’ai besoin des Verts pour gagner les élections régionales et demain les élections nationales. Je sacrifie les industriels de l’énergie allemande à l’intérêt supérieur du Reich qui est d’avoir la CDU à la tête du pays ». On pouvait comprendre et j’ai parfaitement intégré la variable de la politique allemande.

Malheureusement, il n’y avait pas de politique française en face !

Pourtant, de temps en temps, on ajoute une disposition qui permet de continuer à détruire ce qui existe… « Oblige-t-on EDF à vendre son énergie à ses concurrents ? », demandiez-vous, Monsieur le ministre. Oui, bien sûr. Chaque jour on promeut un fournisseur d’énergie (Engie ou autre) qui vend de l’énergie 10 % moins cher présentée comme « verte » !

En réalité, ces fournisseurs vendent avec bénéfice l’énergie qu’ils achètent à EDF, en prétendant qu’elle est « verte » ! Il s’agit donc d’une subvention à la concurrence.

En effet, le seul principe qui guide l’Europe : la concurrence fait le bonheur des peuples, balaie l’argument selon lequel nous avons un système qui est peut-être monopolistique mais qui est efficace !

Les barrages eux-mêmes doivent être mis en concurrence. Or les barrages ne servent pas à produire mais à stocker. Ils sont un élément d’optimisation du système électrique, une grande pile à combustible. L’énergie stockée est utilisée quand on en a besoin, quand les centrales nucléaires sont à l’arrêt, lors des pointes de consommation etc.

Pourtant, l’Europe imposant la concurrence, nous sommes sommés de mettre les barrages en appel d’offres. J’ai résisté pendant cinq ans… Désormais soumis à concurrence les barrages vont nous être achetés pour la valeur de production et non pour la valeur d’utilité qui serait incommensurablement plus importante. On va donc désoptimiser le système électrique, augmenter le coût de revient… au détriment du consommateur qui, in fine, va payer.

Mais ce n’est pas tout. Parce que le monde regorge de liquidités, une surenchère folle sur les infrastructures aboutit à des taux d’intérêt négatifs. D’énormes liquidités ne savent pas où s’investir parce que les placements bancaires traditionnels ne sont pas rémunérés.

Or ces liquidités appartiennent à des actionnaires qu’il faut rémunérer. Quoi de mieux que de les investir dans des infrastructures vitales qui s’amortissent sur des durées très longues et permettent des investissements massifs ?

Les réseaux durent très longtemps, ils sont utilisables, comme les barrages, pendant cent ans. À condition de bien l’entretenir, un réseau peut s’amortir sur une durée très longue.

Formidable opportunité de placement des fonds mondiaux d’infrastructures qui appartiennent à la finance mondiale, à des liquidités, à des trésoreries qui fluctuent etc. On va vendre des réseaux !

En vendant les réseaux, on coupe la production du consommateur et on désoptimise une nouvelle fois le système. Avec la vente aux concurrents des barrages, des réseaux, on est en train de détruire ce qu’on a construit pendant soixante-dix ans.

Je n’ai jamais rencontré de politique européenne. Je l’ai vainement cherchée dans les tiroirs, à Bruxelles et un peu partout en Europe.

Les Espagnols ont une politique, les Italiens ont la leur.

Les Polonais, qui ont du charbon, qui veulent du gaz – et surtout éviter les Russes honnis – sont tombés dans les bras des Américains, lesquels rêvaient d’établir leur domination sur un pays européen. La Pologne est devenue américaine. Des terminaux GNL de gaz de schiste américain sont construits en Pologne. Vive l’environnement ! (J’ai passé ma vie dans l’environnement avant de venir à EDF [1]).

On a déjà parlé des Allemands.

Les Belges font ce qu’ils peuvent. Leurs sociétés, Électrabel [2] et Tractebel [3], ont été rachetées par Engie, qui n’existe pas. Les Belges sont donc au milieu de nulle part. Leurs deux centrales nucléaires étant fréquemment arrêtées ils se demandent à qui ils vont acheter une électricité qu’ils ne sont plus capables de produire.

La France faisait donc figure de havre de paix et surtout de réservoir électrique européen. Tous les pays européens comptaient, en cas de « trou noir », avoir accès à l’électricité française à un coût compétitif. Cela a été – et sera – le cas de l’Allemagne.

Que sera l’électricité française demain ? Je ne le sais pas.

De quoi parle-t-on quand on parle de politique énergétique ?

Je rappellerai quelques principes :

L’énergie est un secteur très différent des autres secteurs industriels parce qu’il est d’une nécessité vitale qui touche à la sécurité nationale.

Plus capitalistique que n’importe quel autre secteur industriel, il nécessite un horizon à très long terme. Une centrale nucléaire dure soixante ans, un réseau ou un barrage cent ans.

Les investissements, très massifs et à très long terme, doivent être réalisés en amont de la production et a fortiori de la distribution.

Toute politique énergétique doit donc avoir une vision longue, avec une politique claire et sur le long terme.

Or aujourd’hui, en raison de la financiarisation du monde et de la mondialisation, le long terme c’est trois à cinq ans !

Pour une société cotée, la dictature c’est le trimestre, le moyen terme trois ans, le long terme cinq ans. Il se trouve que cela correspond aux mandats politiques.

Quel politique réfléchit à horizon de cent, cinquante ou même trente ans ?

Lorsqu’on nous annonce des mesures à trente ans, nous comprenons qu’il s’agit de reporter les échéances pour ne pas les réaliser.

C’est regrettable parce que dans l’énergie la vision longue devrait être le cas de figure normal.

Ce fut le cas en France pendant des décennies.

Aujourd’hui, au plan national et plus encore au plan européen, le long terme est battu en brèche par la dictature de l’orthodoxie budgétaire à court terme et des contingences court-termistes.

L’énergie est aussi l’objet d’assauts de démagogie et d’injonctions contradictoires en termes de priorités.

La priorité d’aujourd’hui porte sur les gaz à effet de serre et le climat.

Or la France est exemplaire en matière d’émission de CO2 grâce à l’électricité d’origine nucléaire et hydraulique. C’est ce qui fait que la France se démarque des autres pays européens. On s’empresse donc de revenir aussi là-dessus !

Au plan européen il n’existe pas de volonté de promotion d’un modèle politique et les stratégies diffèrent d’un pays à l’autre. Aucune vision européenne.

À propos d’injonctions contradictoires, il nous faut constater qu’au plan national, faute de vision politique, de décisions politiques claires, nous ne sommes pas dans un débat rationnel.

Quelles sont les priorités ?

Le climat ?
La sécurité d’approvisionnement ?
La compétitivité industrielle ?
Le coût pour le consommateur ?

Aujourd’hui on parle beaucoup de CO2 mais sans aller au bout de cette logique. En effet le marché du CO2 fonctionne très mal et, compte tenu de notre exemplarité en matière de CO2, il faudrait surtout préserver ce qui existe.

De même, en matière d’indépendance énergétique, Olivier Appert a parlé des incertitudes et des tensions géopolitiques sur l’énergie. Il a très bien résumé la situation : elle est aujourd’hui beaucoup plus explosive qu’elle ne l’a jamais été.

Le seul pays qui ait une politique énergétique est la Chine. Parce qu’elle n’a pas de ressources, elle se retrouve, à son échelle, dans la situation qui était celle de la France vers 1950. Et, comme le fit alors la France, la Chine choisit de faire du nucléaire (neuf réacteurs chaque année), de l’hydraulique (le barrage des Trois-Gorges est la première centrale hydraulique du monde) … et un peu de renouvelables, autant que faire se peut.

C’est certainement le plus grand chantier renouvelable du monde mais il est totalement marginal par rapport à la production chinoise qui est encore essentiellement charbonnière.

La politique chinoise consiste à tendre la main à son voisin russe. L’énorme contrat gazier signé entre la Chine et la Russie n’est que la traduction de cette volonté politique chinoise.

Accessoirement, la Chine vient grappiller les infrastructures existantes en Europe (au Portugal, en Grèce…), non pas pour s’intégrer dans le système mais pour en prendre le contrôle. En effet, prendre le contrôle des réseaux, c’est prendre le contrôle du système énergétique. C’est ce qui a été fait il y a trois ou quatre ans en Grèce sans que personne n’y voie rien à redire.

Le débat énergétique est par ailleurs biaisé par de fausses affirmations quotidiennes.

J’ai cité l’Allemagne, archétype surréaliste du mensonge ! En effet, avec son Energiewende et sa volonté affichée de développer les EnR, l’Allemagne a doublé ses émissions de CO2 tandis que la France est restée exemplaire à cet égard. (NDLR : parle-il en fait du gaz fossile ?)

Avec 85 GW de solaire et d’éolien, l’Allemagne produit 120 TWh d’énergie électrique intermittente là où le parc nucléaire français en produit 400. On voit les divergences et l’énorme différentiel entre la France et l’Allemagne en matière de politique énergétique. D’où les remises en cause.

Depuis 2012, l’Allemagne a mis en route chaque année l’équivalent d’un Fessenheim en énergies renouvelables pour un résultat ruineux qui ne lui sert pas à grand-chose et peu d’efficacité.

Aujourd’hui elle ne sait comment faire face aux besoins sans importer massivement une énergie française évidemment nucléaire.

On oublie – ou on occulte – beaucoup de choses.

On oublie d’abord que les énergies renouvelables sont intermittentes, sauf l’hydro-électricité, mais que les besoins sont essentiellement des besoins de base.

On oublie assez facilement les spécificités géographiques. Il est absurde de construire du solaire en Scandinavie où il fait nuit six mois par an. Les pointes de consommation, dans les pays européens, ont lieu l’hiver et la nuit… le solaire est très utile mais c’est une réponse assez limitée.

En France on a trouvé la réponse, on donne des subventions beaucoup plus importantes au kW, au GW ou au TW produit là où il n’y a pas de soleil pour compenser le manque de soleil.

Selon cette logique sidérante, il vaut mieux faire du solaire à Maubeuge qu’à Nice, c’est plus rentable !

On oublie aussi le coût et les problèmes du stockage. Les énergies renouvelables auront toute leur force dès lors qu’on saura stocker l’énergie. Mais on est très loin de la compétitivité du stockage. On a fait beaucoup de progrès mais, d’après les chercheurs du secteur électrique et notamment d’EDF, il faudra encore trente ans pour envisager la possibilité de stocker l’énergie de manière compétitive.

Aujourd’hui, la batterie représente le tiers du coût d’une Tesla. Ce qui peut être accessible en coût pour un véhicule automobile ne l’est absolument pas pour la commodité qu’est le besoin électrique du citoyen pour sa consommation quotidienne.

Quelles priorités ? Sécurité énergétique, coût pour le consommateur, qualité environnementale, compétitivité industrielle, climat ? Si on prend ces priorités, on répond nucléaire ou hydraulique, à l’évidence…

Encore une fois, j’ai passé ma vie dans l’environnement et je n’ai rejoint EDF que tard dans ma vie professionnelle. Je n’étais pas a priori fanatique de telle ou telle énergie mais je reconnais la puissance et l’efficacité du nucléaire. Nous avions la meilleure filière industrielle nucléaire du monde qui faisait de la France l’exemple à suivre. C’est du passé.

À la question des défis que nous devons remporter, j’ai presque envie de répondre que nous avions remporté tous les défis. Il eût suffi de continuer ce que nous faisions, de le faire un peu mieux : améliorer l’efficacité des réseaux, mettre la valeur ajoutée par les nouvelles technologies au service de l’optimisation énergétique, exporter notre savoir-faire et développer la science française dans le monde. Bref, aller à la conquête du monde entier qui a besoin d’énergie.

On n’a pas parlé du continent africain et de ses 1,2 milliard d’habitants qui seront 2,5 milliards dans trente ans. Aujourd’hui 16 % des Africains ont accès à l’électricité (70 % ont un téléphone portable). Comment peuvent-ils vivre sur ce continent sans eau et sans électricité, y compris dans des villes multimillionnaires en habitants ?
L’enjeu du monde, la bombe à retardement du monde, c’est l’Afrique !

On peut s’attendre à un déferlement migratoire. En effet, ce continent ne peut pas satisfaire les besoins de ses 1,2 milliard d’habitants actuels. Comment pourrait-il en accueillir 1,3 milliard de plus sans faire des investissements massifs en matière d’accès à ces sujets vitaux que sont notamment l’énergie et l’eau ?

Cela nécessiterait des investissements en milliers de milliards de dollars, ne serait-ce que sur les infrastructures essentielles que sont les réseaux. Je ne parle même pas de la production. S’il y avait un défi énergétique je dirais que celui-là est prioritaire sur tout ce dont on parle en permanence mais qui n’est pas important. Ce qui m’inquiète, c’est qu’on l’oublie.

Nous Français avons conçu, construit, à l’échelle d’un pays de taille moyenne mais très évolué, un outil remarquable qui a certes quelques défauts mineurs (un peu d’inertie, des problèmes de surcoûts en matière de frais de structures…). Pourquoi ne tirons-nous pas de cette compétence une certaine fierté ? Pourquoi ne ressentons-nous pas la nécessité de défendre ces acquis ?

Si on raisonnait à l’échelle européenne et si possible mondiale de la même manière qu’a raisonné la France de 1950, le défi qui est devant nous serait en voie d’être remporté.

Mais je crains que, pour des raisons souvent incompréhensibles, nous nous soyons éparpillés et que nous prenions beaucoup de retard par rapport à ces enjeux.

Je constate qu’au cours des dix dernières années on a régressé de manière considérable en matière de politique énergétique sur le continent européen.

Jean-Pierre Chevènement

Merci, Monsieur le président.

Si on se place du point de vue du gouvernement, faudrait-il relancer un nouveau programme électronucléaire après que Flamanville aura fait ses preuves (ce qui n’est pas encore tout à fait le cas) ?

Un nouveau programme nucléaire ne sera-t-il pas rendu nécessaire par le fait que nos centrales, mises en service de 1977 à 1999, arriveront à péremption dans les années 2040 si on les prolonge à soixante ans ?
Il y a donc un effet falaise. L’atout nucléaire qui existe depuis les années 1970-1980 va brusquement disparaître. Comme vous l’avez dit il faut savoir raisonner à long terme. 2040, c’est dans à peine vingt ans.

Faut-il prendre cette décision de principe de relancer un programme électronucléaire en France ? Si c’est le cas, quand faudrait-il la prendre pour qu’elle soit opératoire ?

Henri Proglio

Oui, il faut le faire. En termes économiques, industriels, l’optimum serait de prolonger la durée de vie des centrales. C’est par ailleurs nécessaire, pour la raison qu’on a beaucoup perdu en compétence nucléaire au cours des quinze dernières années.

Les conséquences de cette évaporation de compétence et des pertes gigantesques de ce qu’a été Areva sont dramatiques pour l’industrie française.

Je me suis fait couvrir d’injures pour avoir dit il y a quinze ans qu’Areva allait dans le mur. Les résultats sont là… Il se trouve que le mur n’a pas bougé et qu’on s’est fracassé. De la troisième filière industrielle du pays après l’aéronautique et l’automobile il ne reste que les traces.

Il faut reconstruire cette filière nucléaire. Nous n’avons pas aujourd’hui de réacteur compétitif à mettre en route (je ne reviendrai pas sur le sujet de l’EPR), nous devons donc concevoir un nouveau réacteur compétitif qui puisse rivaliser avec les Chinois et les Russes.

Or, en supposant que l’on prenne la décision aujourd’hui, il faudrait quinze ans pour concevoir et construire un nouveau réacteur. J’avais initialement prévu ou proposé que l’on construise une coopération avec les deux nucléaristes puissants que sont aujourd’hui les Chinois et les Russes de manière à passer cette période de transition avec un système de partenariat industriel qui nous permettrait de concevoir et de construire un nouveau modèle français.

J’ai été suivi de très loin… et ensuite contredit de très près. Rien n’a été fait.

Et chaque année, chaque mois, chaque jour nous fait perdre du temps. L’intérêt de la France est de reconstruire son potentiel nucléaire à terme. Par ailleurs son intérêt serait de participer au développement du nucléaire mondial.

Or aujourd’hui, malgré le déficit de notoriété du nucléaire – avec notamment l’accident de Fukushima et les conséquences qui s’en sont suivies – on constate un retour vers le nucléaire de beaucoup de pays, à commencer par la Suède qui, la semaine dernière, a fait savoir que le nucléaire était une industrie d’avenir.

C’est le cas de nombreux pays, notamment les pays les plus peuplés à forte intensité de besoins énergétiques, la Chine, l’Inde, le Pakistan, l’Égypte et tous les pays pétroliers qui craignent de voir leur rente pétrolière s’évanouir.

L’Arabie saoudite, il y a encore cinq ans, autoconsommait pour ses besoins en électricité 26 % de sa production de pétrole.

Et quand on extrapolait les besoins de l’Arabie saoudite sur les trente ans qui suivaient, on prévoyait qu’elle en viendrait à importer du pétrole. Ce qui signifiait retourner au sable pour ce pays qui ne peut pas survivre sans son pétrole.

D’où l’urgence des programmes énergétiques de ces pays, à commencer par les Émirats qui ont construit quatre réacteurs nucléaires, conscients de la nécessité qu’il y a à prendre le relais du pétrole par une autre énergie, pour leurs propres besoins et pour réserver leur outil pétrolier à la géopolitique dont parlait Olivier Appert.

Oui, la réponse logique d’une France lucide devrait être celle-là. Mais – conséquence ou hasard ? – nous n’avons plus de ministère de l’Industrie ni de ministère de l’Energie. Donc le problème n’existe pas.

Jean-Pierre Chevènement

Mais nous avions un ministère du Temps libre !

Je m’inquiète – et vos propos ne m’ont pas rassuré – sur le fait qu’il faut au moins quinze ans pour élaborer un nouveau réacteur. Cela demande en effet des études très compliquées. Nous disposons d’un EPR qui n’est pas au point par rapport à un certain nombre d’exigences, qui peut-être le sera d’ici quelques années.

En 2040 se produira l’effet-falaise que j’ai décrit tout à l’heure, c’est-à-dire la chute brutale de la production du nucléaire qui en l’espace de quelques années va passer de 50 % à 30 % puis à 20 % de notre production d’électricité.

Cela me paraît gravissime. Aucun homme politique ne s’est exprimé sur ce sujet.

Un projet de loi relatif à l’énergie et au climat, qui va être voté en procédure accélérée à la fin du mois de juin, programme la fermeture de quatorze tranches nucléaires. Où est le sens de l’avenir ? Peut-on espérer un réveil de l’esprit de service public, d’un réflexe patriotique élémentaire ? C’est d’autant plus urgent que ces décisions se prennent longtemps à l’avance.

À l’arrière-plan de tout ce qui s’est dit, nous sommes confrontés à l’effet massif de l’idéologie irrationnelle des Verts. Je préfère parler d’ « idéologie des Verts » que d’ « écologie » parce qu’il existe sûrement une bonne manière de traiter les problèmes écologiques.

Je ne suis pas du tout hostile aux exigences de l’environnement, pas plus que M. Proglio qui a été longtemps à la tête de Véolia. Selon un effet idéologique consécutif à la Deuxième Guerre mondiale, à l’horizon de l’histoire humaine le progrès a été remplacé par la catastrophe. Cet effet a beaucoup à voir avec les camps d’extermination et avec les bombardements d’Hiroshima et Nagasaki. La psyché collective fait que peu à peu cette psychologie s’est emparée de l’opinion à travers les médias et que, sous la pression médiatique, nous avançons vers le vide, un peu comme, dans le conte transcrit par les frères Grimm, les rats sont entraînés vers la Weser par le joueur de flûte de la ville de Hamelin. (Voir l’article de Gérard Petit)

Nous sommes dans cette situation pour des raisons profondément idéologiques et accessoirement politiciennes. On a tiré du résultat des dernières élections européennes des conséquences indues. En effet, un certain nombre de gens ont voté pour les Verts parce qu’ils ne voulaient plus voter pour la gauche, pour des raisons que l’on peut comprendre. Mais ceci ne justifie pas cela.

Le problème des verrous technologiques se pose quand même. Nous sommes confrontés au problème massif de l’intermittence des énergies renouvelables qui ne pourra être surmonté que s’il est possible de stocker l’électricité. Il y a sans doute beaucoup d’autres verrous technologiques à faire sauter.

Je fais confiance à Pierre Papon, éminent expert de la question, pour nous les décrire.

—–

[1] M. Proglio a longtemps dirigé Veolia Environnement.

[2] Électrabel est une société anonyme de droit belge fondée statutairement en 1905. Son nom actuel date de 1990, à l’issue de la fusion des sociétés Intercom, Ebes et Unerg. L’entreprise fait partie de Engie – actionnaire à 100 %. Electrabel est active au Benelux où elle domine le marché.

[3] Tractebel est une société internationale, d’origine belge, ayant une activité dans l’ingénierie, l’énergie, l’industrie et les infrastructures. Fondée en 1986, Tractebel appartient au groupe Engie.

Le cahier imprimé du colloque « Défis énergétiques et politique européenne » est disponible à la vente dans la boutique en ligne de la Fondation.

« Le réacteur RNR de 4ème génération permettra de mettre 50 % de plus sur l’investissement » (Claude Acket)

De Claude Acket à Karl Spookbuster

https://twitter.com/KarlSpookbuster/status/1167518136230432769?s=19

« Mais c’est un prototype de nucléaire avancé me direz-vous, ça vaut bien 5 à 7 G€ ? Bah pas vraiment. La filière des RNR-Na de forte puissance a perdu beaucoup de sa pertinence depuis que l’on sait que les réserves mondiales d’uranium sont colossales. »

Ma réponse :
A ce jour l’état des réserves représente un total de 18 millions de tonnes d’U naturel, (celles dites conventionnelles connues, de 6.3 millions de tonnes, celle dites additionnelles prévisions de 11 millions de tonnes et celles dites secondaires, dont stocks militaires de 1 million de tonnes), représenterait environ 270 ans, avec la consommation actuelle.

C’est en effet colossal, mais à pondérer si l’on rapporte à l’emploi actuel du nucléaire au niveau mondial, environ 4.8 % d’énergie primaire. En supposant, que la consommation mondiale nucléaire, soit simplement doublée, suivant en proportion le doublement pour l’ensemble des besoins de la production énergétique, ce rapport, que l’on pourrait appeler durée fictive, serait ramené à 135 ans. Première réaction, face à cette évaluation : c’est pour le prochain siècle, nous avons le temps.

Mais, par contre en supposant, par exemple, que pour diviser par 2 les rejets (avec en première priorité la limitation des rejets de gaz carbonique), le nucléaire remplace la moitié des combustibles fossiles actuellement utilisés en production d’électricité (soit + 7 550 TWh pour un total de 10 370 TWh), la durée fictive serait ramenée à environ 70 ans.

Premier indice significatif, qui conduirait à aller, avant la fin du siècle à ce qui est désigné comme « Réserves non conventionnelles », soit notamment l’uranium contenu dans les phosphates, et, au-delà enfin, à celui contenu dans l’eau de mer, en notant que ce dernier n’a de sens qu’associé à la surgénération, pour aboutir à un nucléaire durable en million de siècles.

Car oui les RNR-Na de forte puissance n’ont qu’un seul argument de vente : la surgénération, c’est à dire de permettre d’utiliser de façon beaucoup plus efficiente le combustible.

Quand on évoque l’efficacité on pense en général à quelques pour cent de gain. Ici on entre dans une échelle différente avec la multiplication par 100 des réserves potentielles, et par quasi l’infini avec l’eau de mer.
L’argumentation n’a rien à voir avec la puissance. La surgénération est, en effet l’argument principal en faveur des RNR Na, qui s’imposerait en cas d’approche d’une pénurie d’uranium.

Mais sans aller jusqu’à la pénurie d’uranium et nous en sommes loin, vue les réserves actuelles et le bas coût de l’uranium, il faut attendre la remontée des coûts pour que l’aspect économique devienne prépondérant.
En sachant que si le coût du combustible (voir chiffre de la cour des comptes), représente environ 8.5 % du cout du Wh, celui de la matière première seule, n’en représente que 2.5 %, en multipliant par 10 ce dernier, j’accrois de 25 % celui du Wh, mais je peux à même coût complet, mettre 50 % de plus sur l’investissement.

Sauf que l’uranium ne coûte rien du tout et qu’il est de plus en plus certain que le surcoût lié au développement et à la construction des RNR-Na les rend non compétitifs

Voir ci-dessus, l’argumentation sur le coût futur de l’uranium, et qu’ainsi des coûts plus élevés d’investissement deviennent comptables. Par contre ajouter comme argument les dépenses de développement, n’a aucun sens, si on considère que comme dans toute filière, les dépenses de développement se répercuteront à très grande échelle sur toute la filière.

Donc d’un point de vue économique, cela fait sens d’arrêter les frais dans les gros RNR-Na et de mettre fin à Astrid [NDLR : en tout cas ce qu’il est devenu]. En effet, le Sodium n’a de sens que pour des Micro Réacteur et la recherche.

Karl dit « Les Lead-Cooled Fast Reactors (LFR/RNR-Pb) et Sodium Fast Reactors (SFR/RNR-Na) n’ont aucun intérêt économique hormis pour les Micro Réacteurs. Les RNR-Na servant aussi pour faire des sources de neutrons »

Ma réponse
Le débat absurde autour du thème des « petits, mini, micro… ! En France, nous avons 58 tranches réparties entre des 900 et 1400 MW, et maintenant avec EPR 1600 MW.
Veut-on mettre en avant des milliers, des millions d’installations, selon l’adage : « petit c’est gentil », le monde de l’absurde.

Karl dit « Il reste deux types de réacteurs ayant un intérêt économique (et écologique) réel : les Molten Salt Reactors (MSR/RSF) et les Hight Temperature Gas Reactors (HTGR), avec évidemment plein de sous-familles. Mais pourquoi ces deux filières là ? »

Ma réponse
Si, on fait un bilan des préconisations du GIF (Génération International Forum) et des 6 filières retenues en 2000, (SFR, VHTR, GFR, LFR, MSR, SCWR), on constate que seule la filière SFR (RNR Na) sort à ce jour du lot.
Cette filière SFR représente un total de 370 Années de production d’électricité (Russie 106, USA 61, France 58…), avec en leadership la Russie (BN 600, en service depuis 1980, et BN 800, en service depuis 2015) depuis que la France s’est mise hors-jeu par raison électoraliste.

Dans le domaine de la surgénération, la filière GFR étudiée aussi par la France en parallèle au début, avec les RNR Na, a été définitivement abandonnée (impossible de répondre aux critères sureté de refroidissement avec du gaz et les fortes puissances spécifiques liées aux rapides).

La filière MSR ou RSF (à sel fondu) basée sur une première technologie développée à l’ORNL jusqu’aux années 1976, orientée neutrons lents, puis abandonnée, a été refondue en MSFR. Mais tout reste à faire.

En résumé à ce jour avec des références solides uniquement SFR (RNR Na)

Fin

Pour en savoir plus sur les RNR : cliquez ici

Les batteries sont inutiles, inefficaces, pour compenser les fluctuations des éoliennes et du photovoltaïque

Il est possible de voir concrètement et de quantifier à quoi peuvent servir les batteries.Elles sont utiles pour ajuster en continu de la fourniture à la consommation mais inutiles, inefficaces, pour compenser les fluctuations des éoliennes et du photovoltaïque, même les fluctuations quotidiennes du photovoltaïque (contrairement à ce qui se dit souvent). Vous pouvez vous en rendre compte de visu en quelques clics sur le simulateur publié ici :

www.hprevot.fr

Ci-dessous, une illustration.
Elles sont utiles pour ajuster en continu de la fourniture à la consommation mais inutiles, inefficaces, pour compenser les fluctuations des éoliennes et du photovoltaïque, même les fluctuations quotidiennes du photovoltaïque (contrairement à ce qui se dit souvent). Vous pouvez vous en rendre compte de visu en quelques clics sur le simulateur publié ici : www.hprevot.fr

Ci-dessous, une illustration.

Henri Prévot, ingénieur X-mines.

Une batterie ne peut se charger que si le parc de production peut produire plus que ce qui est consommé ET si elle n’est pas déjà complètement chargée ; elle ne peut fournir du courant que si l’on en a besoin ET si elle est chargée. Cela fait beaucoup de conditions. L’observation heure par heure montre que les capacités de stockage sont de fait peu utilisées.

L’outil de simulation que je publie suppose que les batteries ne sont chargées que par de l’électricité produite sans émission de CO2 (en réalité, si l’on veut s’en servir pour diminuer les capacités de pointe, on les rechargera aussi avec de l’électricité produite à partir de gaz…).

Par exemple, en supposant que la consommation augmentera de 20% en été et 40 % en hiver (pour remplacer le carburant, le fioul et le gaz), ce qui conduit à 609 TWh, en supposant 30 GW nucléaire, 150 GW éolien dont 100 GW en mer et 150 GW solaire, avec une capacité d’électrolyse de 25 GW, sans batteries, s’il n’y a pas de limite d’accès au réseau des productions intermittentes (ce qui est loin d’être le cas) la production à partir de gaz fossile est de 16,6 TWh (si la limite est la même qu’aujourd’hui, c’est 80,8 TWh) – on retrouve cela en quelques clics à l’aide du simulateur (il suffit de modifier les capacités nucléaire, éolienne, dont sur mer, PV, capacité de l’électrolyseur et capacité des batteries). Les Steps produisent de l’électricité 1500 heures. Les dépenses sont de 68,6 G€/an soit 125 €/MWh.

Avec 50 GWh de batteries, la production à partir de gaz fossile est de 12,04 TWh. L’effet sur la consommation de gaz fossile est donc très faible. Les dépenses sont de 68,7 G€/an. La différence est très faible car le simulateur suppose que les batteries permettent de diminuer la capacité de production de pointe de 10 GW. Le coût des batteries est de 200 €/kWh de contenu ; la durée de vie de 10 ans ; le taux d’actualisation de 5 %.

Avec 100 GWh de batteries, la production à partir de gaz fossile est de 10,56 TWh. Les dépenses sont de 69,9 G€/an ; la différence est de 1,2 milliards par an car je suppose que les batteries ne peuvent pas diminuer la capacité de pointe de plus de 10 GW.

Sur le papier, cela ne coûte rien de pousser la capacité de stockage à 1000 GWh. C’est par exemple la capacité de 10 millions de batteries d’automobiles de 100 kWh. La production à partir de gaz fossile serait alors de 1,16 TWh, les dépenses de 92,9 G€/an, soit 170 €/MWh. Les batteries et/ou les steps fournissent 1774 heures par an, soit à peine 280 h plus que sans batteries. Si le coût des batteries était compté pour 100 €/kWh seulement, le dépenses seraient de 80 milliards, soit 146 €/MWh. Avec une contrainte d’accès au réseau comme aujourd’hui, la production à partir d’énergie fossile serait de 69 TWh. Dans cette simulation les batteries sont donc inutiles car elles n’apportent pas l’inertie dont le réseau électrique a besoin.

Conclusion, les batteries sont utiles pour diminuer la capacité de pointe ; je calcule par ailleurs, en regardant heure par heure ce qui est demandé au déstockage et au gaz, qu’elles permettraient de mieux utiliser la capacité de stockage existante dans les Steps, les lacs de barrage et la modulation possible des retenues de fleuve, mais dans la limite de quelques GWh et quelques GW seulement. C’est aussi un très bon moyen de réglage primaire. Mais elles sont inutiles pour pallier les fluctuations du vent et du soleil – même les fluctuations journalières du soleil ! En effet, l’hiver, le soleil ne suffit pas à charger les batteries pendant la journée et, l’été, il y a généralement, la nuit, suffisamment d’électricité produite par le nucléaire l’hydraulique et le vent ; il est rare de voir des décharges de batterie la nuit en été.

Cordialement.

Henri Prévot

Sauver le climat, avec les RNR Na

Sauver le climat, avec les RNR Na

Surgénération, une filière nucléaire, déjà mature à développer

Version pdf ici

A) Vue d’ensemble, la situation actuelle, le futur proche

 

Limiter l’importance du changement climatique suppose, de réduire, voire d’approcher la suppression totale de l’appel aux combustibles fossiles, (charbon, pétrole et gaz naturel) sources de rejets de gaz carbonique, qui à ce jour répondent à plus de 80 % des besoins mondiaux.

En 2015, pour un total énergie, mesuré en énergie primaire de 13.5 Gtep, 11 Gtep (soit 81.4 %) étaient associées aux combustibles fossiles, avec en numéro Un, le pétrole. Mais en mesurant ceci par la quantité de rejets de gaz carbonique, le numéro Un devient le charbon, (avec 43 % des rejets).

Pour cette limitation d’usage des combustibles fossiles, il faut se reposer sur deux voies, deux pistes, en premier agir au niveau des besoins, via les économies d’énergie, et pour répondre aux besoins restants, faire appel aux sources d’énergie décarbonées.

Les économies d’énergies sont indispensables, mais elles ne s’appliquent évidemment, qu’à ceux qui consomment déjà beaucoup, soit globalement, au sein des pays dits développés, et non à ceux qui sont en manque quasi vital.

Les économies d’énergie, sous leurs deux formes à ne pas confondre, de sobriété et d’efficacité, ont leurs limites, notamment du physiquement réalisables, et d’acceptabilité en mode social, si on parle sobriété, et de faisabilité technique, financière, si l’on parle efficacité. Ceci doit être placé dans un contexte d’accroissement de la population mondiale (+ 25 % environ d’ici 2050, et.au delà, d’ici la fin du siècle, de l’ordre de + 50 %).

 

Pour répondre aux besoins restants, pour certains en partie vitaux, hormis les voies de séquestration de carbone, qu’elles soient soit naturelles (dont via la biomasse étendue), ou artificielle, avec la technologie dite CSC, en développement, ont leurs limites, il faut remplacer les combustibles fossiles, en faisant appel, pour l’essentiel aux sources décarbonées,

Cette possibilité de remplacer les combustibles fossiles par des sources décarbonées, a déjà été amorcée en France, avec la sortie du charbon et du fuel lourd, avec le développement du nucléaire pour la production d’électricité. Ceci déjà fait, permet à la France de rejeter par habitant, environ 50 % de moins de gaz carbonique que l’Allemagne, pour l’ensemble de sa production énergétique.

En 2015, les émissions de gaz à effet de serre française avaient baissé de 16 % par rapport à 1990, tandis que la population avait augmenté de 15 % et notre PIB de près de 49 %. Cette baisse est consécutive à l’arrivée de l’électricité nucléaire à la place du charbon. Sans ceci, il aurait fallu faire face à une augmentation de l’ordre de 30 %.

De + 30 % à – 16 %, quel premier pas, à préserver et à amplifier.  

Cette place du nucléaire en France, s’est traduit, après l’abandon de la première génération de centrales nucléaire, avec la filière appelée communément graphite/gaz, en 1969 au profit des réacteurs à eau pressurisée de conception américaine (PWR) depuis francisée REP.

Ainsi, nous arrivons, avec la seconde génération de centrales REP (PWR), qui après Chooz A et ses 305 MWe (1967-1991), nous arrivons, à ce jour, à un total de 63 GW installés, répartis sur 58 unités, dont 34 de puissance 900 MWe (en premier Fessenheim 1, mis en service en 1977), les 24 unités de 1300 MWe (exemple Palue1), et enfin les 4 unités de 1 450 MWe (dont la dernière Civeaux 2, mis en service en 2000).

Une des premières questions qui se pose, est la durée de vie de ces unités ?

Les spécifications initiales des réacteurs français visaient au départ, sur des considérations économiques, et non techniques, une durée de vie de 40 ans. Ce chiffre s’applique indirectement en spécification du matériel, par exemple en imposant des nombres des sollicitations pendant toute la vie, ceux des transitoires à faire face, mais n’impose pas directement un temps. Un état des lieux quasi permanent s’impose, qui peut se traduire par une comptabilisation des situations, à situer par rapport aux spécifications.

Ce n’est pas seulement à l’approche des 40 ans que la question du maintien en service de l’installation se pose. En France, l’Autorité de Sureté impose, une réévaluation de sureté tous les 10 ans, et lors des visites décennales la mise en œuvre de multiples vérifications, inspections complètes d’état de santé.

Dans la continuité de ce suivi régulier, se pose naturellement la question d’aller au-delà des 40 ans, à regarder, comme le retour sur investissement. Ce sujet est d’autant plus d’actualité qu’on ne cesse de mettre, à juste titre, en avant la sobriété, le non remplacement inutile, la continuité de maintien en service de tout appareil, domestique ou industriel, le plus longtemps possible, tant qu’il répond au service demandé au départ, en un mot magique « l’économie circulaire »[1].

Ce refus de l’obsolescence doit s’appliquer aux réacteurs nucléaires, sans pour autant tergiverser sur la sureté, ce qui fait l’objet de toute l’attention des Autorités de Sureté.

Rien ne devrait donc s’opposer, à retenir en France l’option, d’aller à des durées de vie au moins entre 50 et 60 ans, durées à optimiser selon les tranches, et le lancement des programmes de remplacement. Il faudra bien un jour les remplacer, mais au plus tard si possible et toujours dans le respect absolu des impératifs de sureté.

 

Il faut noter qu’aux Etats Unis, alors que la licence initiale prévoyait 40 ans, la majorité des centrales PWR, ont déjà obtenu l’autorisation de fonctionner 60 ans et que des études sont lancées pour prolonger à 80 ans. Cela signifie que certaines de ces centrales construites dans les années 1970 seront encore en exploitation en 2050.

Rêvons que Civeaux soit encore en service en 2060/2070 … ; et que l’on revienne sur l’arrêt de Fessenheim, en mettant de côté idéologie et en pensant enfin effet de serre.

Enfin, pour faire un état actuel, complet sur le nucléaire, et en prévision de la suite, il faut noter le lancement en cours, de la troisième génération de nucléaire avec EPR et ses 1600 MWe,

Ainsi, le premier EPR français (Flamanville 3), est prévu mis en service en 2022, mais en insistant, qu’en parallèle deux EPR, sur la base de construction française (EDF et Framatome) ont déjà été mis en service en Chine (Taishan), le premier en juin 2018 et le second en mai 2019. A ceci il faut ajouter, en prévision la mise en service de l’EPR finlandais (Olkiluoto) en cette année 2019, ou début 2020 (le chargement en combustible vient d’être lancé).

Mais en pensant à l’avenir, et en revenant sur le passé, il faut noter, en France, les 2 RNR surgénérateurs, avec en premier Phénix et ses 250 MWe, en service de 1973 à 2009 (soit 36 ans) et Super Phénix et ses 1 200 MWe, en service de 1986 à 1997 (décision politique d’arrêt).

Deux réalisations en avance pour la future 4° génération de nucléaire, ici assurée par des RNR sodium, que nous détaillerons plus loin.

 

La suite, dans la mesure où le nucléaire n’est pas rejeté, voire limité (comme prévu dans la loi en préparation [2]), sera en grande partie fonction de l’acceptabilité, qui repose en grande partie sur l’analyse des plus et des moins.

 

En application du principe de précaution, qui ne doit pas se traduire, par celui de l’inaction, pour guider les choix et ne pas se bloquer sur des a priori idéologiques, il faut faire la balance entre les plus et les moins pour l’avenir du nucléaire.

Voir en Annexe, le détail argumentaire et notamment la synthèse mettant en avant l’avis de l’Académie Française de Médecine, qui considérant les bilans, se prononce clairement en établissant, que de tous les grands moyens de production d’électricité, c’est :

« Le nucléaire qui a le plus faible impact sur la santé par kilowattheure produit ».

 

Une vision claire, simple, conduisant à poursuivre sur cette voie du nucléaire, mais en se posant la question : est- ce durable ?

Pas de confusion, le nucléaire n’est pas renouvelable. Ne confondons pas durable et renouvelable. L’ancienneté de sa source, l’uranium existe depuis des milliards d’années (voire aussi le thorium), ne lui confère ni plus ni moins de faveurs que les fossiles, eux, plus « jeunes », si anciens de centaines de millions d’années. Le stock est là, une fois pour toute. Il y a un fond de réserve à disposition, à extraire du tas après avoir creusé.

Le nucléaire ne serait-il comme les fossiles qu’une source, disponible à durée limitée qui se chiffrerait de l’ordre du siècle, comme l’indique le tableau ci-dessous, pour ces derniers ?

  Ra/Pa (identifiées) R ultimes ??
Pétrole         60 ans    X  2
Charbon       250 ans    X  2
Gaz         70 ans    X  2
Tous fossiles       104 ans  

Tableau : en nombre d’années, au rythme actuel d’utilisation, sur la base des réserves dites « identifiées », assez sures, et celles repérées ultimes, possibles, mais en partie non garanties.

 

Pour le nucléaire, sur la base de la consommation actuelle mondiale, il y en aurait pour environ 270 ans[3].

Il y aurait un peu de répit, si l’appel à l’uranium reste stable, mais en fait, il devrait fortement augmenter, le monde devant faire face dans l’avenir à un fort accroissement spécifique du vecteur électricité, comme le montre les évolutions récentes.

Ainsi, durant la dernière dizaine d’années, on note une croissance annuelle moyenne de la consommation d’électricité, au niveau mondial d’environ 2,4 %/an, contre seulement 1,5 %/an pour la totalité de l’énergie primaire, incluant la crise économique et financière 2007-2008 (subprimes, crises bancaire et financière) qui a secoué le Monde entier.

Cette tendance de plus d’électricité se constate surtout dans les pays en développement, ou ceux dits émergents. Ainsi en 10 ans la consommation électrique a été multipliée par 2,8 en Chine (pour + 5,5 % de population) et par 1,8 en Inde (pour + 17 % de population).

Cette tendance ne peut que s’amplifier au niveau mondial, vu le retard d’électrification des pays en développement, mais aussi au sein des pays développés, avec de plus en plus d’applications électriques pour les particuliers (chauffage avec les pompes à chaleur, climatisation, déplacements électriques collectifs et individuels …) et de façon générale toute l’industrie, y compris celle des matières premières, sans oublier le monde informatique et ses datacenters, de plus en plus gourmands.

 

Pour répondre à ces besoins croissants d’électricité, le nucléaire, en tant que source décarbonée doit occuper une place significative, en concurrence, ou complémentarité avec les renouvelables électrique, mais ceux-ci, hors hydraulique sont intermittents et ont besoin d’un secours (backup) déjà en puissance installée 

 

En conséquence, les besoins en uranium au niveau mondial devraient s’accroitre, et ainsi la pénurie probable de combustibles pour les fossiles, au niveau du siècle, pourrait aussi affecter le nucléaire, encore plus rapidement, si l’accent est mis sur la Sortie de fossiles, et si la priorité portée sur la lutte contre le changement climatique s’impose.

 

Ce sujet, ressources, a été abordé dans le cadre de l’organisation international du GIF (Génération International Forum) et de la IV° génération, qui couvre les systèmes nucléaires à l’horizon du milieu du XXI° siècle, répondant à des objectifs d’économie des ressources en uranium, de compétitivité, d’amélioration de la sûreté par rapport aux réacteurs des générations précédentes, de réduction des déchets et de protection contre les actes de malveillance et les possibilités de détournement, ou de vol de matières nucléaires.

En précisant que le GIF ne se prononce pas sur l’avenir du nucléaire, comme un tout, mais dans le cadre du nucléaire, sur une sélection de filières.

Au titre de la IV° génération, c’est bien l’économie des ressources en uranium, via la surgénération, qui constitue le point clé, et conduit à retenir les RNR-Na, en favori.

D’autres filières, examinées, comme les GFR (Gas cooled Fast reactor) ou MSR ( Molten Salt Reactor) ont été considérées, mais reconnue, comme moins prometteuses, les premiers par l’analyse de sureté, montrant les limites du gaz caloporteur, les seconds par l’absence de références solides, ce qui n’était pas le cas des RNR Na.

 

Il faut rappeler que la surgénération se définit comme la capacité d’un réacteur nucléaire à produire plus d’isotopes fissiles, qu’’il n’en consomme.

Ceci est obtenu en transmutant des isotopes dits fertiles en isotopes fissiles.

 

Le seul isotope fissile disponible en tant que ressource naturelle sur terre est l’uranium 235, mais si rare, puisqu’il ne représente en teneur que 0,7 % de l’uranium naturel.

Zéro sept pour cent, c’est peu, mais ce fût suffisant pour lancer le nucléaire, avec la première pile atomique à Chicago en 1942, Zoe en France 1948 et la suite avec les réacteurs graphite gaz français.

 

L’uranium naturel contient en fait, essentiellement de l’uranium 238 fertile qui constitue 99,3% de la masse totale. L’objectif de la surgénération est justement de valoriser cette matière première, en le transmutant en plutonium fissile, inexistant dans la nature, multipliant le potentiel énergétique d’un facteur proche de 100.

 

Mais en fait, ceci devrait permettre d’aller beaucoup plus loin, en valorisant des minerais d’uranium à très faibles teneurs, et pourquoi pas à la limite, même l’uranium contenu dans l’eau de mer.

Ainsi cette surgénération pourrait permettre d’assurer les approvisionnements mondiaux en électricité pour des millénaires, voire des millions d’années.

RNR-Na : une source d’énergie véritablement durable au sens disponibilité dans le temps.

 

Ainsi, alors que le parc nucléaire français consomme environ 8 000 tonnes d’uranium naturel chaque année et laisse de côté 7 000 tonnes d’uranium appauvri, un parc de RNR de puissance équivalente ne nécessiterait chaque année qu’environ de 130 à 80 tonnes d’uranium appauvri (ou d’uranium issu des opérations de retraitement des combustibles MOx ou de retraitement : URE). En outre, le stock d’uranium appauvri dont dispose la France sur le seul site de Pierrelatte, soit environ 250 000 tonnes, lui assurerait une indépendance énergétique d’environ 3 000 ans avec un parc de RNR.

 

 

C) Les réacteurs rapides refroidis au sodium liquide RNR-Na

 

Nous rappelons que l’objectif principal de développement de cette filière, dans le cadre de la IV génération, est la surgénération, soit la capacité d’un réacteur nucléaire à produire plus d’isotopes fissiles, qu’’il n’en consomme.

 

Alors que l’uranium naturel a un seul isotope fissile disponible en tant que ressource, l’uranium 235, qui ne représente en teneur que 0,7 % de l’uranium naturel, il contient essentiellement de l’uranium 238 fertile qui constitue 99,3% de la masse totale.

L’objectif de la surgénération sera justement de valoriser cette matière première, comme montré dans l’évolution neutronique, schématisée ci-dessous, avec l’absorption d’un neutron rapide.

iimage001.jpg

Situation actuelle de la filière RNR Na

 

A ce jour, au niveau mondial, nous ne partons pas de rien, et arrivons à environ 200 années/réacteur cumulées, en production d’électricité) et plus de 450 années si on prend en compte les réacteurs expérimentaux (comme Rapsodie, DFR…)

Dans l’ordre des années de mise en service, nous retenons comme repères principaux, les installations suivantes :

– BOR 50 en Russie et ses 55 MWe, toujours en service depuis 1968

– Phénix en France et ses 250 MWe (1973-2009) et ses 37 ans d’opérations

– PFR en Grande Bretagne (Ecosse) et ses 250 MWe (1974-1994)

– BN 350 au Kazakhstan (en fait ex URSS) pour un équivalent de 350 MWe (1974-1999)

– BN 600 en Russie et ses 600 MWe, toujours en service depuis 1980, l’ancêtre  

– Superphénix (SPx) en France et ses 1 240 MWe (1985-1997)

– FBTR en Inde et ses 13 MWe, toujours en service depuis 1985

– Monju au Japon et ses 300 MWe, début de mise en service en 1994, mais retards divers, pour abandon définitif en 2017 (en partie conséquence Fukushima)

– CEFR en Chine et ses 25 MWe mis en service en 2010

– PFBR en Inde et ses 500 MWe, mis en service en 2014

BN 800 en Russie et ses 800 MWe, mis en service en 2015/2016, la référence Monde

 

Au niveau mondial, la France, en première ligne, avec Phénix, puis Super Phénix, a passé le leadership de la filière à la Russie, suite au fiasco politico-idéologique de Super Phénix.

 

En France, la douloureuse histoire de Super Phénix et la suite de la filière RNR Na

 

Superphénix (SPx), avec une puissance de 1 200 MWe, a fait l’objet d’une commande en 1977, de la société internationale Nersa (France 51 %, Italie 33 %, Allemagne 16 %), passée, sous forme de contrat clefs en mains auprès d’un groupement industriel européen, coordonné par la société française Novatome, du groupe Framatome/Areva

.

Superphénix fût le point de mire, de tous les mouvements anti nucléaires d’Europe de l’Ouest, détournant ainsi l’attention des opposants, des autres sites nucléaires PWR, qui notamment en France purent se développer, au calme.

Pour le bonheur des autres sites nucléaires, le diable était ailleurs à Creys Malville dans l’Isère, où devait se concentrer l’opposition. Ceci se traduisit sur le site et dans la région, par de multiples manifestations avec la présence de groupes importants violents, venant notamment d’Allemagne et de Suisse. On retiendra le summum en 1982, avec un tir de nuit de 5 rockets à partir de la rive opposée du Rhône[4].

En dépit de ce climat hostile, le chantier avança et la puissance nominale fut atteinte en décembre 1986, soit dans des délais satisfaisants, sans surcoût significatif, compte tenu du caractère prototype et aussi de l’organisation industrielle internationale, mise en œuvre.

Mais, après le succès de mise en service, et réalisation des principaux essais contractuels, des problèmes techniques ont été rencontrés dans les premières années de fonctionnement. Les défauts réels, significatifs, notamment la fuite du barillet, consécutif au changement d’acier par rapport à Phénix furent corrigés au fur et à mesure. Situation non évitable à 100 %, pour une nouvelle filière à mettre au point[5].

Ainsi, lors du dictat d’arrêt en 1997, tous les incidents rencontrés, y compris le plus important, celui du barillet, avaient été corrigés, sans aucune conséquence sanitaire pour le personnel et encore moins pour le public.

En fait l’ensemble des incidents, sur une période de 11 ans de janvier 1986 (premier couplage) à décembre 1996 s’est traduit par 25 mois de travaux, soit 19 % du temps. Cette pénalisation doit être placée à côté de 53 mois de fonctionnement cumulés, soit 40 % du temps, dont même un taux de disponibilité de 90 % la dernière année. Mais pour comprendre l’impact réel en temps, il faut ajouter l’essentiel, soit 54 mois de procédures administratives, soit 41 % du temps, y compris la reprise d’enquête d’utilité publique. Tout fut fait pour, via des attaques juridiques, retarder toute reprise après les incidents.

Le dictat d’arrêt fût notamment argumenté pour des raisons de coûts. Ceci est incompréhensible, si on considère que toutes les dépenses d’investissements étaient faites et que côté matière consommable, outre le combustible encore chargé, il y avait un demi/cœur complet, en attente de rechargement, soit la capacité de produire encore 30 milliards de kWh (30 TWh) et pas de nécessité d’achat de combustible pendant 4 ans.

 

Après l’abandon de Superphénix et la fin de mission de Phénix[6], les équipes avaient été en grande partie dispersées, une relance des études de la filière a pu tardivement être relancée, dans ce qui fût appelé programme Astrid, (Advanced Sodium Technological Reactor for Industrial Demonstration), avec en objectif 600 MWe, soit un intermédiaire entre Phenix et Super Phénix. Programme, qui visait notamment à montrer la faisabilité du bouclage du cycle de combustible en brulant de l’uranium appauvri et du plutonium issu de la combustion du parc actuel est maintenant dans les limbes. Faute de finance, son premier objectif serait revu pour un projet de puissance réduite entre 100 à 200 MW. Mais, tout pourrait aussi être arrêté.

Le leadership est désormais Russe avec BN  600 et BN 800, et des études de projets de 1200 et 1600 MW, en notant un projet commun de BN 800 en Chine, en sachant que les Chinois développent en parallèle leur propre filière RNR, comme ils développent aussi leurs filières nationales, eau pressurisée, parmi d’autres.

 

 

Principales caractéristiques techniques de la filière RNR Na

 

Ce sont des réacteurs nucléaires à neutrons rapides, dont les cœurs se caractérisent par des faibles sections efficaces de captures neutroniques, d’où de très fortes concentrations en combustibles et de fortes densités de puissance à extraire.

Le combustible fissile est du plutonium au sein d’un oxyde mixte UO2–PuO2. Le faible enrichissement de 3 à 5 % d’uranium 235[7], des réacteurs du type REP (PWR) est ici remplacé par du plutonium, venant du recyclage de ces derniers, en sachant que du plutonium se forme dans ces derniers au fur et à mesure de la vie en puissance.

 

Ceci impose un réfrigérant efficace, dont sont exclus toux ceux qui peuvent ralentir (thermaliser) les neutrons, avec notamment la présence d’atomes d’hydrogène, comme l’eau, les liquides organiques. Sont exclus aussi tous les gaz, faute de capacités thermiques suffisantes, y compris l’hélium, d’où le choix du sodium essentiel et structurant sur la conception, l’exploitation, ce qui associe des facteurs très positifs, et d’autres, plus négatifs, dont les conséquences devront et ont été maîtrisées.

 

Le sodium est un métal mou de couleur blanche, qui fond à 98 °C, et à la pression atmosphérique il bout à 882 °C.

 

Ce sera sous forme liquide, donc à température supérieure à 98 °C, qu’il sera utilisé, mettant à profil toutes ses qualités thermodynamiques favorables (conductibilité, coefficients d’échange, capacité calorifique)

Mais si on ajoute, que, comme métal, il dispose d’un coefficient de dilatation important, d’où, une forte aptitude pour faciliter la convection naturelle, par différence de densité, entre les colonnes de liquide montante et descendante, selon la température, et donc sans pompe (caractère de passivité en évacuation de la puissance résiduelle).

En liaison avec l’importance des masses de sodium stockées, dans le circuit primaire intégré, tout est en place pour faire face aux incidents, accidents de circulation et la sureté passive.

 

La température de fusion de 97 °C n’est pas anodine, mais, sa prise en compte s’avère aisée, grâce à des équipements de préchauffage, avant remplissage, qui s’avèrent simples à mettre en œuvre, et peu coûteux. Cette température est suffisamment basse pour maintenir à l’état liquide ce métal, sans difficulté significative, en cas d’arrêt du réacteur, faciliter les approches inspection, maintenances simples, sans dépenser beaucoup d’énergie.

 

Avec ces propriétés, ce fluide de refroidissement permet d’atteindre des températures élevées, (490 °C et 184 bars pour SPx, au lieu de 288 °C, 71.1 bars pour N4), d’où un meilleur rendement du cycle de conversion, (41.3 % pour Super Phénix, à comparer aux 34,1 %, typique du PWR type N4)

 

La très élevée température d’ébullition de 882 °C, à la pression atmosphérique, est un atout majeur, pour toute la conception et la sureté, avec des marges considérables vis-à-vis du changement d’état en cas d’accident majeur.

Il n’est pas nécessaire de le maintenir sous pression pour qu’il reste liquide, d’où pas de pression significative dans tous les circuits.

La pression n’est maintenue que légèrement supérieure à la pression atmosphérique, via des couvertures en gaz (argon en général en centrale, mais aussi en azote dans les boucles d’essais, ou les stockages basses températures), pour éviter les entrées d’air. Il ne reste à prendre en compte, lorsqu’on parle force de pression, que les seules forces de pesanteur gravitaires avec les différences de hauteurs au sein des circuits. Ceci donne très peu de contraintes primaires sur les structures, qui en conséquence peuvent être très minces. Ainsi l’épaisseur en partie courante de la cuve de Superphénix de 25 mm pour un diamètre de 21,5 mètres. Ceci donne des rapports diamètre/épaisseur très différents des REP, exemple épaisseur de cuve 200 mm pour un diamètre interne de 3,988 mètres pour le palier 900 MWe.

Cette relative minceur diminue l’importance des contraintes thermiques, e repérée aussi secondaire dans l’approche de dimensionnement, en sachant que RNR ou REP, répondent aux règles de base basées sur les mêmes fondamentaux, le RCCM (Règles de conception des îlots nucléaires REP) ayant été adapté aux RNR, avec le titre RCCMR, avec validation des autorités de sureté.

 

. Cette température élevée d’ébullition confère une marge considérable de sécurité, vis-à-vis du risque de changement d’état (liquide/gaz) lors des accidents de circulation de fluide.

 

Autre avantage significatif majeur, le sodium ne corrode pas les canalisations, contrairement à l’eau utilisée dans les réacteurs du type REP. Les structures aussi bien en aciers austénitiques, que ferritiques de Phénix, inspectées après presque 40 ans de vie en sodium, se sont révélées comme neuves.

 

Mais, comme points négatifs à maitriser, il faut noter la forte réactivité chimique du sodium, tant avec l’eau (réaction forte), qu’avec l’air (combustion modérée, si on compare au fuel).

C’est cette réactivité avec l’eau qui conduit à prévoir un circuit intermédiaire, appelé circuit secondaire, (nombre de boucles variable selon les installations) circuit tampon pour bien séparer le circuit actif, ou activé, autour du cœur, et l’eau du générateur de vapeur.

.iimage001.jpg.png

Le cycle thermique RNR-Na, données chiffrées pour Super Phénix

 

La présence des circuits de sodium secondaire (plusieurs, nombre variable selon les installations, 3 à Phénix, 4 à SPx) permet de séparer le risque chimique et celui d’origine nucléaire (ou radioactif), et conduit à n’avoir à traiter qu’une situation technique courante en pétrochimie, en dehors de tout risque de radioactivité.

Indépendamment des exigences de qualité de fabrication et des inspections périodiques, une grande importance est accordée à la détection de début de réaction sodium/eau. Les moyens nécessaires ont été obtenus avec le développement de capteurs spécifiques de présence d’hydrogène dans le sodium (indicateur certain d’un début de réaction sodium/eau), ou dans l’argon des espaces gaz du circuit secondaire. Ces dispositifs de détection d’hydrogène se sont révélés très sensibles. Le moindre début de fuite est détecté, donne lieu à une alarme, qui conduit à arrêter l’arrivée d’eau. Rien de plus simple, il suffit de fermer une vanne.

Mais, comme ceci n’exclut pas absolument à 100 % une réaction violente, des dispositifs de sécurité, comme des disques de ruptures sont mis en place. Ils limitent le pic de pression engendré, qui pourrait se propager dans le circuit secondaire.

La réactivité chimique avec l’air, moins brutales, explosive, se pose différemment que celle avec l’eau. Il est noté, en particulier, que les feux sodium, très différents des feux d’hydrocarbures, sont très peu énergétiques et dégagent peu de chaleur.

Mais avant de parler feux, il faut retenir qu’en l’absence de pression significative, l’apparition d’un défaut débouchant se traduit par un suintement hors tuyauterie, dans l’espace sous calorifuge, calorifuge qui lui-même sera en général enveloppé d’un mince tôlage de métal ordinaire. La détection de la première trace de sodium est primordiale et doit conduire à la vidange du circuit concerné, sans attendre. Mais heureusement les techniques de détection de fuites de sodium existent et sont très sensibles, bien rodées. Elles ont fait leurs preuves.

Lors d’un feu, la quasi absence de flammes facilite l’approche notamment pour la confirmation d’un défaut. Par contre la fumée, si significative, peut gêner la vision. Si pour un petit feu, l’opérateur peut s’approcher à quelques centimètres, avec l’extincteur portatif approprié (voir poudre extinctrice ci-dessous) ou simplement une pelle, il faut prévoir pour des grands feux hypothétiques, des installations permanentes de récupération du sodium et d’injection de produit étouffant spécifiques, maintenant bien rodé, adapté pour lutter contre les feux sodium, expérimenté à très grande échelle, qui outre la limitant l’arrivée d’air, étouffe et arrête tout feu sodium débutant, ou même important comme les feux en nappe.

En dehors des aspects réactivités chimiques, vues ci-dessus, il faut noter aussi comme élément à prendre en compte l’opacité, qui a des répercussions sur les opérations de manutention du combustible, d’inspections et d’interventions.

Si pour les réacteurs à eau, la vision directe est possible et est à la base des opérations de manutention du combustible, d’inspections et d’interventions, l’opacité du sodium change partiellement les fondamentaux.

Le choix du sodium, sera en premier très structurant pour la manutention des combustibles (chargements/déchargements) du fait de son opacité, jointe à sa réactivité avec l’air. Alors que, pour un REP, toutes les opérations de manutention du combustible sont faites, quasiment directement à distance de quelques mètres, sous la protection vis-à-vis des rayonnements de plusieurs mètres d’eau, donc visibles, tout change avec le sodium opaque, et à isoler de tout contact à la moindre trace d’air et encore plus d’eau, ne serait-ce que la simple humidité ambiante.

Les manutentions d’assemblages (chargement de neufs ou déchargement d’usagés) se font réacteur arrêté à 180 °C. Les machines, de conceptions mécaniques simples, fonctionnent en sodium liquide (un très bon lubrifiant) ou en argon, ce qui ne pose pas au départ plus de difficultés que des mouvements en eau ou en air.

Cet état de fait, ne conduit pas à modifier fondamentalement les machines courantes, industrielles, utilisées en manutention, avec des prises par grappins mécaniques sur les têtes des assemblages, des transferts automatiques par des déplacements simples verticaux, ou rotations, parfois le suivi de rampes déjà installées.

Cette non visibilité a conduit toutefois à lancer la « visualisation » sous sodium. Il s’agit bien sûr, d’une visualisation indirecte. Cette visualisation a été prévue au départ avec l’objectif de contrôler les déplacements à distance de machines, afin de ne pas venir buter sur des obstacles, comme dans le noir, d’où l’idée des ondes ultrasons des chauves-souris. Aujourd’hui, où nous voyons des radars de recul installés de plus en plus sur nos simples voitures, il peut paraître saugrenu de se féliciter d’avoir mis ceci en place dans Phénix pour les manutentions en 1972. Mais à l’époque, c’était une première performance et on peut mesurer les progrès faits dans toutes ces technologies ultrasons, autant au niveau des capteurs/récepteurs, qu’au niveau des logiciels de dépouillement des mesures, avec tous les progrès de l’informatisation.

L’opacité n’est donc, non plus pas un obstacle, lié aux spécificités du sodium difficile à surmonter, en comparaison de ses avantages physico chimiques, qui se retrouvent dans l’approche sureté.

 

RNR Na, le circuit intégré

De façon générale, un circuit se conçoit, avec des appareils spécifiques (chaudière, pompe, échangeur …) bien séparés, reliés entre eux par des tuyauteries. Ainsi les REP sont à boucles et, pour ceux-ci, cuve, pompes et échangeurs du type générateurs de vapeur, sont reliés entre eux par des tuyauteries.

C’est lors des choix d’options faits en 1966/1967, que le concept du circuit primaire intégré a été adopté pour Phénix et ses 250 MWe, en pensant aussi au futur pour des centrales dans la gamme 1 000 MWe. Choix original, osé ? L’avenir confirmera que c’est de loin la meilleure solution aussi pour la sureté. Les Russes l’ont adopté pour BN 600, alors que BN 350 était à boucle.

Ce concept, que l’on appelle aussi du type piscine, intègre le cœur, les pompes, les échangeurs intermédiaires, et le sodium primaire, le tout installé, enfermé en totalité dans une seule et simple structure : la cuve principale, entourée d’une cuve de sécurité.

Le sodium primaire, activé à sa traversée du cœur, ou via des particules en suspension, ne sortira jamais de cette cuve.

La structure intégrée primaire est naturellement très favorable à la limitation des chocs thermiques, lors de tous les transitoires de fonctionnement. Elle est aussi, et ceci est essentiel, très favorable à l’évacuation de la puissance résiduelle (ce résidu d’énergie encore à évacuer alors que la réaction nucléaire est déjà arrêtée), notamment en favorisant la convection naturelle, jointe à l’inertie du sodium contenu.

 

 D) La transmutation, aller plus loin ?

Mais, en profitant des spécificités des neutrons rapides, se pose la question d’aller au-delà de la séparation du seul plutonium, et surgénération, et essayer de réduire en partie les ultimes constituants de ces déchets (essentiellement des actinides dits mineurs, Américium, Neptunium, Curium) en les transformant en déchets à vie courte.

Une fois séparés, les radioéléments à transmuter pourraient être introduits dans le combustible des réacteurs sous forme d’une cible, ou dilués d’une manière homogène dans le combustible, profitant de l’efficacité et des très hauts flux de neutrons rapides.

Ce retraitement reposerait sur de nouvelles techniques physico chimiques, qui s’avèrent plus difficiles à maitriser, et pas sans risque pour le personnel, que celles déjà mises en œuvre pour la seule séparation du Plutonium (Procédé hydrométallurgique appelé Purex (Plutonium Uranium Refining by Extraction) de traitement des combustibles à l’usine de La Hague).

Nouveaux procédés à mettre au point. Il ressort, qu’à ce jour, seule la voie Américium soit encore regardée avec intérêt, avec comme objectif de réduire l’importance du site de stockage souterrain des déchets radioactifs (beaucoup moins de chaleur à évacuer)

Une fois séparés, le comportement en réacteur a été testé sur Phénix, sur les différents oxydes des trois actinides concernés : AmO², NpO² et CmO², et sur le Technétium au titre produit de fission important, avec des rendements, souvent limités.

Si, la transmutation de certains actinides mineurs, comme l’Américium et le Neptunium, a été démontrée sur le plan scientifique, il reste encore des progrès à faire, pour l’adopter à l’échelle industrielle. Par contre, la transmutation du Curium, très radioactif, difficile à manipuler, continue de poser de gros problèmes.

 

E) Conclusion, en regardant dans le marc de café

Enrico Fermi, l’un des pères fondateurs du nucléaire, s’était clairement prononcé, en disant, que : « Le pays qui sera le premier à mettre au point un réacteur surgénérateur en tirera un avantage commercial décisif pour exploiter l’énergie nucléaire ».

Ce pays a été la France, avec le développement des RNR Na (rapides/sodium), jusqu’en 1997, marquant l’assassinat de Super Phénix ;

Cette technologie de base, avec notamment le circuit intégré, et ses avantages intrinsèques vis-à-vis de la sureté, a été reprise, consolidée en Russie, avec les modèles BN 600 et BN 800, et des projets ambitieux pour le futur, que regardent avec soin la Chine et l’Inde, tous deux très engagés dans le nucléaire de deuxième et de troisième génération.

Cette filière RNR Na s’avère pouvoir répondre aux mêmes critères de sureté que les filières actuelles de référence PWR, apportant en plus la possibilité de surgénération, pas cruciale à ce jour, compte tenu du marché de l’uranium. N’ayant pas eu un développement industriel comparable à celui de ces PWR, par manque de recul, toute comparaison financière est impossible.

Une évidence, la présence d’un circuit supplémentaire intermédiaire, comme, les précautions spécifiques liées au sodium, pourraient amener à conclure, que le coût ne peut être que plus élevé. Mais, l’absence de pression, le meilleur rendement thermodynamique, et la différence des technologies mises en œuvre, avec les très épaisses pièces forgées des PWR et à l’opposé les structures minces des RNR, seules des études comparatives plus poussées basées sur de vraies réalisations, dans un même pays, pourraient conclure sur l’aspect économique, dans une perspective série à long terme.

La course, à la compétition financière n’est pas d’actualité, mais ceci va changer, si lors de ce siècle, le nucléaire, au niveau mondial, reposant sur les modèles actuels se développe et fait appel à un uranium rare. Cette tendance serait accentuée, si l’action vise à répondre aux besoins croissants, du type exponentiel de l’électricité décarbonée, ce qui semble inévitable, mais pour quand : 2050, 2080, 2150 … ?

Alors, l’approche de la pénurie de la fourniture d’uranium naturel, peut faire balancer les données et conduire à développer la surgénération type RNR Na, la démonstration de la faisabilité, ayant déjà été faite, tant en France, qu’en Russie.

Claude Acket.

 

Annexe

L’acceptabilité du nucléaire

Principe de précaution, la balance du pour et du contre

iimage001.jpg.png.jpg

 

Mais le pire des maux serait le manque d’énergie, et

la plongée vers la décroissance, même dite heureuse…

 

Parmi les plus, on trouve :

–  Lutte contre l’effet de serre.

Alors que l’on compte environ 6 kg de gaz carbonique rejeté par MWh produit pour le nucléaire, soit sensiblement le même ordre de grandeur que l’hydraulique, ce chiffre atteint 1000 pour le charbon, et le gaz naturel en CCG avec encore à 430, soit presque 70 fois plus.

Le nucléaire s’avère une base indispensable, complétée par les économies d’énergie et le développement des renouvelables thermiques, dans la lutte contre l’aggravation de l’effet de serre.

Le nucléaire pourrait aussi intervenir, dans le cadre d’un mix énergétique, en complément à l’emploi des renouvelables électriques intermittents (solaire et éolien), mais ceci ne se traduirait que par une faible baisse de la puissance installée, car ce mix dégraderait le rendement du nucléaire

 

 L’indépendance énergétique

Le nucléaire permet à la France de produire son électricité par ses propres moyens, en toute indépendance par rapport aux marchés extérieurs.

Il est vrai que l’uranium est importé, mais la matière première ne représente qu’environ 3 % du coût du kilowattheure produit.  L’essentiel des dépenses soit 97 % reste national, ce qui est loin d’être le cas pour, par exemple, le gaz pour lequel plus de 80 % de l’argent va à l’étranger.

Mais, en plus sur la base des seuls stocks d’uranium naturel présents en France, en attente ou dans le cycle de production, nous disposons d’une disponibilité avec nos besoins actuels de 6 ans, sans importation.

Ce facteur indépendance énergétique sera multiplié, renforcé avec la surgénération, en fait indépendance totale pour des milliers de siècle !  

 

– Les coûts modérés, garantis stables de l’électricité

En comparaison à d’autres sources d’énergie, le nucléaire nécessite des investissements initiaux très importants, mais bénéficie d’un coût d’exploitation très faible pour le combustible. Ainsi, si sa structure économique est proche de celle de l’hydraulique, elle est à l’opposé de celle du gaz, le charbon se situant de ce point de vue entre nucléaire/hydraulique et gaz.

Le coût du nucléaire fait l’objet de nombreuses controverses et évaluations. Il faut rappeler le rapport de la Cour des Comptes (Rapport 2013/2014) pour le parc actuel EDF en service, qui donne un coût économique de 59,8 €/MWh, avec la méthode dite « CCE » (coût courant économique).

Même s’il devait un peu augmenter, dans le futur, avec la suite des EPR, le nucléaire reste la source d’électricité la moins chère en France, pour une électricité, adaptable aux besoins, rien, à voir avec celle produite par les renouvelables intermittents et aléatoires.

Ces derniers donnent une production hachée, dépendante de la nature, souvent là quand on n’en a pas besoin, mais à l’inverse absente, lorsque les besoins sont vitaux. Et en plus ils sont subventionnés à ce jour.

 

Parmi les moins, exprimés sous forme de réserves sociétales.

– La peur de la radioactivité des rayonnements

Il faut en premier rappeler la citation, très ancienne, mais de plus en plus d’actualité : « Toutes les choses sont poison, et rien n’est sans poison, seule la dose fait, qu’une chose n’est pas un poison ». Paracelse (XV° siècle)

Avant d’évoquer les risques associés aux rayonnements, il faut se référer aux doses naturelles, que nous subissons apparemment sans conséquence sur nos santés. Pour ce, il faut oublier le Becquerel, qui avec des chiffres pharaoniques, fait si aisément peur, et se baser sur le Sievert Sv (et plus couramment sur son millième le mSv), seule unité quantifiée, accessible, qui traduit l’impact éventuel d’un rayonnement sur l’homme.

En France les rayonnements naturels annuels correspondent à des doses moyennes de 2,4 mSv, avec de fortes variations géographiques, pouvant en de vastes régions atteindre 5 mSv, et en quelques lieux spécifiques 25 mSv. Et on trouve beaucoup plus dans des régions du Monde, plus peuplées, avec des gens tous en bonne santé.

Si des fortes doses sont néfastes, voire mortelles (au-delà de quelques Sievert), il peut être considéré que, ce qui est désignée par « petites doses » avec une limite à 100 mSv pour les adultes et 50 mSv pour les enfants, sont sans conséquence pour la santé.

Aucune étude, ni épidémiologique sur l’homme, ni sur les animaux, n’a jamais pu montrer de relation de cause à effet entre les faibles doses et l’apparition de cancers.

Que les marchands de peur cessent de se prononcer pour des doses ridicules, autour du mSv.

 

– La peur des accidents

Pour se baser sur la réalité, il faut évoquer la centrale de Three Miles Island, en 1979, celle de Tchernobyl en 1986, et enfin Fukushima en 2011, trois accidents majeurs, ayant marqué l’histoire du nucléaire.

Ces trois accidents ont conduit à des conséquences sur la santé, très diverses et controversées. Si le bilan s’écrit de façon sûre, sans contestation, par zéro conséquence santé pour le premier, qui représente le type de réacteur construit en France, il monte à de très nombreux morts pour le second, avec des évaluations diverses, allant d’un peu moins de cent à plusieurs milliers[8], sans évoquer les 10 millions de morts avancés par Greenpeace et répétées régulièrement par la chaine de télévision franco-allemande, Arte, non neutre sur sa propagande anti-nucléaire. Mais à force d’asséner des contre-vérités, certaines finissent par marquer !

Quant au dernier accident au Japon, on peut avoir lu, ou entendu sur France 2, au journal télévisé, « Fukushima 20 000 morts », ou, à la une des journaux, comme le Figaro un titre « Fukushima au moins 10 000 morts ». Ces chiffres répétés par tous les médias, et les marchands de peur, ne peuvent que marquer les esprits. Or, à ce jour, les évaluations seraient proches de zéro décès, ou maladie liée aux rayonnements, peut être un, à venir.

Mais il faudra surtout tenir compte conséquences indirectes sur leurs santés, des milliers de personnes déplacées, comme il est de même des autres déplacés au Japon, sans lien avec la centrale, liés au seul tsunami, qui ne s’est pas limité à la zone de Fukushima, zone où du fait du nucléaire, on pourrait afficher zéro mort ?

 

Quelles que soient les controverses autour de ces chiffres, nous pouvons affirmer qu’au niveau mondial l’électronucléaire a fait moins de morts en 50 années d’exploitation que les autres grandes sources de production d’électricité n’en font en une seule année.

– Les déchets

L’affirmation que « l’on ne sait pas quoi faire des déchets » et qu’ils constitueraient une menace pour la santé des générations futures est fausse, et clairement démentie par la pratique industrielle française sur plusieurs dizaines d’années.

En effet, c’est tout à l’honneur de l’industrie nucléaire que, pour la première fois dans l’histoire industrielle, on se soit préoccupé de gérer les déchets produits, dès l’origine, et on l’a fait consciencieusement.

La quantité totale de tous les déchets nucléaires est relativement faible. Ils représentent environ 1 kilo par habitant et par an, dont 10 grammes à vies longues et très radioactifs, contre 4 000 kg pour les autres déchets, dont 100 kilos de matières toxiques, dangereuses (mercure, plomb, arsenic…)

En France, tous les déchets nucléaires sont conditionnés, entreposés et stockés selon des techniques éprouvées et sûres. Leur gestion assurée par l’Andra (Agence Nationale pour la gestion des Déchets Radioactifs) n’entraîne aucune nuisance significative pour les personnes ou l’environnement.

Plus de 90 % des déchets nucléaires sont à vie courte, et sont stockés dans trois centres (La Manche, Soulaines, Morvilliers) sans dommage significatif pour l’environnement, occupant des surfaces très réduites.

Les déchets à vie longue et de haute activité sont incorporés, dès l’usine de retraitement, dans une matrice de verre qui piège les radioéléments. Cette méthode est mise en œuvre depuis 40 ans, sans qu’il en résulte une quelconque nuisance. Que trouver de plus stable que le verre, en sachant que les déchets ne sont pas, mis en bouteille, mais chimiquement intégrés à vie dans la matrice.

Si cet entreposage dans des puits bétonnés est gérable, car les volumes sont très réduits, il n’est pas considéré comme durable à l’échelle de plusieurs générations. Il n’y a jamais eu urgence à retenir une solution définitive, on pouvait atteindre plusieurs dizaines d’années avant de statuer. C’est cette attente qui a donné à tort l’impression, qu’on ne sait quoi faire.

Mais désormais, en optimisant les différentes possibilités, la solution de gestion retenue est le stockage géologique profond Cigeo (Centre industriel de stockage géologique). Cette solution de stockage définitif en couche géologique profonde, toutes études faites, a été décidée avec un centre devant entrer en service en 2025.

 

En synthèse, après avoir évoqué, les pours et les contres, comme l’aspect santé reste prépondérant, face à tous ces arguments, pour certains contradictoires, rien de plus sage, que de se baser, sur l’avis de l’Académie Française de Médecine, qui « considérant les bilans, tant mondiaux, qu’européens », s’est prononcée clairement, lors du débat national sur la transition énergétique, établissant, que « de tous les grands moyens de production d’électricité, c’est :

« Le nucléaire qui a le plus faible impact sur la santé par kilowattheure produit ».

Une vision claire, simple, conduisant à poursuivre sur cette voie du nucléaire, mais après avoir posé la question de la durabilité, ajouter, qu’il faut reprendre le chemin tracé par nos anciens, de développer la filière RNR Na.

 

[1]  Avec l’arrêt imposé de Fessenheim par la loi, le gouvernement semble oublier toute l’attention qu’il veut porter sur l’économie circulaire, sur le refus de l’obsolescence, soit comme garder en service ce qui répond à tous les critères, dont ceux de sureté. Un exemple d’aberration dictée par une idéologie.

[2] Sans justification technique, ou financière, mais des raisons idéologiques, on trouve notamment, l’injustifiable limitation des 63 GW de puissance installée nucléaireou, et celle des 50 % pour 2035, année qui dans la loi précédente était prévue 2025. Il aura quand même fallu 2 ans pour que le gouvernement prenne conscience de l’impossibilité de répondre aux impositions idéologiques .

[3] Sans compter, ce qui est envisageable, le développement de l’extraction d’uranium à partir des phosphates, qui accroitrait un peu cette durée (ordre de grandeur + 50 %), mais aussi celle à partir de l’eau de mer, qui semble difficilement envisageable avec le nucléaire actuel, mais par contre, quasiment sans limite, avec la surgénération.

[4]  Fut plusieurs années plus tard reconnu avoir été organisé, et fait par un élu du parti vert auprès du gouvernement cantonal de Genève, les rockets ayant été obtenues via la Fraction de l’Armée Rouge et le terroriste Carlos.

[5] Pour situer à la même époque, Ariane 4, qui avait eu son premier lancement en 1988, eut son premier échec en 1990, suivi de 2 autres échecs en 1994, avant ses succès ininterrompus. Toute avancée technologique n’est pas à l’abri de difficultés. Heureusement qu’Ariane n’était pas en visée de combines électorales

[6] Il faut noter que Phénix a été prolongé de vie à 36 ans, avec l’accord des autorités de sureté, après mise à niveau, pour réaliser en partie, quelques essais, visant la transmutation, prévus à SPx, Un modèle de prolongation de vie réussi, alors qu’au titre outil de recherche, en prototype filière, les spécifications de construction de Phénix visaient 25 ans de marche.

[7] Voir aussi pour certains réacteurs des combustibles MOx, contenant du plutonium. Ceci en opération dans 22 des 58 réacteurs français utilise le combustible MOx, issu de la chaîne de recyclage (recyclage qui permet de produire plus de 10% de l’électricité nucléaire française tout en réduisant le volume et la toxicité des déchets radioactifs.)

[8] En face sont présentés des chiffres documentés, comme le rapport établi par l’UNSCEAR qui dans son dernier rapport 2011, annonce entre environ 100 morts recensés, et au maximum 4000 cancers mortels, potentiels à venir dans les 75 ans suivant l’accident, sur la base de la loi RLSS (loi linéaire sans seuil), enveloppe pessimiste.

Il faut préciser, que ce rapport a été validé par 8 institutions indépendantes de l’ONU, dont l’OMS, et surtout, car directement concernés, par les gouvernements de Russie d’Ukraine et de Belarus. C’est beaucoup, inacceptable, mais ceci se réfère à un modèle de réacteur (RBMK) que nous n’aurions jamais construit en Europe, et qui à ce jour ne reste en opération qu’en Russie. Ceux en Ukraine, ont été définitivement arrêté, le pays très dépendant du charbon, ses morts, sa pollution se prépare à relancer le nucléaire, sur la base de réacteurs à eau pressurisée.

 

Les ENR intermittentes ne perturbent pas les réseaux puisqu’on doit savoir les faire disparaitre

« Les énergies renouvelables intermittentes ne perturbent pas les réseaux« 

Cet article s’avère complètement biaisé sur au moins deux points majeurs :

1) Il confond (volontairement ou non) « stabilité des réseaux » et « durée d’interruption moyenne de courant par consommateur » qui sont deux critères qui ont très peu à voir. En effet, la durée d’interruption moyenne de courant par consommateur dépend essentiellement des réseaux de distribution, qui ont peu à voir avec les moyens de production de grande puissance.. Et si la France se classe 8ème derrière

la Suisse, l’Allemagne, le Danemark, le Luxembourg, les Pays-Bas, l’Autriche et le Royaume-Uni c’est notamment pour deux raisons qui tiennent aux caractéristiques propres de son réseau de distribution qui, eu égard à la taille géographique de la France, est le plus étendu des réseaux de distribution des pays précités (de très loin exception faite de l’Allemagne et du Royaume-Uni, les autres pays étant de petits pays) ce qui présente deux handicaps :

* Le réseau français alimente beaucoup plus de consommateurs dispersés dans de lointaines campagnes, alimentés « en antenne » en BT (avec très peu de redondances de secours) pour des raisons économiques. Un tel réseau est par essence beaucoup moins fiable qu’un réseau présentant des possibilités de secours que l’on trouve en milieu urbain,

* Toujours pour des raisons économiques, le réseau français de distribution est moins enterré (même si la situation évolue) que les réseaux des pays précités, ce qui le rend plus vulnérable aux aléas climatiques.

Mais ceci n’a rien à voir avec le réseau de transport (THT et HT) qui est le garant de la stabilité globale des réseaux et sur lequel débitent les centrales nucléaires et autres centrales de grande puissance. L’argument ne résiste donc pas à l’analyse…

2) On N’A ENCORE RIEN VU en matière de taux d’insertion d’électricité intermittente. En effet, le réseau européen est fortement interconnecté, ce qui assure la stabilité réciproque entre pays, qui se joue au niveau européen et non pays par pays comme l’a bien montré l’étude réalisée par EDF R&D en 2015. Certains pays peuvent donc se permettre des taux d’insertion très élevés, le Danemark en particulier, car la stabilité est assurée par ses voisins (Norvège, Suède et Allemagne, comme d’ailleurs évoqué). Même un grand pays comme l’Allemagne peut se permettre d’atteindre un taux d’insertion élevé… tant que ses principaux voisins, la France en particulier, ne font pas simultanément la même chose. Et au niveau européen, le taux d’insertion global moyen d’insertion reste faible, en deçà des taux qui posent des problèmes de stabilité. La conclusion qui est tirée dans l’article est donc totalement prématurée.

En résumé, cet article comporte des biais majeurs. Il constitue donc une tromperie pour décideurs, accentuée par son titre accrocheur qui occulte les réalités bien connues des gestionnaires de réseaux. Ce qui est gravissime.

GB : Qu’est-il arrivé à notre système électrique le vendredi 9 août 2019 ? (Traduction)

http://www.ukerc.ac.uk/news/what-happened-electricity-system-fri-aug-9-2019.html

14 août 2019

Équilibrer le système

Un système d’alimentation en courant alternatif doit fonctionner dans une certaine bande de fréquence, dans notre cas proche de 50 Hz. Cela nécessite que, à chaque instant, la génération de pouvoir et la demande qui en découle soient adaptées. S’ils ne le sont pas, la fréquence du système diminue (lorsqu’il n’y a pas assez de génération) ou augmente (lorsqu’il y en a trop). Il est prévu que les acteurs du marché programment leur propre génération pour s’allumer au cours de la journée afin de répondre à l’évolution de la demande. Cependant, la fonction ESO (Electricity System Operator) de National Grid génère une génération supplémentaire ou la réduit pour obtenir le bon équilibre. L’ESO achète également des services «dynamiques»: des commandes automatiques sur les générateurs, dans lesquels la fréquence du système est surveillée et les sorties de puissance ajustées pour ajuster la balance. Ceci est connu sous le nom de «réponse en fréquence».Certaines installations de stockage d’énergie fournissent également une réponse en fréquence et, de plus en plus, les grands utilisateurs d’électricité peuvent adapter leur demande pour contribuer à l’équilibre global.

Vendredi 9 août

La règle générale de base utilisée par de nombreux opérateurs système dans le monde entier est non seulement de s’assurer que tout sur le système est dans des limites acceptables, mais également que cela sera vrai même après un événement imprévu, tel qu’un défaut de court-circuit sur une branche. du réseau. Ils ont donc une réponse en fréquence suffisante pour couvrir la perte soudaine de la plus grande importation de générateurs ou d’interconnecteurs. Malheureusement, vendredi après-midi, peu après 16h52, deux sources d’électricité ont été perdues à moins d’une minute de distance: 790 MW du parc éolien offshore Hornsea 1 et 660 MW de la centrale à gaz de Little Barford, cette dernière ce que son propriétaire, RWE, a qualifié de «  faute technique « . La perte totale combinée de 1 430 MW était nettement supérieure à ce qui semble avoir été le plus grand risque de perte d’alimentation unique à l’époque.

Un tracé de fréquence auquel nous avons accès à Strathclyde montre que la baisse de la fréquence du système a été arrêtée par la combinaison des réponses sur le système mais est tombée en dessous de 49,2 Hz (Figure 1). Cependant, la trace montre également une seconde baisse de fréquence environ une minute après la première. Une grande partie de la capacité de réponse en fréquence programmée étant épuisée et non encore remplacée, la fréquence du système est ensuite tombée à moins de 48,8 Hz, point auquel la première étape de la «déconnexion à la demande en fréquence» (LFDD) a fonctionné.

Le déclenchement d’un mécanisme de défense

La LFDD (connue dans d’autres pays sous le nom de «délestage sous la fréquence») est une «mesure de défense» automatique installée sur les réseaux de distribution et conçue pour préserver le système d’un effondrement complet. Cela se fait en rétablissant l’équilibre entre la production et la demande en ouvrant des disjoncteurs sur des portions du réseau de distribution afin de déconnecter la demande. Il fonctionne en 9 tranches successives, chacune déclenchée si la fréquence du système continue de baisser.

La première tranche de LFDD, la seule qui ait été déclenchée vendredi, est destinée à déconnecter 5% de la demande en vertu du code d’exploitation n ° 6 (OC6) . Cependant, vendredi, la demande déconnectée semblait inclure l’approvisionnement des installations de signalisation de Network Rail.Ceci, à son tour, a provoqué des interruptions dans les services de train. Même si la fréquence du système a été restaurée à environ 50 Hz dans les 10 minutes suivant les pertes de production initiales (en partie à cause de la déconnexion de la demande), National Grid a déclaré qu ‘«à 18 h 30, toute la demande a été restaurée par les gestionnaires de réseau de distribution », restauration des services ferroviaires a apparemment pris beaucoup plus de temps.

Figure 1: Fréquence du système britannique avant et après la perturbation du 9 août 2019
Quelques questions

Étant donné que la fréquence du système était en baisse, on pourrait dire que LFDD a réussi à sauver le système d’un effondrement complet, bien qu’au détriment d’une demande déconnectée. Cependant, il me semble que certaines questions particulières pourraient maintenant être posées:

  1. Qu’est-ce qui a causé les pertes d’électricité de Hornsea et de Little Barford? S’agissait-il d’événements aléatoires indépendants ou existait-il un lien entre eux?
  2. Pourquoi la fréquence du système a-t-elle diminué autant que lors de la perte initiale?
  3. Aurait-il été possible pour les opérateurs de réseau de distribution (DNO) d’avoir implémenté le LFDD de manière à éviter la déconnexion des fournitures Network Rail?
  4. Quel est le niveau de résistance aux pertes d’alimentation des installations de Network Rail?

La foudre est l’une des causes les plus courantes de défaillance du réseau électrique. Nous savons qu’il ya eu une importante activité de foudre dans l’est de l’Angleterre vendredi soir. On peut se demander si cela aurait pu influencer ce qui s’est passé dans le système électrique.

Une autre chose que l’office de réglementation de l’électricité, Ofgem, voudra probablement explorer est la qualité des informations fournies par les différentes parties, en particulier ce que l’ESO a dit aux opérateurs de télécommunication, ce qu’ils comprenaient et ce qu’ils disaient à leurs clients, notamment Network. Rail. Il y a aussi la question de ce que Network Rail a dit aux opérateurs de train et de ce que les opérateurs de train ont dit aux passagers. Il me semble qu’un élément clé de ce que les différentes parties auraient pu et auraient dû savoir était lorsqu’elles pouvaient s’attendre à ce que l’approvisionnement en électricité soit rétabli.

Certains politiciens et syndicalistes ont suggéré que cet incident était le signe d’un manque d’investissement dans le système électrique.Cependant, rien n’indique que cet événement résulte d’un manque d’infrastructures majeures telles que des lignes de transmission ou des capacités de production.

De plus, rien n’indique que l’événement ait quelque chose à voir avec les caractéristiques du vent en tant que source d’énergie électrique. La réduction de puissance de Hornsea a été beaucoup plus rapide que prévu en raison de modifications de la vitesse du vent. Ørsted, le propriétaire de Hornsea, a déclaré samedi que les « systèmes automatiques » avaient «  considérablement réduit la puissance ». Un autre rapport a indiqué qu’Ørsted avait confirmé l’existence de problèmes et qu’ils «  enquêtaient sur la cause, en étroite collaboration avec le gestionnaire du système de réseau national « . suggère quelque chose de particulier à Hornsea 1 plutôt que lié au vent en général: il est possible que le fait que Hornsea 1 exporte de l’électricité sur le système ne soit pas nécessairement significatif, mais qu’une partie de celle-ci est encore en construction.

Inertie

Certains rapports ont suggéré qu’au moment de l’incident, l’inertie du système était trop faible ou que l’ESO n’avait pas mis en place une «capacité flexible» suffisante telle que la réponse en fréquence.

L’inertie d’un système électrique fait référence à l’énergie cinétique emmagasinée dans les masses en rotation d’une centrale génératrice qui, par des interactions électromagnétiques au sein du type de générateur utilisé dans les grandes centrales thermiques, est automatiquement sollicitée en cas de déséquilibre entre génération et demande. Il aide à ralentir une baisse de la fréquence du système et est devenu un sujet de débat car le type d’équipement utilisé dans les parcs éoliens, les interconnexions HVDC et les réseaux de panneaux solaires ne le fournit pas naturellement.

L’ESO est tenu d’exploiter le système de transport d’électricité britannique conformément à la norme SQSS (Security and Quality of Supply) . Ceci établit la règle de base selon laquelle tout devrait toujours être correct même après un événement de panne significatif. Cela inclut l’exigence que la fréquence du système reste dans la plage des fréquences comprises entre 50,5 et 49,5 Hz. Toutefois, en cas de perte d’alimentation particulièrement importante, la sortie peut rester en dehors de cette fréquence, mais pas plus d’une minute. Contrairement à certains rapports, 49,5 Hz n’est pas « dangereusement bas » et les excursions en dessous de celle-ci sont extrêmement rares . La limite inférieure pratique pour la fréquence du système, telle que définie dans le code de grille, est de 47,5 Hz. Comme indiqué ci-dessus, le LFDD commence à fonctionner à 48,8 Hz.

Dans leur évaluation de la conformité aux normes d’approvisionnement, les gestionnaires de réseau devraient prendre en compte tout impact d’une perturbation du système de transport sur la production connectée au réseau de distribution. Pour ce faire, il doit collaborer avec les opérateurs de réseau.

Si l’inertie ou le volume de réponse sont si faibles que la perte d’alimentation la plus importante entraînerait un dépassement des limites de fréquence définies, l’ESO est obligé soit d’obtenir davantage de réponses, soit de générer une nouvelle distribution via le mécanisme d’équilibrage. Cette dernière action peut soit réduire l’ampleur de la perte la plus importante, soit garantir une inertie accrue du système. Si Ofgem ouvre une enquête sur l’incident, il se peut qu’il veuille savoir si l’état du système au moment de l’incident était conforme à la SQSS.

L’un des points de débat dans le secteur de l’électricité, alors que nous constatons une quantité croissante d’énergies renouvelables sur le système et une augmentation des importations en provenance du reste de l’Europe, consiste à déterminer si les arrangements de marché en vigueur pour l’achat de réponse en fréquence sont tout à fait appropriés pour le futur système. On se demande si, avec des définitions de produits différentes, une réponse suffisante pourrait être achetée à un prix plus avantageux que ce ne serait autrement le cas.

Le 12 août, Ofgem a demandé à l’ESO un rapport intermédiaire urgent sur l’incident du 9 août avant le 16 août et un rapport technique final détaillé avant le 9 septembre.

La plus grande image

L’incident du 9 août met sans doute en évidence une série de problèmes plus vastes. On pourrait soutenir, par exemple, que l’ESO devrait disposer de réserves de réponse en fréquence suffisantes pour faire face à deux pertes de production importantes plutôt qu’à une seule. En d’autres termes, il devrait s’agir d’un événement appelé «N-2» plutôt que simplement, comme il est courant dans le monde entier, «N-1».

Cependant, les pertes de production presque coïncidentes sont très rares, avec seulement deux exemples – vendredi et un du 27 mai 2008 – dont je me souviens en Grande-Bretagne au cours des 25 dernières années, et la réponse en fréquence et la réserve sont déjà assez coûteuses: ensemble, Les «réserves» ont coûté plus de 270 millions de livres sterling en 2018-2019.

Pour déterminer si des procédures doivent être modifiées, il est possible de comparer les coûts supplémentaires liés à la réduction des pertes d’alimentation «N-2» à ceux de mesures permettant de réduire de manière significative l’impact des déconnexions de la demande dans les rares cas où elles se produisent.

Au niveau mondial des perturbations du système électrique, par exemple à Jakarta et à Java occidental le 4 août et en Argentine en juin, lorsque pratiquement tout le pays était devenu noir, l’événement de la semaine dernière en Grande-Bretagne était relativement modeste. Cependant, cela perturbait encore beaucoup de monde – en grande partie, semble-t-il, en raison de son impact sur les chemins de fer. Par exemple, on a signalé des défaillances de l’alimentation électrique de certains trains et des opérateurs peinant à les redémarrer .Entre-temps, ils auraient gêné les autres trains. Enfin, à la suite de toutes les perturbations, de nombreux trains se sont trouvés à des « mauvais endroits » par rapport à l’horaire normal.

Le pire des cas de perturbation pour un exploitant de réseau électrique est que tout le système tombe en panne. La reprise est alors extrêmement difficile, non seulement pour les utilisateurs d’électricité, tels que les compagnies de chemin de fer, mais également pour les gestionnaires de réseau. L’événement de vendredi est peut-être un rappel que même si nous n’avons jamais subi une panne totale du système en Grande-Bretagne et que de nombreuses procédures de conception et d’exploitation de notre système ont résisté à l’épreuve du temps, les plans de restauration doivent être revus régulièrement.

La nature du système continue d’évoluer avec, à juste titre compte tenu de nos engagements en matière de réduction des émissions, l’utilisation de sources d’énergie à faibles émissions de carbone. Cela signifie que les procédures d’exploitation normales ainsi que les codes et les normes qui régissent le système doivent également être surveillés, en particulier à la lumière de notre dépendance croissante à l’égard de l’électricité.

Cette dépendance croissante à l’électricité soulève peut-être les plus grandes questions de société. Il est impossible de garantir une alimentation en électricité parfaitement fiable. Selon les normes internationales, les approvisionnements en Grande-Bretagne sont en moyenne très fiables. Combien sommes-nous prêts à payer pour les rendre plus fiables? Et, parce qu’ils ne seront jamais parfaits, est-ce que nous – individus, institutions et fournisseurs de services – savons comment faire face à une panne?