Revoyons la programmation éolienne et photovoltaïque en Europe vu l’impasse CO2.

1) Assertion initiale :
Toute augmentation d’intermittence dans le système électrique français actuel conduit à une hausse des émissions de CO2 pour la production électrique à production constante – alors que la réalité est autrement convaincante : l’extension de la production intermittente aux niveaux indiqués amènera la part de la CSPE spécifique de 5 à un niveau de l’ordre de 25 milliards/an; les allemands en sont à 29 aujourd’hui…! Et cette part est loin de représenter les coûts « secondaires » entrainés par l’intermittence: réseaux, compteurs, marché de capacité, durée de vie et stockages encore un peu éloignés pour ces derniers. Pire : les excédents de capacité créés par les intermittents conduisent à un prix de marché de gros extrêmement bas, ce qui conduit à une augmentation systématique des subventions attribuées, tout en rendant tout investissement plus que non rentable dans ce domaine; et l’Europe n’est pas prête à y mettre de l’ordre.

2) Réaction

Il est inexact de dire que l’introduction de productions intermittentes augmente les émissions de CO2 dans le cas de la France. En effet cette production (prioritaire) se substitue à une production nucléaire (gain en CO2 nul…) ou à une production thermique (gain faible, mais gain quand même…)


3) Contre réaction

Désolé de ne pas être d’accord: l’augmentation des émissions de CO2 vient et viendra de l’emploi plus important des centrales fossiles pour pallier les défaillances brutales liées aux électricités intermittentes; exemple: cet hiver, on a failli manquer de gaz pour alimenter ces centrales; c’est peut-être un mauvais exemple, puisque de nombreuses centrales nucléaires étaient à l’arrêt, mais la thèse vient d’une étude statistique sur 30 ans, sur les variations du vent et du soleil en Europe; on verra bien si on passe de moins de 5Og/ CO2/KWH au double avec l’augmentation programmée des électricités intermittentes. A 100g, ce sera moins de la moitié de l’Allemagne qui devrait diviser par deux ses émissions pour la production électrique, mais en partant de 550g…! Ce n’est donc pas une catastrophe absolue, mais un argument de plus, hautement symbolique: on fait comme les allemands: soit disant « le nucléaire est plus dangereux que le CO2″…

4) Réponse

Permettez moi de vous indiquer une piste qui vous permettrait d’aller plus loin et de vous retrouver avec des opinions proches.

La question est de déterminer si l’apport des énergies renouvelables conduit à des émissions de gaz à effet de serre moins importants, donc à un mix énergétique plus “propre”. J’emploie l’adjectif à dessein, car c’est exactement le but du projet européen “Energie propre pour tous les Européens” censé amener nos émissions à – 40% en 2030 par rapport à 1990. Or les énergies renouvelables ne sont pas des perdreaux de l’année. L’Europe a commencé leur promotion il y a quinze ans et , fin 2017, nous approcherons les mille milliards d’euros d’investissements. Donc l’étude du passé, disons à partir de 2004-2005 doit procurer quelque lueur sur la question qui nous agite.

Eurostat a étudié la façon de mesurer la “propreté” du mix énergétique et a introduit  “l’intensité des émissions de gaz à effet de serre rapporté à la consommation d’énergie”. Cette grandeur est aussi l’émission de gaz à effet de serre par unité d’énergie consommée pour un mix donné. Eurostat fournit cette mesure par année (de 1990 à 2015) , par pays européen et pour le territoire actuel de l’UE. C’est le tableau tsdc220, que tout le monde peut utiliser gratuitement et, qu’à ma connaissance très peu de gens regardent. En effet, pour pratiquement tout le monde le résultat des EnR est évidemment de rendre plus “propre”, pourquoi donc vérifier !

Il se trouve que la composition des mix énergétique est mal décrite dans les tableaux d’Eurostat. Par contre, on les trouve par année (de 1990 à 2014) pour tous les pays actuellement membres de l’UE, ainsi que pour le territoire actuel de l’UE dans des tableaux de l’Agence Internationale de l’Energie” portail “statistics’ sous-portail “statistics search”, sous-sous portail “Energy balances flows”. Et là , c’est un pur bonheur, ils vous donnent même séparément l’hydraulique, les bioénergies et le fameux couple “soleil+éolien”. Ils utilisent le “Total Primary Energy Supply”. Rassurez-vous, c’est bon.

Quand on compare les évolutions de la part des EnR dans les mix et les émissions par unité d’énergie, on constate , comme d’habitude dans tout domaine scientifique, que la réalité est plus imaginative que le cerveau des hommes et que des surprises apparaissent . Nous avons amorcé cette comparaison dans notre lettre n°70 de décembre 2016 que vous pouvez lire sur www.geopolitique-electricite.fr . En gros, nous avons trouvé ceci:

1) L’apport des EnR conduit toujours à des réactions des différents acteurs de l’énergie (les compagnies productrices , les pouvoirs publics…). Donc si vous introduisez 20% d’EnR en plus, les 80% restant vont bouger aussi, mais leur mouvement peut être différent d’une année à l’autre, et d’un pays à l’autre.

2) D’une manière générale en Europe, les émissions de gaz à effet de serre par unité d’énergie baissent depuis 1990, et cela n’est absolument pas limité aux pays ex-communistes. Généralement aussi, ce rythme de baisse a ralenti avec la promotion des EnR. Il s’est même annulé en Allemagne. Ces contre-performances des EnR n’étant pas politiquement correctes, cette constatation se limite à des milieux restreints car elle reviendrait à remettre en cause la politique européenne et celles des Etats comme l’Allemagne et la France, ce qui n’est pas envisageable.

La Commission européenne s’est contentée d’écrire que les émissions de gaz allaient continuer à baisser, mais moins vite (communiqué du 20/10/2015). A ma connaissance, personne n’ayant éprouvé le besoin de demander pourquoi, la Commission ne s’est pas sentie obligée de l’expliquer. Je donne ci-dessous seulement une  explication (entre autres) pour ne pas être trop long:

– les compagnies d’électricité à la suite des aides financières ou non des EnR (priorité d’accès au réseau) ont perdu beaucoup d’argent. Donc pour la production hors EnR elles ont serré les boulons. En particulier, le gaz , de 1990 à 2000 avait commencé à remplacer le charbon. Ce mouvement a cessé à partir de 2005, du fait de la baisse des prix du charbon, en particulier US. Cela est spectaculaire dans l’observation des mix, et encore une fois, valable à l’ouest comme à l’est.

Pour l’avenir, toujours pour des questions d’argent, ces compagnies ont fermé des centrales à gaz. Mais aujourd’hui , les Etats (dont la France et l’Allemagne) ont expliqué à Bruxelles qu’ils craignaient des coupures dues à l’intermittence solaire-éolien ( argument rendu public par la Commission européenne en avril 2016). Ils ont obtenu l’autorisation de subventionner des centrales à combustibles fossiles de secours , donc de reconstituer le parc fermé, au moins en partie (en termes choisis, cela s’appelle créer un “marché de capacité). Il est évident que si les EnR remplacent du nucléaire, comme prévu en France, et en Allemagne les émissions vont repartir à la hausse du fait du fonctionnement , de temps en temps, de ces centrales à combustibles fossiles.

LT

Publicités

​Analyse de Negawatt version 2017 – par CA-HP

Version 0.2 du 26.06.2017. (English v0.1 here)
Analyse de Negawatt version 2017
Par Claude Acket et Henri Prévot

Introduction



Comme indiqué dans le titre d’un paragraphe intitulé « La fin programmée des fossiles et du nucléaire », l’objectif du scénario de Negawatt est de ne faire appel, d’ici 2050, ni à l’énergie nucléaire, ni à l’énergie fossile, pour répondre aux besoins de consommation, soit un objectif 100 % renouvelables. 

Fossiles et nucléaire sont placés au même niveau d’exclusion. Il faut noter que la sortie totale du nucléaire prévue dès 2035, précédera celle des fossiles, avec zéro nucléaire, mais encore 500 TWh issus des combustibles fossiles à cette date. On voit où sont les priorités : abaisser au plus vite le nucléaire, pourtant source d’énergie qui n’émet pas de gaz carbonique. 

Cette transition Negawatt est un pas de géant en considérant la situation actuelle, où mesurée en énergie primaire, la plus grande part (48 %) de l’énergie vient des combustibles fossiles, ensuite du nucléaire pour 42 % et enfin des renouvelables pour environ 10 %. 

Negawatt vise ainsi, de passer 10 à quasiment 100, en pourcentage, soit un facteur 10 de croissance pour les renouvelables en valeurs relatives. Mais comme en valeur absolue, il semble impossible d’y arriver, avec une  progression limitée à un facteur 3, (la nature a des limites que la meilleure idéologie ne peut vaincre), il faut impérativement y associer une forte baisse de la consommation.

L’association Négawatt présente ce scénario comme quelque chose de « réalisable, avec des bénéfices multiples pour la santé et l’environnement, riche en emploi et un bienfait pour l’économie ». De multiples affirmations que nous allons examiner. 
Negawatt aborde, à juste titre en première urgence, la lutte contre le changement climatique, et nous ne pouvons, au nom de Sauvons le Climat, qu’être d’accord, sur le même constat, et l’absolue nécessité de viser une réduction des rejets du gaz reconnu comme l’un des principaux acteurs de l’effet de serre : le gaz carbonique. Au niveau européen, l’objectif de cette réduction est d’une division par 4 d’ici 2050. Negawatt, en arrivant à facteur de l’ordre de 330 (si l’on se base sur les derniers « symboliques résidus »de charbon et de pétrole encore utilisés) veut montrer que l’on peut faire aisément encore plus. 

Mais, pour ce, à côté d’actions de sobriété, d’efficacité énergétique et de développement des énergies renouvelables, Negawatt annonce : « après le choc de Fukushima, ce sera un avenir électrique sans nucléaire ». Si nous ne pouvons que partager, sur l’aspect qualitatif, les actions de limitation de la consommation, nous avons beaucoup de réserves sur l’aspect quantitatif. Il en serait de même pour la  promotion des renouvelables, sous réserve que celle-ci vise en premier les renouvelables thermiques et sommes très réservés sur celles électriques.

Cette sortie du nucléaire, prévue totale d’ici 2035, est en fait l’élément moteur du scénario Negawatt, autour duquel tout s’articule, depuis la stricte limitation de la consommation (- 61 % par habitant), jusqu’au fort développement de l’électricité renouvelable électrique, pour quasiment remplacer celle actuelle produite par le nucléaire. Pour réaliser ceci, 76,4 % de la production d’électricité reposerait sur l’éolien et le photovoltaïque, ce qui représente une multiplication par 13,8 de leur production actuelle. A elles deux, avec une production annoncée annuelle de 394 TWh (puissance totale de 217 GW) elles assureraient le quasi remplacement des 404 TWh de l’actuel nucléaire (puissance totale de 63 GW). 

Selon Negawatt, ceci serait faisable en dépit de la spécificité de ces deux sources, à savoir leurs caractères intermittents et aléatoires, l’un des points principaux à considérer.
Mais, dès le départ, le choix du nom de baptême Négawatt, montre l’ambigüité. Cela signifie t-il : non au Watt, et en faire la chasse ? Ceci est surprenant, dans la mesure, où le Watt est une unité de puissance, et non représentative des rejets de gaz carbonique, qui ne peuvent s’estimer qu’à partir de l’énergie, dans la mesure, où celle-ci a une origine fossile. Hors, l’énergie ne s’exprime pas en Watt, mais en Joule, ou en Wattheure (1 Wh = 3600 Joules) ou en tep (1 tep = 41,86 GJ). Le Watt, unité de puissance est surtout utilisé pour caractériser les puissances des équipements électriques, et l’on voit de suite apparaître l’ennemi à battre : l’électricité nucléaire.

Ceci conduit à un curieux résultat final, contraire à l’annonce, qui ferait penser : moins de Watt, alors qu’il y en aura beaucoup plus, mais très mal utilisés. En effet, comme nous le verrons, alors que la puissance totale installée des sources d’électricité, qui est, à ce jour, d’environ 127 GW (pour 572 TWh produits), monte dans Négawatt, à 240 GW (pour 462 TWh produits). Voilà un Néga qui se traduit par un Hyperwatt, avec une multiplication par près de 2 !
Faut- il faire la chasse à tout ce qui est électrique, alors que le nucléaire, comme les énergies renouvelables n’en émet pas ? Ainsi, pour l’ensemble du secteur énergie, sur les 380 millions de tonnes de CO2 rejetées annuellement, seulement 10,7 % sont associés à la production d’électricité, et ne représentent, donc, qu’une part réduite comparée aux besoins d’énergie pour la mobilité (39,2 % des rejets associés au quasi seul pétrole) et aux besoins des usages fixes (49,7 % associés à l’emploi du gaz, du pétrole et encore à un peu de charbon).

Il faut rappeler, et ceci est un point crucial, lorsqu’on envisage l’avenir, que la France a déjà fait un premier pas vers la réduction des rejets de gaz carbonique, lors de sa première transition énergétique. Cette transition réalisée, à partir de la fin des années 1970, jusqu’en l’année 2000 (dernière mise en service des 1500 MW de Civaux 2) a vu la production d’électricité produite à partir des combustibles fossiles (essentiellement le charbon) remplacée par le nucléaire. Ceci a aussi été accompagné par une extension très favorable, de l’emploi d’une électricité décarbonée, limitant notamment l’emploi du gaz pour le chauffage. La France est déjà quasiment sortie du charbon. Reste à sortir du pétrole et du gaz.

Cette situation favorable actuelle, du modèle français se traduit, avec des rejets français de gaz carbonique associés à l’énergie de 6,1 tonnes annuelles par habitant, à comparer aux 10,9 tonnes annuelles par habitant en Allemagne, qui débute sa sortie du nucléaire (encore 7,6 % de sa production énergétique primaire, au lieu de 43,8 % en France)

De cet acquit bien palpable, mesurable Negawatt veut s’en débarrasser au plus vite. On efface le passé.

Notre examen du dossier Negawatt 2017
Nous avions en 2011, fait une analyse détaillée du scénario Négawatt 2011 (NgW11). Pour aller plus loin, et arriver à 100 % renouvelables, dans la lignée de l’approche récente de l’ADEME, avec le même intitulé du 100 % renouvelables, mais sur la seule électricité, Negawatt sort sa version 2017 (NgW17)

Si les changements 2011/2017 font passer de 94 TWh à quasi zéro (encore un symbolique résidu de 3.3 TWh), la part des combustibles fossiles, ceci repose déjà sur une baisse accrue de la consommation totale, qui passe de 849 à 806 TWh, amplifiant l’importance de l’ensemble sobriété/efficacité. 

Ces changements 2011/2017 concernent surtout un fort accroissement de + 28 % des sources d’électricité renouvelables NRi. Ces sources que Negawatt se refuse à les voir affublées de l’indice i, pour intermittentes, en préférant les appeler variables (ou fluctuantes, dans sa version 2011). Il est vrai que si la puissance produite passe de son maximum, par exemple à 80 % de la puissance installée, ce n’est pas la même terminologie si ne tombe pas à zéro, mais péniblement reste à 5 %. Mais en pratique, cela revient à quasiment zéro.

L’énergie produite par ces deux sources est passé de 284 TWh (NgW11) à 394 TWh (NgW17), en rappelant qu’elles produisent 28.6 TWh en 2015. Ceci  conduit, pour prendre en compte la variabilité, à renforcer le power to gaz et la méthanation, multipliée par un facteur proche de 3, entre NgW11 et NgW17, accentuant les questions déjà posées sur la version 2011, autour des électrolyseurs (l’inconnu sur leurs puissances), de l’origine du gaz carbonique et de façon générale les évaluations de rendements et pertes, qui sont, quel que soit le domaine traité, sous estimées.

On notera enfin un changement fondamental, avec l’appel clair et significatif aux pompes à chaleur. Certains watts honnis en 2011 redeviendraient acceptables. On retrouve ici la même démarche que celle de l’ADEME, qui a, en quelques années, effacé son affichage du non aux pompes à chaleur, trop assimilable à l’électricité nucléaire. 
La consommation d’énergie :

De 2015 à 2050, selon ce scénario, la consommation d’énergie serait divisée par plus de deux. Cette hypothèse a acquis ses lettres de noblesse depuis que la LTEV (loi sur la transition énergétique), en a fait un objectif. On peut juger, qu’elle n’en demeure pas moins illusoire.

Nota : 

– La majorité des données chiffrées, affichées dans ce document sont issues de schémas de Sankey de Negawatt, exprimés en TWh. Négawatt indiquent toutes les quantités d’énergie en TWh (térawattheure), qu’elles soient thermiques ou électriques. Dans notre approche pour sortir des fossiles, avec en premier le pétrole, nous utilisons couramment la tonne équivalent pétrole ou tep (tep : unité non officielle du Système international, mais qui est adaptée pour la transposition avec 1 tep =41,86 Gj, soit 11,63 MWh.° Ceci montre  l’accent sur l’importance des combustibles fossiles, et son porte drapeau en tête le pétrole. Ce mode de comptage est en effet, le plus parlant, accessible, avec en référence le pétrole, premier des combustibles fossiles, tant en France que dans le Monde, et un lieu direct avec les autres combustibles fossiles (par exemple en moyenne 1 tonne de houille = ~ 0.62 tep ; 1000 m³ de gaz = ~0,855 tep) toutes sources potentielles de chaleur, que ce soit en usage direct ou pour produire de l’électricité. On verrait mieux utiliser la terminologie Non à la tep. Ceci  s’applique de façon équivalente, pour la production directe de chaleur par les renouvelables thermiques (comme la biomasse, le soleil, la géothermie) et permet de faire des bilans globaux chaleur en production, comme en consommation. Par contre pour les renouvelables qui ne produisent que de l’électricité, la transposition ne présente aucun intérêt, et il est préférable de ne parler que de Joule ou de Wh, pour l’énergie et des Watt pour les puissances.
– La lecture conjointe du texte et du schéma Sankey 2050 révèle quelques incohérence, ou difficultés de lecture ou de compréhension. Poste par poste celles-ci portent sur quelques pour cent des données,  de même que sur les rendements, allant toujours dans le bon sens pour la démonstration, visant la sortie du nucléaire. Comme elles ne remettent pas fortement en cause les principales conclusions, nous ne les prendrons pas en compte. 
La consommation totale d’énergie de Negawatt 2017 (NgW17) passe de 1830 TWh (157 Mtep) en 2015) à 806 TWh (69 Mtep) en 2050, soit – 56 % au total, et ainsi, – 61 % par habitant. Elle était de 74 Mtep pour NgW11. On va encore plus loin dans la sobriété/efficacité.
Les usages se répartissent 

– en chaleur pour 33 Mtep (382,4 TWh)

– en mobilité pour 21.6 Mtep (250,8 TWh)

– en électricité spécifique pour 172,8 TWh)
Par secteur de consommation, ces usages se répartissent 

– Résidentiel et tertiaire 29,3 Mtep

– Transports 19,4 Mtep

– Industrie 15,8 Mtep

– Agriculture 4,9 Mtep
Pour montrer l’origine de ces gains, NgW 17, les attribue pour 17 % à la sobriété, et 27 % à l’efficacité, soit un total de 34 %. Mais ces gains indiqués se réfèrent non à l’année 2015, mais à un « tendanciel », imaginé, auto créé à sa convenance,  par Negawatt pour 2050. Alors que les tendances de tous les scénarios considèrent dans une perspective de semi continuité, en dehors de toute nouvelle politique volontariste dure, guerre, crise économique profonde, une augmentation de la consommation, Negawatt annonce comme base : 1600 TWh pour 2050, soit déjà une baisse d’environ 11 %, masquant l’effort de la transition. Mais il fallait que Negawatt cache l’ampleur de ce qu’il prévoit, ainsi, en apparence il faut se serrer la ceinture d’un cran de moins.

Un vrai tendanciel, hors toutes mesures, visant un objectif spécifique comme réduire la part des combustibles fossiles et les rejets de gaz carbonique, devrait prendre en compte, déjà la simple augmentation de population (ici + 13 %), et en outre, par habitant, un surplus de consommation lié à un accroissement du PIB, pondéré par le facteur d’élasticité. Au total, ce devrait être environ + 30 % et non moins 11 %. Un écart de 40 %, du déjà tout cuit, pour avaler la pilule de décroissance.

Mais tout ceci vise à cacher une partie de la forte décroissance qu’impose Negawatt, que certains baptiseront de bienheureuse, réalisable avec que des bénéfices, et d’autres la nommerons décadente, misérabiliste.

Consommation par le secteur résidentiel et tertiaire

Selon le scénario NgW17, dans le résidentiel et le tertiaire, la consommation totale est de 341 TWh (29,3 Mtep). 

La consommation pour les seuls usages thermiques est de 25,1 Mtep. Ils sont actuellement de 54,5 Mtep, ce qui suppose une baisse de 46 %, soit plus qu’un facteur 2 par habitant.

Le scénario prévoit un accroissement de surfaces de 12 % pour le résidentiel (passage de 2500 à 3000 Mm²). Cet accroissement est cohérant avec l’accroissement de population. Il est plus cohérant que NgW11, qui prévoyait la simple stabilisation dans le résidentiel et + 170 Mm² dans le tertiaire. 

Negawatt compte beaucoup, sur la mise en œuvre de politiques incitatives, comme : « encourageant par exemple la colocation d’étudiants ou l’hébergement de jeunes travailleurs chez des personnes âgées ». La terminologie est plus atténuée, que dans NgW11, qui était claire sur la « cohabitation recommandée pour les veufs ou veuves », mais il reste l’impératif de se « serrer un peu » dans les logements, en déphasage total, avec les tendances sociétales actuelles, notamment en mettant l’accent sur la cohabitation (plus ou moins forcée), le partage des logements comme ceux des personnes âgées vivant seules…, de nombreuses mesures à la limite de la coercition.
Ceci compte aussi, via la sobriété, sur une baisse des températures de vie, de l’ordre d’au moins 2 °C, qu’il faudrait faire appliquer, avec rassurons nous, la distribution gratuite de pulls.

Ceci repose sur l’efficacité avec en final un gain d’un facteur 5, en kWh/m² par l’isolation . Pour ce, Negawatt retient un volume annuel des travaux sur 780 000 logements et 3,5 % environ des surfaces tertiaires.

Bien entendu, il convient d’isoler le plus de logements, aucun doute sur ce sujet. Mais il faut prendre en compte que ce sont les derniers kWh/m² à gagner, qui coûtent le plus cher. Il faut en voir les limites. Mettre en modèle ces logements « thermos » quasi autonomes, où grâce à la chaleur humaine, on ne gèle pas, est une impasse. Il faut considérer les cas, où l’opération tombe sous un seuil de retour sur investissement inacceptable, et impose des avances en capitaux, que seules les familles aisées pourraient y répondre.

Peut-on faire plus que les 500 000 rénovations par an promises dans le précédent programme électoral à la présidence, qui ne furent loin de là jamais obtenues, mais en fait l’essentiel des aides ont été destinées au développement des sources d’électricité renouvelables, sans aucun gain sur la limitation des rejets de gaz carbonique. Il aurait mieux vallu porter ces aides vers l’isolation des logemnts pour les plus démunis. 
Mais élément nouveau, positif enfin, tout n’est pas désespéré, parmi les sources d’énergie, les pompes à chaleur sont mises en avant et couvriraient la moitié des installations de chauffage. Ceci n’était pas prévu dans NgW11. Mais à l’époque, dans la mouvance anti nucléaire, comme à l’ADEME, les pompes à chaleur étaient exclues du langage, car qui disait pompe à chaleur sous entendait électricité nucléaire, absolument à proscrire à l’époque. Les choses ont changé, notamment à l’ADEME, depuis quelques années, et ainsi il est cité dans NgW17, ce qui traduit une évolution idéologique : « une place privilégiée aux pompes à chaleur performantes, principalement électriques, qui disposent d’atouts indéniables en termes d’efficacité et de flexibilité ».On s’écarte enfin du non au Watt.

Les pompes à chaleur représenteraient 50 % du chauffage résidentiel et 35 % du chauffage tertiaire, soit environ 11 Mtep. Sur la base d’un COP moyen de 3 ceci donnerait 7,36 Mtep, tirés de la nature (environnement) et 3,7 Mtep à partir d’électricité, soit 42,7 TWh à produire. 
L’électricité directe étant pratiquement ramenée à zéro (environ 0,5 Mtep), les autres sources d’énergie pour la chaleur de l’ensemble résidentiel et tertiaire  sont 

– la biomasse pour environ 6 Mtep (30 % du résidentiel et 15 % du tertiaire)

– un ensemble appelé « réseau de chaleur » pour environ 4 Mtep, avec la répartition 8 % du résidentiel et 30 % du tertiaire.

– gaz pour 4 Mtep en provenance de biogaz et en partie produit par méthanation (voir plus loin la méthanation, dans la rubrique sur la variabilité de l’éolien).

Consommation dans le secteur du transport

La consommation totale pour les transports, qui était de 631 TWh (54 Mtep), tombe à 250,8 TWh (21,6 Mtep, à répartir entre 11,2 pour les personnes, 8,2 pour les marchandises et 2,2 pour l’agriculture). 

Ceci représente une baisse de 57 % par rapport à 2015, à répartir entre sobriété pour 42 % et efficacité pour 15 %. 
La sobriété seule représenterait un gain de 266 TWh (23 Mtep), soit 45 % de la consommation actuelle mobilité. (hors agriculture), un miracle reposant sur la seule bonne volonté (et un peu de persuasion forcée) de la population, qui avec bonheur fera de la marche à pied, ou de la trottinette. 

Le dossier de synthèse prévoit une légère baisse de 15 % de la mobilité des personnes mesurée en km/hab.an (17200 actuellement). La place de la voiture (actuellement 71 % de la mobilité des personnes) est ramenée à 49 % y compris le mode dit en partage. La part des transports en commun, a priori plus sobre, est accentuée, multipliée par 1,75, mais ceci reste limité.

Pour le transport individuel, toutes les possibilités, a priori favorables à la réduction, sont mises à contribution, depuis la réduction de la vitesse sur route et autoroute (respectivement 80 et 110 km/h), la division par 2 de l’emploi de la voiture individuelle (passe de 11000 à 5500 km/hab.an). On trouve aussi la division par 2 de l’usage de l’avion (pratiquement zéro en France métropolitaine, associé à un doublement du TGV). 

Pour les marchandises la baisse globale est un peu moindre, avec une réduction de 23 %, en  passant de 300 Gt.km à 230, avec une division par 2 pour la route (à ce jour à 210 Gt.km), et une multiplication par 2.5 par le rail (type de dépense à faire, que l’on a du mal à voir dans les investissements).
Pour les transports, le premier poste en énergie finale est le gaz dit réseau (origine biogaz ou gazéification à partir de biomasse solide ou méthane issue de méthanation) pour 15,5 Mtep, puis l’électricité pour 36,1 TWh (3,1 Mtep) et enfin les combustibles liquides pour 3 Mtep, auquel il faut ajouter 0,5 TWh d’hydrogène. On notera que l’accent est mis sur le moteur thermique gaz. 

Compte tenu du très fort développement prévu des transports en commun (TGV, multiplié par 2, métro tramways…) il devrait rester peu pour le véhicule électrique individuel, même si ceci est mentionné à côté des hybrides, dans la rubrique efficacité, sans préciser si ces derniers ne sont pas rechargeables, ou si on considère une flotte en partie hybride rechargeable et toute électrique. 

On trouve enfin l’hydrogène, mais à si petite dose (environ 0,2 %) que l’on a du mal, à voir, pour ci peu, justifier la mise en œuvre d’un réseau très spécifique et les risques inhérents à ce fluide explosif, que nous  ne souhaiterions pas voir dans nos garages. Fallait-il absolument répondre au lobby hydrogène, en concurrence avec celui électrique ? Mais la filière hydrogène a longtemps été un allié de la sortie du nucléaire.
L’efficacité a un rôle mineur dans la baisse et n’interviendrait  que pour 8 %. Il est fait mention de « motorisation plus efficace avec les véhicules hybrides allant vers les 2 litres au 100, et les véhicules électriques ». Il est curieux que l’on ne mette pas en avant, les avantages de la motorisation électrique, en se référant non à l’énergie finale, mais à celle dite utile, celle qui sert au déplacement des masses. La prise en compte d’un facteur proche de 3 dans les rendements entre moteur thermique (à fuel, ou à gaz) et moteur électrique, n‘est pas évoquée. En considérant que le rendement, en passant du moteur thermique au moteur électrique est amélioré d’un facteur 3, les 3 Mtep d’électricité seraient l’équivalent de 9 Mtep de combustibles fossiles et il y aurait ainsi un gain de 6 Mtep en énergie finale. 

Mais dans la tradition Negawatt, comme celle de l’ADEME, dans le même état d’esprit que le domaine des pompes à chaleur, vu ci-dessus, il ne faut pas trop mettre en avant l’usage de l’électricité. Mais ici aussi une petite révolution est passée et on en parle, mais sans insister. 

Consommation dans le secteur de l’industrie 
L’industrie passe de 33 Mtep  (387 TWh à 15,8 Mtep (183 TWh) soit une baisse de 53 %). 

En se situant par rapport au scénario de référence Negawatt, la seule sobriété représenterait 34 % de la baisse. Ici plus que dans les autres domaines, apparaît l’incongruité du scénario tendanciel, qui prévoit une baisse de 12 %, ceci sans aucun effort, dans la simple continuité. Avec l’industrie, on est vraiment dans l’idée majeure de Negawatt et la décroissance désirée.

L’efficacité n’apporterait qu’une faible participation à la baisse de consommation. Voici un point sur lequel, il y aurait un consensus en considérant que l’essentiel, de l’effort d’efficacité dans l’industrie, a déjà été fait depuis les crises pétrolières et financières avec l’envolée du prix de l’énergie, calé sur celui du pétrole, même si en se référant à l’année 2015, les prix du baril sont fortement retombés mais les adaptations industrielles déjà faites sont les bienvenues.
L’électricité représente 72,8 TWh et la chaleur 9,5 Mtep (110 TWh) 

La chaleur vient essentiellement 

– de la biomasse solide 4,6 Mtep, 

– de l’environnement 1,8 Mtep (Pompes à chaleur) 

– du solaire thermique 0,9 Mtep, 

– gaz issu de la méthanation : 0,6 Mtep, et enfin un peu de liquide ou gaz biomasse

C’est le seul secteur de consommation qui garde un résidu de fossiles, sous forme de pétrole : 0,25 Mtep

Consommation dans le secteur de l’agriculture

Le secteur de l’agriculture bouge très peu sous l’aspect consommation énergétique. Il passe de 5,7 à 4,1 Mtep, soit une baisse de 28 %, soit beaucoup moins que la moyenne de 56 %.

La part électricité augmente, en passant de 11,2 à 15 TWh (1,3 Mtep) 

Un zoom sur l’électricité 

De la production à la consommation finale d’électricité
La production actuelle d’électricité de 540 TWh, descend à 516 TWh, soit – 24 TWh. Pour passer à la consommation interne, il faut corriger du bilan export/import, qui important et positif de 60,6 TWh en 2015, est prévu retomber à 18,9 TWh en 2050. 

Cette baisse, s’expliquerait elle par la fin d’une électricité française bon marché, au niveau européen, grâce au nucléaire ? Cela semble évident, car avec le bon des EnRi, le prix de l’électricité française va flamber. La compétitivité française dans le domaine de l’électricité va disparaître, mais ceci est peut être voulu par l’Allemagne, téléguidant les décisions au sein de l’Europe.

Hors bilan export/import, il y aurait, pour la totalité de la production électrique, un petit plus de 17,7 TWh, soit + 3 % en 35 ans, bien loin des tendances, bien au dessus du pour cent par an, que l’on rencontre dans tous les pays du monde et ceci à toute époque depuis l’invention de l’électricité, sauf en de courtes périodes de guerre et/ou de crise. Mais, en sachant qu’une large partie de la production sera détournée, vers la méthanation, pour faire face à l’intermittence des EnRi, nous sommes vraiment  dans Negawatt dans une séquence de forte décroissance de l’électricité, considérée comme le porte drapeau du progrès, dont celui social.
Cette production d’électricité viendrait des sources directes suivantes:

 

Eolien 247 TWh, à partir d’une puissance totale installée de 77 GWi. 

Voilà un bilan difficile à valider, donnant une durée moyenne de 3207 heures par an. Avec 49 GW de terrestre et une moyenne de charge de 2500 heures par an, sauf miracle attendu des NG d’éoliennes en terre, il faudrait arriver à 4446 heures par an pour l’offshore. Mais, comme là rien n’est encore fait en France, on peut toujours rêver. Des miracles, encore des miracles.

L’ensemble des 18000 éoliennes en terre couvrirait une surface totale d’environ 4000 km², soit 0.4 Mha. Ce n’est pas considérable, d’autant que ces surfaces sont à considérer comme en grande partie accessible et cultivable, donc un impact limité sur la disponibilité des terres. Mais l’obstacle majeur vient, hormis l’impact touristique en partie désastreux pour la France, des nuisances potentielles avec la proximité de l’habitat, dont la limite des 500 mètres. Cette limite a été instaurée, déjà contre l’avis de l’Académie de Médecine qui proposait le double, lorsque les éoliennes de l’époque, avec des puissances de 2000 à 2500 kW, atteignaient en haut de pâle 80 mètres de hauteur. Avec les 6 MW on arrive à 180 mètres de haut. Il faudrait qu’à minima la distance soit proportionnée à la hauteur, et portée à 1000 mètres. Mais le lobby EnR et son syndicat, a réussi à s’opposer à ce changement lors de l’établissement de la loi LTEV, avec une forte intervention de la ministre de l’environnement, plus concernée par le lobby EnR, que la santé des citoyens. On peut penser que cette extension de l’éolien est très problématique, et que les citoyens perturbés dans leur vie courante réagiront. 
Photovoltaïque 147 TWh, à partir de 136 GWc. Ici pas de réserve, sur le facteur de charge.

Ceci supposerait une surface capteurs d’environ 1000 km². La puissance est prévue se répartir  en majorité, avec 106 GWc, pour des installations sur toitures (habitat, hangars divers…). Ceci est en théorie sans occupation de terres agricoles, sous réserve toutefois que des pratiques actuelles de construire des hangars à objectif panneaux photovoltaïques et l’argent facile avec la vente de l’électricité ne prennent trop d’importance. A ceci il faut ajouter environ 20 GW pour des centrales au sol. Pour ces dernières, il faut sensiblement doubler la surface capteur pour arriver à la surface au sol et ceci donne 300 km². Mais, contrairement à l’éolien, ici le sol ne peut être exploité, il faut même le nettoyer des herbes sauvages pour éviter son enfouissement, une maintenance parfois imprévue.
Hydraulique terre 54 TWh. Pour cette dernière, on ne note pas de modification significative. Les quelques adaptations de sites existants, pour accroître la production seraient compensées par une petite baisse de la productivité « imputable au dérèglement climatique ».

Il faut noter, que l’hydraulique terre est déjà très variable d’une année sur l’autre (en moyenne 65 TWh sur les 10 dernières années avec des variations d e70 à 58) Il semble difficile de retenir que, d’ici 2050, la tendance sera à une forte baisse liée au changement climatique, hormis l’accroissement des détournements d’eau pour l’agriculture. Ce qui est le plus important à retenir est que la capacité ne devrait pas fortement augmenter, et à 1 à 2 GW près, il y a consensus. 
Hydraulique mer 14 TWh

Il faut rappeler que celle-ci se limite, pour l’instant  à l’usine marémotrice de la Rance, avec une puissance de 240 MW et une énergie produite de 600 GWh (facteur de charge de 28.6 %). Cette filière est quasiment abandonnée dans le monde entier. La France pionnière dans ce domaine a payé les « pots cassés » pour tous.

Les mêmes déboires ont affecté la filière houlomotrice (les vagues) en retenant le fiasco de Pelamis, mais là le promoteur/précurseur était britannique et une victime consentante, le Portugal, qui s’est encombré d’une épave qui rouille, en bord de côte.

Pour l’avenir de l’hydraulique mer, Negawatt ne détaille pas, mais semble retenir l’hydrolienne, celle en début de test en France. La puissance serait de 4,2 GWi, soit un facteur de charge de 38 %, pour les 14 TWh annoncés. Ce facteur de charge peut sembler très optimiste, voire irréaliste, en comparaison avec celui de l’usine marémotrice, basée sur les mêmes forces physique de la mer et les mêmes lois physiques de la nature. 
De cette production primaire totale issue en direct de sources renouvelables électriques de 462 TWh, sont rajoutés 53,7 TWh venant des postes de production secondaires, de cogénération chaleur, soit un total de 516 TWh en production.

Ce dernier chiffre pourrait faire penser qu’en valeur absolue, la place de l’électricité n’a pas beaucoup changé par rapport à aujourd’hui, corrigée du bilan export/import. 

Mais ceci change fortement, si on suit le chemin vers la consommation et en premier les pertes associées à la prise en compte de la variabilité des renouvelables intermittents, et déjà les 181 TWh soutirés à destination de la méthanation, pour faire face aux surproductions momentanées des ENRi (éolien et photovoltaïque)
Ceci donnerait un bilan intermédiaire de 335 TWh. Pour arriver à la consommation finale, il faut prendre en compte :

– les 6 TWh, du bilan net du passage par les STEP (24,4 consommés pour 18,3 produits, traduisant un rendement de 75 %) 

– les 31,6 TWh d’alimentation du secteur spécifique énergie

– les 6,5 TWh de pertes en lignes 
Nota : 

Les 6.5 TWh annoncés de pertes en ligne, représentent, entre 1 et 2 % de l’énergie transportée. Ce chiffre est particulièrement faible, il devrait être au voisinage de 7 %. Mais il en est ainsi de toutes les évaluations de pertes sous estimées dans le scénario Negawatt que ce soit celui 2011 ou celui 2017.
Ceci conduit à un bilan de 291 TWh, pour  une distribution nette est de 272,2 TWh 

– 72,8 industrie (en spécifique)

– 74,7 résidentiel (36,4 en spécifique et 38,3 en chauffage)

– 73,6 tertiaire, (48,5 en spécifique et 25 en chauffage)

– 27,9 mobilité, 

– 23,2 agriculture (15 en spécifique) 

Il y aurait dans ce remontage un surplus de 19 TWh, exactement celui indiqué comme excédant électrique. Mais qui en voudra, si le cout de l’électricité française n’est plus compétitif.

 

La variabilité de l’éolien et du photovoltaïque

Généralités

L’électricité, simple vecteur énergétique, n’est pas directement stockable. Il faut à chaque instant ajuster la production aux besoins. Ces besoins sont déjà, en moyenne en intégrant l’énergie sur plusieurs semaines, très variables au cours de l’année, mais il y a le temps de se préparer pour faire face à ces variations globales. Par contre ces besoins sont encore plus variables, mais ici en valeur instantanée de puissance au cours d’une simple journée, d’heure en heure, et il faut réagir en continu et sans rupture, à la minute près, voire même à la seconde près.

Si on peut agir en partie, assez peu, sur la consommation, il appartient à l’ensemble des sources de production de s’adapter. Toutes les sources d’électricité, qui peuvent ajuster leurs puissances, assurent ainsi, à ce jour, en permanence de façon quasi satisfaisante, même si pas toujours parfaite, l’équilibre entre la consommation et la production. Ainsi agissent l’hydraulique, les centrales à combustibles fossiles et le nucléaire, pour au total en 2015, varier entre 15000 et 20000 MW (de 15 à 20 GW) dans  une seule journée. Cette variation se retrouve essentiellement, lors de la montée des besoins chaque matin de 5 h (lorsque la vie redémarre après la longue pose de la nuit) jusqu’à un semblant de pallier vers 11/12 h, ceci en toute saison.

Mais, l’arrivée de nouveaux systèmes productifs renouvelables, dont l’éolien et le photovoltaïque, avec des puissances de déversements sur le réseau très variables et en partie aléatoires, (terme honni par Negawatt, qui parle de fluctuant), va accentuer le besoin de modulation des autres producteurs, sauf si des techniques de stockage d’électricité, à ce jour quasiment limitées aux seules STEP, ne prennent le relais, ceci, joint à des mesures coercitives de gestion de la consommation.

Sauf en agissant fortement quasiment en continu sur la consommation, Il faut que le réseau soit équipé en puissances installées de réserves, prêtes à démarrer, ou à changer de régime en fonction de la production des éoliennes (et donc des fluctuations des vents) et de la course du soleil, cette dernière seule, assez bien prévisibles, de la plus forte puissance possible à zéro garanti. 
La situation dans Negawatt 2017
De façon générale, le dossier de synthèse indique que les moyens de flexibilité aujourd’hui disponibles (hydraulique de barrage, stations de pompage-turbinage, centrales thermiques d’appoint, effacement des industries électro-intensives, importations, …) sont largement suffisants pour faire face à une augmentation sensible de la contribution de ces deux filières (éolien et photovoltaïque).

Nota : Il faudrait y ajouter le nucléaire, qui centrale thermique de base, à différencier de celles fossiles, participe tout autant à la flexibilité, mais Negawatt va s’efforcer de prouver le contraire, en minorant ce rôle déjà existant, pratiquement chaque jour, accentué les weekends. 

Il est aussi reconnu, que lorsque ces deux filières atteindront des taux élevés de pénétration, il sera nécessaire de disposer de davantage de moyens de stockage permettant de déplacer dans le temps des quantités d’énergie importantes, citant les volants d’inertie pour des temps courts, le power to gas pour le stockage inter saisonnier, en passant par les batteries, l’air comprimé… De toute citation, seul le power to gas semble prévu et ce n’est pas un moyen de stockage pour restituer, lorsque nécessaire de l’électricité, mais un moyen de consommation adaptable.
Dans Negawatt, d’ici 2050, en arrivant à une puissance totale installée de 217 GW de puissance variable, il est clair que nous sommes sortis de la gamme d’augmentation sensible, indiquée ci dessus. C’est presque le double de la situation actuelle de puissances installées de toutes les sources en France.

Il nous reste à croire en l’affirmation de Negawatt que l’équilibre entre la production et la consommation d’électricité est assuré sur une base horaire. 

Mais là-dessus, au même titre que la présentation par l’ADEME du scénario 100 % renouvelables électriques, nous sommes plus qu’incrédules, comme le montre le tour d’horizon ci-dessous.
Pour l’éolien, sur l’ensemble de la France, on retient, qu’en limite, la puissance totale de 77 GWi ne sera jamais atteinte pour produire et qu’à l’opposé à d’autres moments défavorables, il y aura toujours quelque part un peu de vent, le zéro vent peut arriver pendant quelques jours, une fois, tous les 3 à 4 ans. Ainsi, en fait, on peut retenir, que la puissance instantanée pourrait varier de 60 GW à 4 GW (période anticyclonique, très peu de vent, pouvant affecter quelques jours en continu, plusieurs fois par trimestre), avec de grandes variabilités, aucune régularité à prévoir sur quelques jours

Pour le photovoltaïque, il y a moins d’incertitudes, la puissance maximale sans jamais atteindre la puissance de crête de 136 GWc, en totalité peut s‘en approcher par exemple 110 GW, mais une certitude pour la majorité du temps, ce sera zéro, en particulier, lors des pics de consommation de fin d’après midi, soit une plage de 110 à 0 GW en production instantanée.
Globalement ces deux sources, qui ensemble constituent le cœur de la production électrique, peuvent voir la  puissance produite passer de 170 GW (milieu de journée, par période de fort vent) à 4 GW en fin de journée, soit d’un côté très largement au dessus, de plusieurs dizaines de GW (par exemple 130 GW) des besoins de consommation, soit, très en dessous à quasiment zéro.
Cette situation proche du quasi zéro produit conduit à faire appel aux autres sources dont la puissance ajustable peut être appelée. A ce jour au niveau national, ce sont l’hydraulique, le nucléaire et les combustibles fossiles (charbon et gaz) qui interviennent, pour assurer une variation de l’ordre de 20 GW, autant en été qu’en hiver, auxquels il faut ajouter l’importation en situation extrême. 

Avec la fin du nucléaire et des fossiles, le peu de changement possible sur l’hydraulique (hormis une amélioration de l’usage des STEP, en énergie cumulée, mis non en puissance), avec Negawatt ,on s’approche du black out, hors importation, la pénurie forcée. Ceci ne semble pas poser de problème à Negawatt, pas plus qu’à l’ADEME dans sa vision jumelle, dite le 100 % renouvelable, qu’un coup de pouce important vienne nécessairement à l’occasion de l’importation. Mais les liaisons avec nos voisins sont encore limitées, et surtout ceux-ci peuvent aussi être en manque simultanément. Il faut dire et redire que la fausse idée du foisonnement européen, longtemps soutenue et portée aux nues, par les tenants des renouvelables électriques a été démystifiée. En période anticyclonique toute l’Europe est affectée.

Le scénario Negawatt conduit de façon sure au black out.
A l’opposé, lorsqu’il y a surproduction, qui peut dépasser les 130 GW, la solution du « méthane de synthèse (power-to-gas) est présentée par Negawatt, « comme l’une des clés de voûte du système énergétique de 2050 ». Il s’agit de consommer, de façon en partie «‘utile » (hors aspect financier, et pertes en rendement) en comptant sur les 181 TWh du méthane de synthèse (appelé méthanation) et, aussi sur les 24,4 TWh de STEP. 

L’appel aux STEP est fortement développé dans Negawatt, puisque les 4,8 TWh soutirés en 2015 passent à 24,4 TWh, soit 5 fois plus, un nouveau miracle, mystère. Les STEP représentent à ce jour une puissance de 4,2 GW en pompage (pour 4.9 en production) et fonctionnent donc en moyenne 3 heures par jour. Va t-on les faire fonctionner 15 heures en pompage et 15 heures en production. Mais, la journée n a  toujours que 24 h !

Comme elles vont fonctionner en production un temps proche de ce facteur 5 (ainsi veut la physique de base) alors qu’il n’est pas prévu la création de nouveau site STEP, comment peut on croire en ceci, alors qu’un consensus se dégage pour retenir une limite de prévoir 1 à 2 GW en plus de STEP, écartant de toute façon, les projets de celles dites marines.
La méthanation couvre 181 TWh de consommation. Ce sont, presque la moitié de la production des EnR, qui sont détournés du cycle direct vers la consommation, pour alimenter des électrolyseurs, qui a partir de l’eau produiront de l’hydrogène. Cette technique de production par électrolyse ne représente, à ce jour, que1 % de la production d’hydrogène, avec en objectif principal l’industrie, l’essentiel venant de combustibles fossiles (exemple : le vaporeformage du gaz), du fait de son coût. 

Le fonctionnement des électrolyseurs est affecté d’un rendement de 78 % (pertes 39.8 TWh). Ceci représente déjà une hypothèse très optimiste (une de plus) pour des électrolyseurs à charge constante, ce qui ne sera certainement pas le cas, avec les grandes variations de production. Faut-il une puissance installée d’électrolyseurs d’environ 95 GW (les 100 de surproduction, moins les 5 de STEP) ? C’est gigantesque, inconcevable, il faudrait le préciser.

Cet hydrogène sera à 95 % orienté vers la méthanation, l’essentiel du reste allant vers l’usage direct de l’hydrogène dans l’industrie, et un curieux petit soupçon vers la motorisation, choix assez incompréhensible de vouloir soutenir à si petite échelle cette nouvelle filière.
La méthanation, passe par la réaction avec le gaz carbonique (réaction de Sabatier), mais rien de dit clairement d’où vient le gaz carbonique ? (faut-il en récupérer 12 millions de tonnes par an en 2050). Il est suggéré que ceci vienne de sources biomasses. Ceci suppose la multiplicité des installations de séparation du gaz carbonique des fumées de combustion. Les pertes de 47 TWh, venant s’ajouter aux 39.8 TWh électrolyseurs, recouvrent elles les énergies pour séparer le gaz carbonique, de l’azote, le transporter. Encore des pertes, des pertes et encore de nombreux doutes.

Un zoom sur la biomasse

En énergie primaire, le total en incluant les déchets, passerait de 16,7 Mtep (197,3 TWh) en 2015, à 36,5 Mtep (423,9 TWh) en 2050, soit un peu plus qu’un doublement, correspondant à couvrir, 42 % des besoins en énergie primaire, sensiblement au même niveau relatif que l’ensemble des électricités éolienne et photo voltaïque. Un poste essentiel.
La biomasse se présente sous 3 formes : solide, liquide, gaz.

• La biomasse solide fournirait 21,4 Mtep (249 TWh) d’énergie primaire. Elle serait issue de la forêt, avec un prélèvement de 120 millions de m³ effectué chaque année, soit pratiquement la limite de l’accroissement annuel sur pied. (en 2015 seuls environ 66 Mm³ étaient prélevés). Ce prélèvement est destiné au bois d’œuvre, au bois industrie (papiers cartons…) et au bois énergie. Pour l’énergie s’ajoute les apports des petits bois des vergers, vignes, arbres urbains, taillis bords de route, bois d’élagage. Bien que la surface forestière reste quasi stable, il est considéré, par Negawatt, que la production de biomasse solide pourrait être multipliée par 2.5, grâce à une meilleure exploitation, le développement de l’agro-forestier et plus de récupération des déchets. Un miracle.
• La biomasse gaz fournirait 11,5 Mtep (134 TWh) d’énergie primaire. Elle ne comptait que pour 6,3 TWh en 2015, soit un facteur multiplicatif proche de 20. Ceci constitue une quasi révolution, issue de la généralisation de la méthanisation (déjections animales, résidus de culture, cultures intermédiaires sur terres arables, herbes sur 1/5 des prairies, d’une grande majorité des bios déchets ménagers et industriels. 

Quant on rappelle, que l’exemple Allemand de la méthanisation forcée, repose essentiellement sur l’utilisation de cultures énergétiques (dont maïs) pour des raisons de bon fonctionnement d es méthaniseurs, on ne peut qu’être sceptique sur la validité de ce saut d’un facteur 20.
Ceci doit être examiné en parallèle de l’approche Afterre, développée par l’ONG Solagro, qui notamment prévoit la libération de 5 à 8 millions d’hectares de terre, antérieurement destinés à l’alimentaire, pour conversion en biomasse-énergie. On notera notamment la division par 2 de l’alimentation viande et laitage, pour libérer une partie significative de prairies. Mais Negawatt ne pense qu’au bien être et à la santé des français en imposant la division par 2 des nourritures carnées et lactées.

Cette biomasse gaz est destinée en majorité à la mobilité et en partie à la chaleur.
• La biomasse liquide fournirait 3 Mtep (35 TWh), soit sensiblement au même niveau qu’en 2015 (36,2 TWh). Mais, changement, il s’agirait de biocarburants de deuxième génération à partir de matériaux ligno-cellulosiques (paille, bois). Les usages vont vers ceux difficilement convertibles au gaz ou à l’électricité, qui nécessitent des carburants liquides, comme l’aviation. 
• Les déchets ne fourniraient que 0,5 Mtep (5,5 TWh), en forte baisse (13,4 TWh en 2015). Cette baisse serait consécutive à la réduction générale des déchets, sobriété généralisée, effet de la prolongation de vie des matériels…Que de chemins à faire pour les citoyens !
De ceci résulte un très important gaz réseau, de 19,1 Mtep (222 TWh) à répartir entre gaz chauffage et industrie (tous secteurs sauf mobilité) pour 6,8 Mtep et du gaz carburant mobilité pour 12,3 Mtep

Autres sources diverses, solaire et géothermie 
Pour être complet dans  ce tour d’horizon, nous complétons avec deux sources non explicitées ci-dessus :

– Le solaire thermique (eau chaude sanitaire) représenterait 1,6 Mtep (18,8 TWh).

Il représentait 0,1 Mtep (1,3 TWh) en 2015. Il concernerait l’industrie, le résidentiel et le tertiaire
– La géothermie profonde (eau chaude chauffage) représenterait 0,9 Mtep (10,5 TWh) 

Elle comptait pour 0,24 Mtep (2,8 TWh) en 2015.
Nota : La géothermie profonde, destinée au chauffage en réseau, ne doit pas être confondue avec la géothermie de surface (ou géo solaire), et celle aérothermie (air), toutes mises en œuvre en association aux pompes à chaleur (7,36 Mtep, tirés de la nature (environnement) 

Approche économique 



Dans notre conclusion sur l’analyse Négawatt 2011, nous avions regretté l’absence d’analyse financière, comme celle faite pour Negatep, en préparation du DNTE. Ceci nous a conduits à faire, en 2013, la même démarche de comparaison économique Negawatt 2011/Negatep , en 2013. 

Le dossier Négawatt 2017, maintenant répond, à notre interrogation de l’époque, et présente les résultats de l’approche économique qui peuvent se résumer comme suit :

 – «En ce que concernant le seul secteur de l’énergie, la somme annuelle des dépenses « investissement + fonctionnement + importations est du même ordre de grandeur entre le scénario Négawatt et le scénario tendanciel jusqu’à 2025, soit 110 G€ (milliards d’euros) par an. Au-delà le total des dépenses annuelles du scénario Négawatt diminue régulièrement de 110 à 80 G€ / an.

– Les dépenses énergétiques cumulées globales 2015-2050 sont donc de 4200 G€ dans le tendanciel et de 3530 G€ dans le scénario Négawatt. Le solde en faveur de ce dernier est donc de l’ordre de 700 G€. » 

– En cumul et toujours pour le secteur « énergie », le scénario Négawatt mobilise 1160 G€ d’investissements jusqu’en 2050, soit l’équivalent de 6 mois de PIB national actuel, dont 860 G€ dans les renouvelables et 304 G€ dans les réseaux d’énergie et les énergies non renouvelables. Le scénario tendanciel mobilise quant à lui 650 G€.
En donnant l’écart par rapport au scénario tendanciel défini par Negawatt, on devrait trouver ici un début de réponse, qui pourrait s’exprimer en résumant que la sortie commune des combustibles fossiles et du nucléaire, ne coûte rien, mais rapporte même en moyenne 20 G€ par an, en moindre dépenses sur la période 2015 à 2050, par rapport à un scénario tendanciel. Ce serait très notable, les réserves sur l’effort de sobriété demandé à la population, restant toujours présentes. 
Toutefois, un premier examen des premiers résultats lève de sérieux doutes sur la validité de l’approche économique présentée. Un premier exemple : les écarts d’immobilisation entre Negawatt et le tendanciel sont affichés pour 510 G€ (1160 – 650), alors que nous avions estimé, pour la seule rubrique isolation des logements (habitat et tertiaire) un total de 1250 G€, soit plus du double. Si à côté on regarde le coût d’investissement des seuls 77 GWi d’éolien et 136 GWc de photovoltaïque, qui ne devraient pas exister dans le tendanciel, nous arrivons déjà à 1733 G€, sans tout compter, au lieu des483 G€ annoncés. Un facteur 4 incompréhensible.

Nos doutes deviennent réalité, dans ce domaine encore plus que dans d’autres déjà cités, la validité du dossier dans sa partie « Coûts et investissements » est plus que douteuse, et nous la remttons en cause.
En conséquence, dans la continuité de notre approche faite en 2013 évoquée, ci-dessus, nous avons repris indépendamment la comparaison, mais non pas, par rapport au scénario tendanciel actualisé Négawatt (scénario qu’il aurait fallu appeler, improvisé,  adapté), mais par rapport à une référence celle du statu quo, qui se réfère à la situation énergétique actuelle, reproduite telle qu’elle, avec juste + 13 % sur tous les postes, traduisant la simple prise en compte de l’accroissement de population. Ceci s’écarte du vrai scénario tendanciel continuité, accroissement de consommation lié à l’accroissement du PIB, bien loin du scénario tendanciel adapté, sponsorisé Negawatt, en voie vers la décroissance, comme référence, avant d’avoir commencé.

Alors que le scénario référentiel, statu quo, conduit à un cumul des dépenses de 5088 G€ (moyenne 145 G€/an, celui présenté par Négawatt reviendrait à 5684 G€ (162.4 G€/an), soit un écart de 596 G€ (17 G€ de plus par an), soit à l’opposé de l’annonce Negawatt, qui ne présente que des dépenses totales en décroissance année, après année, dès 2027, et chiffrées en baisse de moins de 30 G€ en 2050. 

L’accroissement des dépenses pour notamment améliorer l’efficacité, comme l’isolation des logements, celles pour remplacer le pétrole (pour la mobilité) et le gaz (pour le chauffage), par des renouvelables thermiques et surtout le remplacement de l’électricité nucléaire, par celle des renouvelables, ne s’avère pas contre balancé, par la baisse de la facture d’achat des combustibles fossiles, qui retombe à zéro en 2050. 

On notera en particulier le surcoût imposé par le caractère particulier (variable/intermittent) de l’électricité issue des éoliennes et du photovoltaïque. Ces derniers, avec une puissance installée de 217 GW, peuvent voir la puissance produite varier de 170 GW à 4 GW, imposent de lourdes dépenses pour la seule méthanation (les rendements étant pourtant très surestimés, sans compter le vrai coût des électrolyseurs…).
Par rapport au scénario statu quo, ce sont environ 7500 millions de tonnes de gaz carbonique qui ne sont pas rejetés à l’atmosphère, pendant les 35 ans de la transition. Pour équilibrer le surplus de dépenses, il faudrait l’institution d’une taxe gaz carbonique moyenne de 79 €/tonne, croissante par exemple de 50 à 100 €/tonne. 

Conclusion
Il ressort que la conclusion que nous avions écrite après l’analyse de Negawatt 2011, n’est pas modifiée, elle se trouve même renforcée, avec ce plus d’éolien et de photovoltaïque et par contre coup celui de la méthanation. Compte tenu de cette dernière, faut-il prévoir environ 100 GW d’électrolyseurs, à côté des plus de 240 GW de puissances installées toutes sources confondues ? Que de puissances installées, et donc d’investissements si peu utilisés, du fait de leur faible facteur de charge ! Et d’où vient le gaz carbonique et, à quel coût déjà de pertes énergétique ? 

A première vue séduisant, le scénario Négawatt repose en grande partie sur des hypothèses extrêmement ambitieuses de possibilités de réduction des consommations, sur un rôle considérable accordé au méthane et sur des erreurs d’échelle quant à la possibilité de faire face à l’intermittence de l’éolien et du photovoltaïque.

Les réductions de consommation escomptées dans les principaux postes de consommation, que sont les logements et les transports sont techniquement et financièrement inaccessibles. Elles supposent en outre que de nombreux interdits soient mis en place : interdit d’augmenter les surfaces de logement, alors que les tendances actuelles sont dues en grande partie à la multiplication des familles monoparentales et au vieillissement de la population, interdits sur l’alimentation, interdits sur l’habitat individuel, etc. Les mesures préconisées vont sans doute dans le bon sens, mais, poussées à l’extrême, elles deviennent irréalistes, sans compter que la volonté de les imposer systématiquement ne peut qu’inquiéter.

L’appel massif au méthane, de préférence aux biocarburants pour la mobilité et à l’électricité pour les usages fixes, repose sur des données irréalistes, notamment sur les rendements des opérations, dont celles liées à la méthanation (production d’hydrogène, collecte du gaz carbonique et stockage de ces gaz). Ceci conduit à s’interroger sur les conséquences d’un échec partiel de la démarche : le gaz naturel, en remplacement du méthane synthétique, serait alors la seule voie possible avec, en contre partie, une dépendance accrue vis-à-vis des pays producteurs et, encore plus grave, une augmentation des rejets de CO2.

Et tout ceci repose sur un rejet idéologique du nucléaire, basé sur un argumentaire erroné sur les risques associés aux rayonnements, sur la réalité des conséquences des accidents nucléaires, alors que celui-ci peut être considéré comme la source d’énergie la moins défavorable à la santé, et n’oublions pas, que le pire est le manque d’énergie, indispensable à la santé.
Annexe : Le rejet du nucléaire selon Negawatt
Ce choix zéro nucléaire justifié, en introduction par le « choc Fukushima », vu ci-dessus, est complété dans le dossier dans la même veine par « une réduction du risque d’accident nucléaire », et « en limitant la quantité de matières radioactives qui seront à traiter et stocker par la suite, diminuant ainsi l’ensemble des risques liés à leur traitement »
Sans développer un long argumentaire, sur la réalité des risques liés au nucléaire, nous signalerons déjà que toute source d’énergie présente des avantages et des risques, mais le pire est certainement le manque d’énergie, ce qui ne milite pas en faveur d’une vision forcée vers la restriction, la décroissance, même celle baptisée « heureuse », pour ne pas dire décadente, misérabiliste.

Dans l’application du principe de précaution, il faudrait faire, pour le nucléaire, la balance des aspects positifs et des réserves. Mais certains aspects non jugés positifs, voire négatifs avec réserves sont traités directement d’inacceptables, sans nuance, analyse par Negawatt. Mais l’a priori sortir du nucléaire est dans son ADN, la base de sa vie. 
Parmi les aspects très positifs, apparemment sans contestation possible, on note en premier : la lutte contre l’effet de serre, Ceci vaut de suite la contre réaction, de Négawatt, qui argumente :

 Concernant le premier argument, voici un résumé : « le nucléaire produit effectivement peu de CO2 (4 à 110 gCO2éq/kWh) mais il est peu employé, donc ce n’est pas un moyen efficace de lutter contre le rejet de gaz à effet de serre ». 

Le « donc » fait tomber des nues, lorsque l’on fait la comparaison France / Allemagne. Chaque Allemand rejette 79 % de plus de gaz carbonique qu’un Français. Ce fait incontestable est lié à l’importance relative du nucléaire, dans la production d’électricité entre chacun de ces 2 pays. 

En moyenne on trouve ainsi 70 grammes de rejets de gaz carbonique par kWh d’électricité en France (7 % de l’électricité d’origine fossile) , contre 580 en Allemagne. (53 % d’électricité d’origine fossile). L’Allemagne cité comme modèle avec le développement des renouvelables intermittents, et ayant débuté la sortie du nucléaire, n’a pratiquement pas baissé ses rejets, avec un back up assuré par le charbon. Le seul modèle à ne pas suivre.

En fait, Negawatt, comme le parti politique des Verts, l’ADEME et le lobby des énergies renouvelables, ne cessent d’essayer de contester, depuis toujours le rôle potentiel du nucléaire, pour limiter les rejets de gaz carbonique.
En second point des aspects positifs du nucléaire, on note en général: l’indépendance énergétique. 

Et de suite à l’attaque, Negawatt fait remarquer : 

« De même que plus de 90 % de nos transports dépendent des importations de pétrole, près de 80 % de notre électricité dépend d’importations d’uranium. »

Le nucléaire permet à la France de produire son électricité par ses propres moyens, en toute indépendance par rapport aux marchés extérieurs. Il est vrai que l’uranium, après avoir été extrait à l’étranger est importé. Mais la matière première ne représente qu’environ 3 % du coût du kilowattheure produit. L’essentiel des dépenses soit 97 % reste national, ce qui est loin d’être le cas, pour, par exemple le gaz,  pour lequel plus de 80 % de l’argent va à l’étranger, et le retour en force du gaz est une garantie avec le scénario Negawatt.

Par ailleurs, l’uranium se trouve très réparti dans le monde et non cantonné au Moyen Orient, ou dans l’ex URSS, comme pour le pétrole et le gaz. En outre, la France est associée à la propriété et à l’exploitation d’importants gisements d’uranium dans le monde. Notre pays dispose ainsi d’un «portefeuille» de réserves acquises représentant 35 années de consommation au taux actuel. Mais il faut ajouter, à ce capital librement disponible, les stocks d’uranium constitués, déjà présents sur notre territoire, équivalant à plusieurs années de consommation (de 6 à 8 ans). Cette situation assure à la France une complète maîtrise de son approvisionnement en uranium, à l’abri de toute contrainte extérieure. 

Ceci doit être comparé à notre vulnérabilité en cas de blocage des routes du pétrole, puisque l’on parle de réserves stratégiques de pétrole de quelques mois seulement, mais aussi de l’approvisionnement en gaz, à la merci en partie du bon vouloir de la Russie. D’un côté des mois d’angoisse, de l’autre, des années de sérénité. Negawatt a choisi.
En troisième point de la liste des aspects positifs du nucléaire on trouve : le prix modéré, garanti stable de l’électricité (modéré, pour ne pas dire bas)

Le scénario Negawatt se présente comme « globalement moins coûteux que le scénario tendanciel ». Nous avons émis, déjà, des réserves sur cette affirmation vue dans la globalité des sources d’énergie, mais on peut insister, qu’elle est mal placée, incongrue, quand on se penche spécifiquement sur le vecteur électricité. Il faut rappeler que déjà via la CSPE, nous payons de 5 à 7 milliards d’euros par an, pour soutenir le développement de l’éolien et du photovoltaïque, qui n’assurent que 7.5 % de la production. Cette somme est payée par les consommateurs actuels d’électricité, venant  en majorité du nucléaire. 

Le nucléaire seul subventionne ces sources, qui du fait de leurs variabilités le pénalisent en plus sur son facteur de charge, une double peine. Avec en 2015, 17 GW installés de ces sources d’électricité, nous en avons déjà trop,  et il faudrait les multiplier par 12, pour arriver à 217 GW au total de Negawatt !

Le coût du nucléaire fait l’objet de nombreuses controverses et évaluations. Il faut rappeler le rapport de la Cour des Comptes (Rapport 2013/2014) pour le parc actuel EDF en service, qui donne un coût économique de 59,8 €/MWh, avec la méthode dite « CCE » (coût courant économique). Même s’ils devaient un peu augmenter, dans le futur, avec la suite des EPR, le nucléaire reste la source d’électricité la moins chère en France, pour une électricité, adaptable aux besoins, rien, à voir avec celle produite par les renouvelables intermittents et aléatoires. Une électricité hachée, dépendante de la nature, souvent là quand on n’en a pas besoin, mais à l’inverse absente, lorsque les besoins sont vitaux.

Après avoir évoqué les aspects positifs, il faut traiter des réserves que met en avant Negawatt, pour condamner sans nuance le nucléaire, dès l’introduction : « cruciale après le choc de Fukushima – d’un avenir électrique sans nucléaire », puis en développant  comme : 

« Le scénario Negawatt permet par ailleurs, c’est une évidence, une réduction du risque d’accident nucléaire. Ce qui représente aujourd’hui un risque pour les dizaines de millions de riverains des centrales réparties à travers la France …  La fin progressive de l’utilisation de l’énergie nucléaire permet ainsi de réduire le nombre d’années de fonctionnement de réacteurs, tout en limitant la quantité de matières radioactives qui seront à traiter et stocker par la suite, diminuant ainsi l’ensemble des risques liés à leur traitement.

Par ces textes, très succincts, sont avancés, sans explication, des sentences définitives sur les risques liés aux rayonnements, sur les conséquences des accidents nucléaires et sur les déchets, tous liés par le premier thème: la peur des rayonnements.
La peur des rayonnements

Il faut en premier rappeler la citation : « Toutes les choses sont poison, et rien n’est sans poison, seule la dose fait, qu’une chose n’est pas un poison ». Cette phrase, bien connue prononcée par Paracelse (XV° siècle), de plus en plus d’actualité, s’applique spécifiquement à la radioactivité. Cette radioactivité ne se sent pas, ne se voit pas, et l’invisible fait peur. Pas plus que le monoxyde de carbone, les oxydes d’azote, les micros particules…, la radioactivité ne se perçoit, ne se voit. Mais par contre, elle se mesure très aisément, et le moindre crépitement d’un compteur peut faire peur, le diable en personne. Il suffit pour cela qu’un membre de la CRIRAD ait préréglé, dans la gamme ad hoc, le compteur, pour avoir l’effet garanti, même s’il n’y a rien, sinon un bruit de fond naturel ! En tout lieu, il est possible de faire crépiter un compteur, de préférence en présence d’une caméra de télévision, et en plus en ajoutant un fond sonore, commentaire sinistre, bien sur. 

Avant d’évoquer les risques santé, il faut se référer aux doses naturelles, que nous subissons apparemment sans conséquence sur nos santés. Pour ce, nous nous basons sur le Sievert Sv (et plus couramment sur son millième le mSv), seule unité quantifiée, accessible, qui traduit l’impact éventuel d’un rayonnement sur l’homme.

En France les rayonnements naturels annuels correspondent à des doses moyennes de 2,4 mSv, avec de fortes variations géographiques, pouvant en de vastes régions atteindre 5 mSv, et en quelques lieux spécifiques 25 mSv, certains renommés pour leurs eaux minérales vivifiantes. Dans le monde, de vastes zones peuplées, même surpeuplées comme en Inde au Kerala, des doses moyennes atteignent 50 mSv, et on peut trouver encore plus.

Si des fortes doses sont néfastes, voire mortelles (au delà de quelques Sievert), il peut être considéré que, ce qui est désignée « petites doses »  avec une limite à 100 mSv pour les adultes et 50 mSv pour les enfants, soit sans conséquence pour la santé. Que les marchants de peur cessent de se prononcer pour des doses autour du mSv.

Aucune étude, ni épidémiologique sur l’homme, ni sur les animaux, n’a jamais pu montrer de relation de cause à effet entre les faibles doses et l’apparition de cancers. 
Les accidents nucléaires

On trouve, en tête du dossier Negawatt, évoqué Fukushima (2011), qui seul justifierait la décision de sortir du nucléaire. En ajoutant Three Miles Island (1979), Tchernobyl (1986), on peut faire le tour complet des accidents nucléaires. 

Ces trois accidents ont conduit à des conséquences sur la santé, très diverses et controversées. 

Si le bilan s’écrit de façon sûre, sans contestation, par un zéro conséquence pour le premier aux Etats Unis, il faut insister que ce type de réacteur (PWR), est le plus développé dans le monde (279 en service et environ 50 en construction). C’est le modèle adopté et développé en France, sans le moindre accident depuis 40 ans.

Le bilan, est malheureusement tout autre pour le second Tchernobyl, qui a conduit à de très nombreux morts, dont le nombre fait l’objet de multiples controverse, allant d’environ une centaine, à 4000 cancers mortels à venir dans les 75 ans suivant l’accident. C’est beaucoup, mais ceci se réfère à un modèle de réacteur (RBMK) que nous n’aurions jamais construit en Europe. Mais, même avec quelques milliers, on est loin du million, sans évoquer les 10 millions de morts avancés par Greenpeace et répétés régulièrement par la chaine de télévision franco-allemande, Arte. Mais à force d’asséner des contre-vérités, certaines finissent par marquer ! 

Quant au dernier accident au Japon, sur un modèle de réacteur à eau bouillante (BWR), filière qui n’a pas été sélectionnée en France dans les années 70, en dépit des chiffres avancés par les marchands de peur, les évaluations sont toujours de zéro conséquence liée au rayonnement. Mais il faudra surtout tenir compte des milliers de personnes déplacées, avec les conséquences indirectes sur leurs santés.

Quelles que soient les controverses autour de ces chiffres, nous pouvons affirmer qu’au niveau mondial l’électronucléaire a fait moins de morts en 50 années d’exploitation que les autres grandes sources de production d’électricité n’en font en une seule année. Comparé à ces autres énergies (charbon, gaz, pétrole, hydraulique), le nucléaire s’affirme, sur le plan mondial, comme l’énergie qui provoque le moins d’accidents, et qui entraîne le moins de victimes, comme le montre le récapitulatif ci-dessous, associé à la production d’électricité par TWh produit.

– le charbon 61 morts (278 en Chine, 15 aux USA)

– la biomasse 12

– l’hydraulique 1,4

– le solaire 0,44

– l’éolien 0,15

– le nucléaire 0,04 (dans l’hypothèse pessimiste de la relation linéaire sans seuil (RLSS)
Ces bilans, tant mondiaux, qu’européens ne font que conforter le rapport de l’Académie Française de Médecine, émis lors du débat national sur la transition énergétique, établissant, que de tous les grands moyens de production d’électricité, c’est  « le nucléaire qui a le plus faible impact sur la santé par kilowattheure produit ».
Les déchets 

Negawatt s’exprime en parlant « des matières radioactives qui seront à traiter et stocker par la suite, diminuant ainsi l’ensemble des risques liés à leur traitement »

Au moins Negawatt reconnait que les déchets radioactifs font l’objet de traitement, Ils ne sont pas abandonnés, laissés sans suivi, précaution. Mais on souhaiterait que Negawatt explique quels sont ces risques, alors que les opérations de traitement sont effectuées en France depuis le début du nucléaire, sans rien à signaler, sans la moindre conséquence sur la santé directe pour le personnel professionnel.

Il fallait là aussi introduire la peur, et ceci mérite quelques explications sur la réalité de ces déchets.
Qu’ils aient ou non des centrales nucléaires, tous les pays développés produisent des déchets radioactifs. En France, si les deux tiers proviennent du programme électronucléaire, le reste provient d’autres secteurs, comme celui du médical, ceux de la Défense nationale, de l’industrie, et enfin de laboratoires de recherches, dont l’objectif n’est pas lié à l’industrie électro nucléaire, mais qu’il faut aussi traiter, mais l’industrie nucléaire prends tout en charge. 

La quantité totale de tous les déchets nucléaires est relativement faible. Ils représentent environ 1 kilo par habitant et par an, dont 10 grammes à vies longues et très radioactifs, contre 4000 kg pour les autres déchets, dont 100 kilos de matières toxiques, dangereuses (mercure, plomb, arsenic…)

L’affirmation que « l’on ne sait pas quoi faire des déchets » et qu’ils constitueraient une menace pour la santé des générations futures est fausse, et clairement démentie par la pratique industrielle française sur plusieurs dizaines d’années. En effet, c’est tout à l’honneur de l’industrie nucléaire que, pour la première fois dans l’histoire industrielle, on se soit préoccupé de gérer les déchets produits, dès l’origine, et on l’a fait consciencieusement. 

En France, tous les déchets nucléaires sont conditionnés, entreposés et stockés selon des techniques éprouvées et sûres. Leur gestion assurée par l’Andra (Agence Nationale pour la gestion des Déchets Radioactifs) n’entraîne aucune nuisance significative pour les personnes ou l’environnement. 

Plus de 90 % des déchets nucléaires sont à vie courte et comme la radioactivité diminue naturellement, au bout de 300 ans, ils deviennent assez rapidement inoffensifs. Ils sont stockés dans 3 centres (La Manche, Soulaines, Morvilliers) sans dommage significatif pour l’environnement.

Les déchets à vie longue et de haute activité sont incorporés, dès l’usine de retraitement, dans une matrice de verre qui piège les radioéléments. Ces blocs vitrifiés, dans une enveloppe en acier inoxydable, sont enfermés dans des conteneurs en acier et entreposés en attente dans des puits bétonnés sur le site de l’usine de retraitement. Cette méthode est mise en œuvre depuis 40 ans sans qu’il en résulte une quelconque nuisance, et que trouver de plus stable que le verre, en sachant que les déchets ne sont pas mis en bouteille, mais chimiquement intégrés à vie dans la matrice. 

Si cet entreposage dans des puits bétonnés est gérable, car les volumes sont très réduits, il n’est pas considéré comme durable à l’échelle de plusieurs générations. Du fait de leurs forts niveaux de radioactivité et de leurs durées de vie, la solution de gestion retenue, est le stockage géologique profond Cigeo (Centre industriel de stockage géologique). Cette solution de stockage définitif en couche géologique profonde, toutes études faites, a été décidée avec un centre devant entrer en service en 2025.


NDLR – Non traité et réactions :

1) B.D. : L’occupation de l’espace, qui est une limitation forte, mais qui n’est prise sérieusement en considération dans aucun document, pas plus Négatep que Négawatt. Par contre sur le terrain, on voit se développer fortement en ce moment les associations de défense contre l’éolien.

 Négawatt veut semble-t-il 26 GW d’éolien en mer. Cela représente 52 centrales comme celle qui va  être installé à Saint-Brieuc, au grand dam de beaucoup de riverains, qui ont perdu tous leurs recours, et environ 5 000 km2 d’occupation du domaine maritime dans des zones où il y a déjà de nombreux conflits d’utilisation.

2) P.H.:

Lorsqu’on simule ici la production électrique, il y a toujours un fond et leur consommation électrique est si basse qu’il n’est pas difficile d’éviter le black out.

Pour la même raison , on ne peut pas dire que les réseaux ont besoin d’être renforcés.

Ils ont corrigé l’excès de biomasse, de sorte qu’on ne peut pas leur reprocher d’en exploiter beaucoup trop désormais.

Le solaire est posé suivant plusieurs directions. Mais la simulation des parcs en mer peut poser d’énormes problèmes.

Une des failles repose aussi sur les pompes à chaleur, elles sont aérothermiques, s’ils nont rien mis à côté (cf. http://www.energie-crise.fr/spip.php?article220), ils font sauter le réseau par grand froid.

Et l’aspect économique est également fantaisiste, ils ont annoncés 550 €/m2 pour la rénovation ce qui fait 52 milliards annuels en comparaison des 5 milliards de Macron et de l’isolation diffuse ou des 15 milliards de Bâtiments sans fossiles ou de la FFB.

L’absence de surplus d’énergie pour l’industrie alors que nous avons le record de déficit commercial en Europe est une autre erreur.

Non, grâce à son charbon, l’Allemagne ne risque pas le black-out, contrairement à la France…

encore un article peu rigoureux….

« German Green Party Collapsing In ‘Existential Crisis’ »

By @AndrewCFollett 

http://dailycaller.com/2017/05/15/german-green-party-collapsing-in-existential-crisis/

Il y a quelque temps, à partir de cet article qui parlait d’un épisode tendu d’approvisionnement allemand le 24 janvier 2017
(et lui attribue en plus des conséquences politiques), certains se sont interrogés pour voir s’il existait un rapport officiel allemand sur le sujet.

La réponse dégonfle complètement l’événement « du 24 Janvier » qui apparaît plutôt comme une lutte de communicants aux intérêts contraires, mal interprétée de plus par l’auteur de l’article.

L’article mérite donc un « classement vertical »…
En effet, il est toujours incroyable de voir le nombre de fausses informations et demi-vérités que certains journalistes arrivent à écrire sur une page.   

Les écologistes en Allemagne (Die Grünen) ont perdu des voix lors des 3 dernières élections régionales. Lors de la dernière élection fédérale en 2013, les écologistes ont atteint 8,4 % (63 sièges) et arriveront selon le dernier sondage du 19.5.2017 à 7 %. Qu’ils passent au-desous de la barre des 5 % serait souhaitable mais peu probable. La raison de cette perte de voix n’est certainement pas la situation d’approvisionnement en janvier 2017 mais surtout le fait que les grands partis ont repris les thèmes écologiques dans leurs programmes et que les citoyens n’attribuent pas de compétences particulières aux écologistes concernant les grands thèmes préoccupant les citoyens comme par exemple la sécurité, le terrorisme, les réfugiés, la nouvelle politique des États Unis, l’avenir de l’Europe.
 
Il y a eu cet hiver 2 épisodes avec une production d’EnR intermittentes (éolien, solaire) quasi nulle. La situation se répète, la production d´’EnRi est toujours quasiment inexistante les nuits sans vent, comme chaque fois que l’on passe d’une dépression à un anticyclone, mais grâce au parc conventionnel en back-up l’approvisionnement a toujours été assuré et l’´Allemagne a même exporté de l’électricité dans ces périodes tendues.
  

 

Il n’´existe pas de rapport officiel allemand analysant cet épisode du 24 janvier, peut-être l’agence fédérale de réseau en parlera-t-elle dans son prochain rapport annuel qui sort en octobre/novembre 2017. Mais on ne voit guère, actuellement, en quoi la situation du 24.1. mériterait un rapport spécifique.  
 

Analysons en détail la situation du 24.1. Vers 18 h la consommation était de 74,6 GW et l’exportation 1,1 GW : la production d’ENRi de 1,5 GW (2 % de la consommation), bioénergies 6 GW , STEP/Hydro 6 GW, nucléaire 7,6 GW, le parc conventionnel assurant le reste. Compte tenu du fait que l’Allemagne dispose actuellement d’un parc conventionnel d’environ 95 GW dont 85 GW thermique à flamme  il y avait encore une marge de sécurité.  

On peut vérifier soi-même les données soit sur le site Agora Energiewende soit sur le site Fraunhofer ISE.
 
M. Vassiliadis, chef du syndicat IG Bergbau, Chemie Energie a utilisé la situation d’approvisionnement du 24.1. dans une interview au Handelsblatt en mars 2017 pour mettre en garde contre les exigences démesurées, irréalistes et irréalisables de sortie du charbon d’ici 2025 comme demandé par certains écologistes. (On peut s´’étonner que cette discussion n’est pas entamée en France compte tenu de l’expérience de l’hiver passé : la réduction du nucléaire à 50 % d’ici 2025 est tout aussi irréaliste et irréalisable).
 
Résumé : La situation d´’approvisionnent du 24.1 était marquée par une défaillance des ENRi malgré 90 GW en éolien et solaire installés. Mais grâce au parc conventionnel il n’y avait aucun risque de black-out. L’Allemagne a eu ce jour un solde d’exportation de 1 à 5 GW, vers l’Autriche, la Suisse et temporairement la France (0 à 10 h et 18 à 24h)
 
Concernant la question : « ce qui va arriver aux 6 GW de puissance éolienne mentionnés »,  la phrase  « Germany will ditch 6,000 megawatts of wind power capacity by 2019 » ne repose sur rien.
On soupçonne que ce chiffre de 6 GW pourrait résulter d´’une étude de Deutsche Windguard GmbH de décembre 2016. Les subventions pour 6 000 éoliennes (4,5 GW) se termineront fin 2020 et jusqu’à 2026 s’ajouteront 1 600 éoliennes par an. Compte tenu du prix de l’électricité très bas actuellement sur le marché spot (29 € /MWh en moyenne sur 2016) l’exploitation des éoliennes sans subvention ne serait pas rentable. Il faudrait au moins un prix spot de 35 à 40 €/MWh. Les lobbyistes de l’éolien mettent en garde contre un arrêt de plusieurs GW d’éolien, si le prix spot restait au niveau actuel et réclament – comme on pouvait s’y attendre – l’arrêt des centrales à charbon pour assurer la survie des éoliennes. (La différence entre une énergie fatale et une énergie pilotable ne devrait pas jouer de rôle…. cela n’intéresse personne…)
 

Dans :
« The country’s trendy and ineffective energy policy already forced payments of $548 million last year to switch off wind farms » : le montant de $ 548 million est à peu près correct : 478 millions d´’Euro en 2015, dont 87 % pour l’´écrêtement de l’éolien, 8 % bioénergies et 5 % solaire.
 
« The average German paying 39 cents per kilowatt-hour for electricity » n’est pas exact non plus. Selon les sources officielles c’est 29 cent/kWh. Il s’agit sans doute  d’une faute de frappe ?

Conclusion.

Le solde net allemand était importateur le 24 janvier mais ces importations/exportations allemandes qui sont d’ailleurs fortement corrélées à la production éolienne signifient simplement que l’Allemagne se fournit hors de ses frontières pour profiter des cours les plus bas.
Le 24 janvier, les centrales nucléaires Phillipsburg 2 et Isar 2 (qui n’a redémarré que le surlendemain) étaient à l’arrêt, représentant 2 800 MW indisponibles. Et les 8 GW disponibles étaient donc à presque 100 % de taux de charge.
Charbon et lignite tournaient autour de 80%, mais effectivement, le parc disposait d’une réserve de puissance considérable en gaz, avec 9 GW effectifs sur 29 GW installés…
Et une dizaine de centrales à l’arrêt complet ou quasi complet.
Tous ces éléments sont consultables sur https://www.energy-charts.de/power_inst.htm

A besoins quasi constants depuis notamment 2002, l’Allemagne dispose donc même de 105 GW « pilotables » (ou du moins disponibles) si on compte la biomasse, contre 102 GW en 2002. Il est logique qu’ils puissent faire face à des baisses de vent…
Et juste pour mémoire, c’est le lendemain, 25 janvier que la France serait passée à un cheveu de la rupture d’approvisionnement, selon le communiqué du CCE d’EDF.

Annexe :

Le réseau, lui, est dépendant des voisins, gratuitement pour l’instant…

http://m.faz.net/aktuell/wirtschaft/energiepolitik/deutsches-stromnetz-in-einem-kritischen-zustand-15052863.html

Les errements idéologiques de Greenpeace

Newsletter de :

Ecologie Radicale Information:

(Information de Michel Panet mardi 4 avril 2017, EXPERT du monde arabe)

 

Le 2 juin 2014 j’avais laissé sur ce blog un billet relatant la genèse du mouvement Greenpeace dans le milieu hippy de Vancouver qui avait affrété un bateau pour aller titiller l’armée américaine car le projet d’essais nucléaires souterrains en Alaska leur déplaisait.

 

Depuis, comme chacun sait, Greenpeace est la plus puissante ONG du monde avec un budget de plus de 1,3 milliard de dollars par an (chiffre officiel probablement éloigné de la réalité) et elle continue à pourfendre l’énergie nucléaire sous toutes ses formes plus par idéologie, disons fondatrice, qu’en s’appuyant sur des faits officiels et reconnus pourtant dans le monde entier.

 

L’Agence Internationale de l’Energie (IAE) publie chaque année des statistiques sur la mortalité dans le secteur de la production d’énergie électrique rapportée à 10 TWh (10 000 MWh) et les données sont éloquentes malgré le fait qu’elles englobent les accidents de la centrale nucléaire de Tchernobyl et la rupture du barrage hydroélectrique chinois de Banqiao en 1975. Je rappelle au passage que depuis bientôt 6 ans il n’y a pas encore eu de morts directement répertoriés en raison de radiations à la suite de l’accident de la centrale nucléaire de Fukushima-Daiichi et que l’IAE, s’appuyant sur des données officielles estime que le nombre de morts, essentiellement par cancers, dans la région de Tchernobyl « ne dépassera » pas 9 000.

 

L’IAE cite cette statistique au futur en considérant la probabilité de morts par cancers jusqu’au décès de toutes les personnes ayant été exposées à la contamination radioactive à la suite de l’accident de Tchernobyl provoqué, faut-il le rappeler, par une erreur humaine, comme celui de Three Miles Island d’ailleurs.

 

La rupture du barrage de Banqiao a provoqué la mort de 230 000 personnes et malgré ces deux accidents nucléaires majeurs de Tchernobyl et de Fukushima cette source d’énergie reste la plus sûre avec entre 0,2 et 1,2 morts par TWh produit, y compris les décès dûment attribués à l’accident de Tchernobyl suivie par les centrales électriques au gaz naturel.

 

L’hydroélectrique arrive donc en troisième position et le charbon est la source d’énergie la plus mortelle avec jusqu’à 32,7 morts par TWh, près de 12 fois plus « mortelle » que l’énergie nucléaire.

 

Contrairement à ce qu’affirme Greenpeace l’énergie nucléaire reste donc le moyen de production d’électricité le plus sûr au monde.

Pourquoi un tel débat revient d’actualité alors que les mouvements anti-nucléaire sont plus que jamais actifs en particulier en Europe avec l’abandon programmé de l’énergie nucléaire par l’Allemagne bientôt suivie par la Suisse, tout simplement parce que l’intoxication permanente de Greenpeace a imprégné les esprits du public mais également des décideurs à la merci de politiciens irresponsables ayant adopté les thèses erronées de Greenpeace.

Un autre évènement d’actualité est le risque de rupture du barrage de Oroville en Californie dont le volume d’eau retenu a atteint un niveau record après les dernière pluies abondantes qui ont traversé cet Etat ces dernières semaines. La Californie, pour l’exemple, veut développer les énergies propres et renouvelables et dépend pour un part non négligeable de l’hydroélectricité.

Or l’hydroélectricité, comme je l’ai fait remarquer dans un récent billet constitue la seule technologie de stockage de l’électricité par pompage d’eau au cours des heures dites de consommation creuse ou lors des pics de production induits par les énergies « vertes » intermittentes par définition, éolien et solaire. La polémique est donc relancée en Californie malgré les statistiques publiées par l’IAE.

Il faut rappeler que la rupture du barrage de Banqiao construit en 1952 peut être considérée comme une erreur humaine dans la mesure où la digue était sous-dimensionnée et ne pouvait pas faire face à des pluies inhabituelles comme celles provoquées par le typhon qui s’abattit sur la région en août 1975, de même que le barrage de Oroville n’est pas dimensionné pour supporter des pluies torrentielles comme celles que vient de connaître la Californie où 180 000 personnes viennent d’être évacuées de la région. Qu’a dit Greenpeace à ce sujet ? Rien ! Ce n’est pas du nucléaire donc cette organisation s’en lave les mains et ce qui est encore plus incroyable est que la même organisation, avec son porte-voix en la personne de Corinne Lepage, a décrété que la centrale de Fessenheim était située dans une zone à « haut » risque sismique.

 

En Californie n’y a-t-il pas de risques sismiques majeurs ? Ces fait prouvent bien que Greenpeace surfe sur sa planche idéologique anti-nucléaire surannée, une source d’énergie pourtant la seule pouvant permettre de réduire substantiellement les rejets de gaz carbonique … Vraiment du grand n’importe quoi !

« Pour raison nucléaire garder, vive le DARI ! » par Georges Charpak.

LE MONDE | 02.06.2000 à 00h00 • Mis à jour le 02.06.2000 à 00h00 | Par
PAR GEORGES CHARPAK

Dans un futur qui, à plus ou moins long terme, est menacé du tarissement des ressources énergétiques basées sur le charbon ou le pétrole, il est normal que de grands espoirs aient été fondés sur l’énergie nucléaire. Mais la production massive de corps radioactifs artificiels qui accompagne cette forme d’énergie soulève aujourd’hui des interrogations et des inquiétudes quant aux dangers présentés par l’adoption massive de cette source d’énergie.

Le problème majeur à présent pour l’industrie nucléaire est de montrer qu’elle est capable de gérer, de façon satisfaisante pour les générations à venir, les déchets radioactifs des centrales nucléaires et de maintenir à zéro les risques de catastrophes type Tchernobyl.

Il est essentiel de prendre en compte l’irradiation à laquelle sont soumis les humains, indépendamment de l’énergie nucléaire, et c’est là qu’apparaissent les pièges.

La mesure de la radioactivité est extraordinairement sensible. On peut déceler un atome unique qui se désintègre, alors qu’il faut le poids de millions de milliards d’atomes pour émouvoir la balance la plus sensible. Cette propriété a permis à la radioactivité de féconder des sciences comme la biologie, la médecine, l’archéologie, en les dotant d’outils irremplaçables.

On peut déceler des contaminations radioactives bien plus faibles que celles qui proviennent des corps radioactifs fossiles naturels qui imprègnent notre planète et nos propres tissus, et qui font que nous baignons toujours dans un imperceptible bain de radiations. Cela n’a pas empêché la matière vivante de se développer pendant les trois derniers milliards d’années et cela ne joue aucun rôle sur notre santé.

J’ai conscience de heurter une conviction affichée par les groupes politiques qui se sont donné pour mission l’élimination de l’industrie électronucléaire. Mais la prise de conscience du niveau de radiations incontournable auquel est soumise la race humaine est indispensable pour juger de ce qui relève de la peur superstitieuse, d’une propagande intéressée, ou d’une crainte légitime des incidents ou accidents qui accompagnent l’usage de sources de rayonnements, à usage industriel ou médical.

L’irradiation de notre corps par les éléments radioactifs naturels qui sont présents dans nos tissus me semble un étalon parfait pour apprécier la nuisance de sources radioactives artificielles.

Il est puéril de s’inquiéter de tout événement ou accident qui produit une irradiation inférieure, d’autant plus que, pour un Français, cette irradiation est 10 à 30 fois plus faible que celle qui provient des sources de rayonnements naturels extérieurs à notre corps, principalement des roches, ou des rayons cosmiques qui nous tombent du ciel.

La grande variabilité est d’origine géographique. Elle est due à la répartition très inégale, dans les roches répandues sur la terre, des corps radioactifs fossiles, uranium, thorium ou potassium.

L’extrême prudence qui entoure l’industrie nucléaire a conduit les législateurs à imposer comme limite à l’impact de l’industrie électronucléaire sur les populations le tiers de l’irradiation naturelle en France. Les contaminations radioactives liées à cette industrie, qui sont en moyenne inférieures au centième de l’irradiation naturelle, donnent lieu à des débats parfois difficiles à saisir pour les citoyens. Les raisons en sont multiples : complexité des unités de mesure servant à caractériser l’importance d’une contamination, incertitudes quant aux effets des rayonnements et, enfin, passion politique.

Je propose donc, avec mon collègue Richard L. Garwin, membre de l’Académie des sciences des Etats­ Unis, d’introduire une nouvelle unité d’irradiation qui permettra aisément d’évaluer la gravité de tout incident ou accident donnant lieu à une contamination. Cette unité est le DARI (pour dose annuelle due aux radiations internes). L’irradiation de nos tissus par les corps radioactifs que nous recelons toujours étant en effet l’étalon le plus stable pour les humains.

Ces corps radioactifs sont le potassium 40 et le carbone 14. Le premier est un résidu des fournaises nucléaires stellaires qui ont produit la matière terrestre il y a plus de cinq milliards d’années. Le carbone 14 est produit par des réactions nucléaires induites dans l’air par les rayons cosmiques. Ceux­ci arrosent la terre et proviennent surtout des réactions nucléaires produites en haute atmosphère par des protons énergiques venant de la galaxie. Leur intensité croît avec l’altitude. Ils provoquent dans l’air la transmutation de l’azote en un carbone radioactif, le carbone 14, dont la vie moyenne est de cinq mille ans et qui se présente sous forme de gaz carbonique. En raison des échanges avec les êtres vivants, il imprègne les tissus corporels. C’est, avec le potassium 40, l’acteur principal de l’irradiation interne.

Pour un être humain de 70 kilos, il contribue à 4 000 désintégrations par seconde, soit 4 000 becquerels, ce qui donne avec le potassium un total de 10 000 becquerels. Mais en raison des particularités des rayonnements qu’il émet, il contribue dix fois moins à l’irradiation des tissus que le potassium.

La signification du becquerel est simple : il s’agit de l’activité d’une source dont un atome se désintègre par seconde. Nous pouvons donc l’utiliser en ayant conscience qu’il s’agit d’une radioactivité extraordinairement faible. Mais nous pouvons ignorer toutes les autres unités communément utilisées, incompréhensibles pour les non­spécialistes. Qui est familier avec le sievert, irradiation déposant 1 joule par kilogramme de tissus, pondérée par un coefficient tenant compte de la nature du rayonnement et de l’organe irradié ? Le tableau ci­dessus montre l’importance relative de quelques sources d’irradiation.

Méfions-­nous des chiffres ! Un bain dans de l’eau à 30 degrés est agréable. Un bain dans de l’eau à 90 degrés est mortel. L’effet d’une augmentation de température de 1 millième de degré est négligeable, que ce soit à 30 degrés ou à 90 degrés. Certains veulent nous terroriser en matière d’irradiation, avec l’équivalent d’une augmentation de température de 1 millième de degré !

Comparer les effets d’un incident de contamination avec ceux des corps radioactifs naturels que nous portons permet de savoir s’il a un effet significatif ou de sourire si une propagande prétend l’amplifier de façon exagérée.

Si nous devions prêter attention aux dangers dus aux radiations naturelles et étendre cette attention craintive à toutes les sources de danger de même niveau, nous paralyserions la plus grande partie de l’activité humaine.

Il faudrait raser les murs, en évitant les bordures de trottoir en granite qui sont plus radioactives que le sol de La Hague ! Il faudrait éviter les séjours prolongés en montagne, en raison des rayons cosmiques dont l’intensité croît avec l’altitude ! Il faudrait chasser de nos maisons les fumeurs, même occasionnels. Il ne faudrait surtout pas vivre dans des villes où les particules sortant des pots d’échappement massacrent, en raison de leur effet cancérigène, des milliers de personnes par an ! Or, en 2050, les deux tiers des habitants de la planète vivront dans les villes.

J’ai été frappé par la dénonciation bruyante de la radioactivité contenue dans la laine de verre produite par une nouvelle usine de Saint­Gobain, dont le niveau de radioactivité naturel provoquait une irradiation qui se situait justement au niveau du centième de DARI. La récente découverte de la radioactivité des sables d’une plage de la Méditerranée, l’Espiguette au Grau­du￾Roi, a tourné à la farce lorsqu’il est apparu que l’activité était due au sable apporté par le vent. La découverte de la même intensité radioactive artificielle aurait entraîné une panique soigneusement orchestrée et la ruine de la station balnéaire.

L’adoption du DARI éliminerait totalement les problèmes nés d’incidents surmédiatisés, sans proportion avec leur impact réel sur la santé publique.

PAR GEORGES CHARPAK

Le nucléaire = 20% de l’énergie finale. Combien de GW pour 50% d’énergie finale ? 150 GW ? Non 90 GW !

Explications.

Si on prend  la part d’énergie utile, par exemple le nombre de passager par km et de tonnes transporté par km, assurée par les trains électrifiés, les métro, les tramways, on trouve 4 à 6 % pour 1 % d’énergie finale… Cherchez l’erreur ?

Confirmation de cette illusion d’optique : l’électricité assure 50 % de l’ECS (Eau Chaude Sanitaire), 30% du chauffage, une partie de la cuisson…Et il faut rajouter le soupçon de conversion de l’électricité spécifique en chaleur dans un pays où on chauffe les logements plus de 6 mois par an L’utilisation de l’énergie finale qui pose l’équivalence entre travail et chaleur est une hérésie. En énergie primaire ou en énergie utile, le nucléaire c’est approximativement 1/3, on ajoute ensuite biomasse-hydraulique soit 1/6 et enfin 1/2 d’énergies fossiles ce qui donne 1.

Utiliser la formule « 20% » d’énergie finale est trompeur, car on pense alors qu’il faut multiplier par 5 le parc nucléaire pour sortir des fossiles, alors qu’il ne faut même pas multiplier sa production par 2 (900 TWh) et sa puissance par 1,5 (90 GW). Soyons tous d’accord sur cet objectif ?

Lorsque nous utilisons des proportions, il faut s’astreindre à des équivalences chaleur-énergie qui ne soient pas de 1, même pour le chauffage à effet Joule.

Dire qu’il faut se débarrasser de 50% d’énergie fossile ou de 80% ne change pas beaucoup l’ampleur du défi, dans la communication.

Alors que multiplier par 1,5, ce n’est pas la même chose que de multiplier par 5 pour aboutir à la solution.

 

Le défi est grand mais la solution facile. Qui le sait ? Disons-le !

 

PH-JPB

 

Pour en savoir plus :

http://energie-crise.fr/spip.php?article68

 

Plafonner ou diminuer le nucléaire ? Il est urgent d’attendre…

En réaction à l’article du Monde :

Hollande et le nucléaire : le changement, mais pas maintenant

Réponse d’un lecteur :

L’écologie ne se résume pas à l’arrêt ou à la diminution drastique du nucléaire comme le laissent entendre tous les antinucléaires de Yannick Jadot à Corinne Lepage.

Naïvement, je pensais que l’effort principal devait porter sur les énergies décarbonées pour éviter le risque de réchauffement climatique.
Mais les efforts de Hollande et de Ségolène ont surtout porté sur la limitation du nucléaire au moyen du plafond de 63,2 GW de puissance installée (c’est précis!!) et de la RT 2012 qui interdit en pratique l’usage du chauffe-eau électrique (50 kWh par an et par m2). On peut qualifier toutes ces mesures de déclinistes !
Un surplus d’énergie décarbonée nucléaire ne me semble pas néfaste (cet hiver il a bien été utile), ni contribuer, comme vous l’écrivez, à renforcer un tabou. En outre,comme le déclarait Michel Lavérie, ancien directeur de l’ASN, un surplus de centrales rend plus facile une décision d’arrêt.
L’augmentation de la capacité du photovoltaïque et de l’éolien est une bonne chose sous réserve de leur compétivité (non biaisée par des subventions excessives) et des progrés techniques et économiques à réaliser pour le stockage nécessité par leur caractère intermittent.
Donc,aller doucement, sans déclarations péremptoires,de façon pragmatique me semble frappé au coin du bon sens.L’ancien gouvernement a fait un « deal  » malheureux avec les antinucléaires, car idéologique et aurait mieux fait de s’attaquer plus tôt au diesel [ancien] qui provoque des décés certains et non des risques hypothétiques.
Comme l’écrit Michel Onfray, si le nucléaire est le projet de « l’hyper technophilie du siècle passé » et l’outil de la société de consommation, il reste, à moins d’un changement de société majeur, INCONTOURNABLE.


Sans doute votre article incite-t-il à un changement rapide de société ? Pour ma part je pense qu’il faut prendre le temps et j’espère que le nouveau gouvernement le prendra.
Salutations