​Analyse de Negawatt version 2017 – par CA-HP

L’objectif du scénario de Negawatt est de réussir à ne faire appel  ni à l’énergie nucléaire, ni à l’énergie fossile, pour répondre aux besoins de consommation.

 C’est une gageure et l’exercice est intéressant. Mais l’association Négawatt se plaît à présenter ce scénario comme quelque chose de réalisable, ce qui peut être contesté.

Nous avions en 2011, fait une analyse détaillée du scénario Négawatt 2011 (NgW11) . .

Pour arriver à 100 % renouvelables, dans la lignée de l’approche récente de l’ADEME, avec le même intitulé du 100 % renouvelables, mais sur la seule électricité, Negawatt sort sa version 2017 (NgW17)

Les changements  2017/2011 reposent déjà sur une baisse accrue de la consommation, qui passe de – 53 % à – 56 %, amplifiant l’importance de la sobriété. 

Ces changements 2017/2011 concernent surtout  un fort accroissement de + 28 % des sources d’électricité renouvelables NRi (sources variables, intermittentes), qui passent de 284 TWh à 394 TWh (rappel 24 TWh en 2014). Ceci conduit, pour prendre en compte la variabilité, à renforcer le power to gaz et la méthanation, multipliée par un facteur proche de 3, accentuant les questions déjà posées sur la version 2011, autour des électrolyseurs, de l’origine du gaz carbonique et de façon générale les rendements et pertes, qui sont, quel que soit le domaine, sous estimés.

On notera enfin un changement fondamental, avec l’appel clair et significatif aux pompes à chaleur. Certains watts honnis en 2011 redeviennent acceptables, on retrouve ici la même démarche que celle de l’ADEME, qui a, en quelques années, effacé son affichage du non aux pompes à chaleur, trop assimilable à l’électricité nucléaire. 

La consommation d’énergie
:

De 2015 à 2050, selon ce scénario, la consommation d’énergie est divisée par plus de deux. Cette hypothèse a acquis ses lettres de noblesse depuis que la LTE, loi sur la transition énergétique, en a fait un objectif. On peut juger qu’elle n’en demeure pas moins illusoire.

Nota : 

– La majorité des données affichées dans ce document sont issues de schémas de Sankey exprimés en TWh. Négawatt indique toutes les quantités d’énergie en TWh (térawatt.heure), qu’elles soient thermiques ou électriques. Nous les traduisons ici en Tep (tonnes d’équivalent pétrole (1 tep vaut 11,6 TWh), sauf pour l’électricité où l’on utilise les TWh pour les quantités et les GW pour les puissances.

– La lecture conjointe du texte et du schéma Sankey 2050 révèle quelques incohérences. Quelques unes relevées sont listées en Annexe, Poste par poste celles-ci portent sur 10 à 20 % des données, toutes, de même que les rendements, allant toujours dans le bon sens pour la démonstration, visant la sortie du nucléaire. Comme elles ne remettent pas fortement en cause les principales conclusions, nous ne les prendrons pas en compte, 
La consommation totale d’énergie de Negawatt 2017 (NgW17 passe de 157 Mtep (en 2015) à 69 Mtep en 2050, soit – 56 % au total et ainsi, – 60 % par habitant. Elle était de 74 Mtep pour NgW11. On va encore plus loin dans la sobriété/efficacité.
Les usages se répartissent 

– en chaleur pour 33 Mtep

– en mobilité pour 21.6 Mtep

– en électricité spécifique pour 14.9 Mtep (172.8 TWh)
Par secteur de consommation, ces usages se répartissent 

– Résidentiel et tertiaire 29. Mtep

– Transports 19.4 Mtep

– Industrie 15.8 Mtep

– Agriculture 4.9 Mtep
Pour montrer l’origine de ces gains, NgW17 présente la répartition de ceux ci par rapport à ce qui est défini comme un scénario tendanciel, mesuré en énergie primaire. 

Au niveau de l’énergie primaire, la production tendancielle selon le scénario, serait en baisse de 23 % par rapport au niveau 2015, ce qui peut déjà surprendre, puisque du seul fait de l’accroissement de population on pourrait au moins trouver + 11 %

La sobriété représenterait un gain de 17 % et l’efficacité un gain de 27 %. Les 33 % restants à produire en énergie primaire de 74.6 Mtep (1004 TWh) se répartiraient entre 

– 40 Mtep (462 TWh) de renouvelables électriques

– 36 Mtep en biomasse (418 TWh)

– 10.4 Mtep en autres renouvelables (121 TWh)

– 0.26 Mtep en gaz fossile (3 TWh)
Consommation par le secteur résidentiel et tertiaire

Selon le scénario NgW17, dans le résidentiel et le tertiaire, la consommation totale est de 29.4 Mtep. 

La consommation pour les seuls usages thermiques est de 25.1 Mtep. Ils sont actuellement de 54.5  Mtep, ce qui suppose une baisse de 46 %, soit plus qu’un facteur 2 par habitant

Le scénario prévoit un accroissement de surfaces, par exemple + 12 % pour le résidentiel (passage de 2 500 à 3 000 Mm²). Cet accroissement est cohérent avec l’accroissement de population. Il est plus cohérent que NgW11, qui ne prévoyait que + 170 Mm² dans le tertiaire et une stabilisation dans le résidentiel. Ne semblent plus mis en avant comme dans la version NgW11, les impératifs de se « serrer un peu » dans les logements, mettant l’accent sur la cohabitation (plus ou moins forcée), le partage des logements comme ceux des personnes âgées vivant seules… 

 Ceci conduit à avoir un gain sur les postes sobriété (baisse des températures de vie, de l’ordre d’au moins 2 °C) et poste efficacité avec isolation d’un facteur 2 (en tep/ m²). Pour ce, il faut  retenir un volume annuel des travaux à 780 000 logements et 3,5 % environ des surfaces tertiaires
Parmi les sources d’énergie, les pompes à chaleur sont mises en avant. Ceci n’était pas prévu dans NgW11. Mais à l’époque dans la mouvance anti nucléaire, comme à l’ADEME, les pompes à chaleur étaient exclues du langage, car qui disait pompe à chaleur sous entendait électricité nucléaire. Absolument à proscrire à l’époque. Les choses ont changé, notamment à l’ADEME depuis quelques années, et ainsi il est cité dans NgW17, ce qui traduit une évolution idéologique : « une place privilégiée aux pompes à chaleur performantes, principalement électriques, qui disposent d’atouts indéniables en termes d’efficacité et de flexibilité ».

Les pompes à chaleur représentent 50 % du chauffage résidentiel et 35 % du chauffage tertiaire, soit environ 11 Mtep. Sur la base d’un COP moyen de 3 ceci donnerait 7.36 Mtep, tirés de la nature (environnement) et 3.7 Mtep à partir d’électricité (42.7 TWh) 
L’électricité directe étant pratiquement ramenée à zéro (environ 0.5 Mtep), les autres sources d’énergie pour la chaleur de l’ensemble résidentiel et tertiaire  sont :

– la biomasse pour environ 6 Mtep (30 % du résidentiel et 15 % du tertiaire)

-, un ensemble appelé « réseau de chaleur » environ 4 Mtep passant par les réseaux de chaleur (8 % du résidentiel et 30 % du  tertiaire.

– gaz pour 4 Mtep en provenance de biogaz et en partie produit par méthanation (une réaction de l’hydrogène d’électrolyse et gaz carbonique).

Consommation dans le secteur du transport

La consommation totale pour les transports serait de 21.64 Mtep (11.2 pour les personnes, 8.2 pour les marchandises et 2.2 pour l’agriculture). 

Ceci représente une baisse de 57 % par apport à 2015, à répartir entre sobriété et efficacité. 
Pour les transports, le premier poste en énergie finale est le gaz dit réseau (origine biogaz ou gazéification à partir de biomasse solide ou méthane issue de méthanation) pour 13.8 Mtep, puis l’électricité pour 3 Mtep (36 TWh) et enfin les combustibles liquides pour 3 Mtep.
La sobriété représente à elle seule un gain de 23 Mtep, soit 45 % de la consommation actuelle. Le dossier de synthèse prévoit une légère baisse de 15 % de la mobilité des personnes mesurée en km/hab.an (17 200 actuellement). La place de la voiture (actuellement 71 % de la mobilité des personnes) est ramenée à 49 % y compris le mode dit partagé. La part des transports en commun, a priori plus sobre est accentuée, multipliée par 1.75, mais ceci reste limité

Il est prévu pour les transports de marchandises mesurés en Gt.km (actuellement 300), une baisse de 17 %. 

Il faut introduire dans la rubrique sobriété, la très forte croissance de la part d’électricité dans les transports, passant d’environ 1 Mtep en 2015, à 3 Mtep (35.5 TWh) en 2050. 

Il est connu que le rendement pour passer en énergie utile est de l’ordre d’un facteur 3 du moteur électrique au moteur thermique. Ces 3 Mtep d’électricité seraient l’équivalent de 9 Mtep de combustibles fossiles et il y aurait ainsi un gain de 6 Mtep en énergie finale. Il faudrait donc que le gain en efficacité des moteurs thermiques soit de 40 %, par rapport à 2015.

Consommation dans le secteur de l’industrie 

L’industrie passe de 33 Mtep  (387 TWh à 15.8 Mtep (183 TWh) soit une baisse de 53 %),

 L’électricité représente 72.8 TWh et la chaleur 9.5 Mtep (110 TWh) 

La chaleur vient essentiellement :

– de la biomasse solide 4.6 Mtep, 

– de l’environnement 1.8 Mtep (Pompes à chaleur) 

– du solaire thermique 0.9 Mtep, 

– gaz issu de la méthanation : 0.6 Mtep, et enfin un peu de liquide ou gaz biomasse

C’est le seul secteur de consommation qui garde un résidu de fossiles, sous forme de pétrole : 0.25 Mtep

Consommation dans le secteur de l’agriculture

Le secteur de l’agriculture bouge très peu sous l’aspect consommation énergétique. Il passe de 5.7 à 4.1 Mtep soit une baisse de 28 %, soit beaucoup moins que la moyenne de 56 %.

La part électricité augmente, en passant de 11.2 à 15 TWh (1.3 Mtep) 

Un zoom sur l’électricité 

De la production à la consommation finale d’électricité
La production  d’électricité 462 TWh, vient de :

– Eolien 77 GWi pour produire 247 TWh, soit une durée moyenne de 3207 heures par an

Nota : bilan difficile à accepter, car en prenant pour les 49 GW de terrestre et 2500 heures par an, il faudrait arriver à 4446 heures par an pour l’offshore. 

– Photovoltaïque 140 GWc pour produire 147 TWh, 

– Hydraulique terre 54 TWh, en partant des 21 GWi actuels (dont 2.5 de STEP mixte) plus 1.9 GWi de STEP pur  

– Hydraulique mer 14 TWh, avec en hypothèse un facteur de charge 38 % : 4.2 GWi de puissance
Nota : 

Le dossier donne des indications précises sur la capacité d’éoliennes (78 GW, dont les deux tiers à terre, et un tiers au large) et de panneaux photovoltaïque, PV (140 GW). La production d’électricité par les éoliennes (250 TWh) suppose que le coefficient de charge soit de 36 %. Aujourd’hui il est de 20 % pour les éoliennes à terre et entre 25 et 30 % pour les éoliennes en mer. Le coefficient de charge du PV est très légèrement supérieur à ce que l’on observe aujourd’hui.
De cette production primaire de 462 TWh, sont rajoutés 53.7 TWh venant des postes cogénération chaleur de tous les secteurs, soit un total de 516 TWh en production

Ce dernier chiffre pourrait faire penser qu’en valeur absolue, la place de l’électricité n’a pas beaucoup changé par rapport à aujourd’hui (environ 540 TWh produits et environ 40 TWh du bilan export/import. 

Mais ceci change fortement si on suit le chemin vers la consommation et en premier les pertes associées à la prise en compte de la variabilité des renouvelables intermittents, essentiellement les 181 TWh soutirés à destination de la méthanation, pour faire face aux surproductions momentanées des ENRi (éolien et photovoltaïque)
Ceci donnerait un bilan intermédiaire de 335 TWh. Pour arriver à la consommation finale, il faut prendre en compte :

– les 6 TWh, du bilan net du passage par les STEP (rendement optimiste de 80 %) 

– les 31.6 TWh d’alimentation du secteur spécifique énergie

– les 6.5 TWh de pertes en lignes 
Nota : 

Avec 6.5 Twh annoncés de pertes en ligne, soit entre 1 et 2 % de l’énergie transportée, ce chiffre est particulièrement faible, il devrait être au voisinage de 7 %. Mais il en est ainsi de toutes les évaluations de pertes sous estimées dans le scénario Negawatt que ce soit celui 2011 ou celui 2017.
Ceci conduit à un bilan de 291 TWh. 

Comme la distribution nette est de 272.2 TWh 

– 72.8 industrie (en spécifique)

– 74.7 résidentiel (36.4 en spécifique et  38.3 en chauffage)

– 73.6 tertiaire, (48.5 en spécifique et 25 en chauffage)

– 27.9 mobilité, 

– 23.2 agriculture (15 en spécifique) 

Il y aurait dans ce remontage un surplus de 19 TWh, exactement celui indiqué comme excédant électrique ;

 

La variabilité  de l’éolien et du photovoltaïque

Généralités

L’électricité, simple vecteur énergétique, n’est pas directement stockable. Il faut à chaque instant ajuster la production aux besoins. Ces besoins sont déjà, en moyennes énergies intégrées sur plusieurs semaines, très variables au cours de l’année, mais il y a le temps de se préparer pour faire face à ces variations globales. Par contre ces besoins sont encore plus variables, mais ici en valeur instantanée de puissance au cours d’une simple journée et il faut réagir en continu et sans rupture, à la minute près, voire même à la seconde près.

Si on peut agir en partie sur la consommation, il appartient à l’ensemble des sources de production de s’adapter. Toutes les sources d’électricité, qui peuvent ajuster leurs puissances, assurent ainsi, à ce jour, en permanence de façon quasi satisfaisante, même si pas toujours parfaite, l’équilibre entre la consommation et la production. Ainsi agissent l’hydraulique, les centrales à combustibles fossiles et le nucléaire.

Mais, l’arrivée de nouveaux systèmes productifs renouvelables, dont l’éolien et le photovoltaïque, avec des puissances de déversements sur le réseau très variables et en partie aléatoires, va accentuer le besoin de modulation des autres producteurs, sauf si des techniques de stockage d’électricité, à ce jour quasiment limitées aux seules STEP, ne prennent le relais.

 Sauf en agissant fortement quasiment en continu sur la consommation, Il faut que le réseau soit équipé en puissances installées de réserves, prêtes à démarrer ou a changer de régime en fonction de la production des éoliennes (et  donc des fluctuations des vents) et de la course du soleil, elle assez bien prévisible. 

La situation dans Negawatt 2017

Le dossier de synthèse indique que les moyens de flexibilité aujourd’hui disponibles (hydraulique de barrage, stations de pompage-turbinage, centrales thermiques d’appoint, effacement des industries électro-intensives, importations, …) sont largement suffisants pour faire face à une augmentation sensible de la contribution de ces deux filières.

Il est reconnu, que lorsqu’elles atteindront des taux élevés de pénétration, il sera nécessaire de disposer de davantage de moyens de stockage permettant de déplacer dans le temps des quantités d’énergie importantes, citant les volants d’inertie pour des temps courts, le power to gas pour le stockage inter saisonnier, en passant par les batteries, l’air comprimé… 
En arrivant à une puissance totale installée de 217 GW de puissance variable, il est clair que nous sommes sortis de la gamme d’augmentation sensible. C’est presque le double de la situation actuelle de puissances installées de toutes les sources en France.

Il nous reste à croire en l’affirmation de Negawatt que l’équilibre entre la production et la consommation d ‘électricité est assuré sur une base horaire. 

Mais là-dessus, au même titre que la présentation par l’ADEME du scénario 100 % renouvelables électriques, nous sommes rêveurs et plus qu’incrédules, comme le montre le tour d’horizon ci-dessous.
Pour l’éolien, sur l’ensemble de la France on retient qu’en limite, la puissance totale ne sera jamais atteinte et que de l’autre côté il y aura toujours quelque part un peu de vent. 

Ainsi, en fait la puissance instantanée peut varier de 54 GW à 4 GW (période anticyclonique, très peu de vent, pouvant affecter quelques jours), avec de grandes variabilités, aucune régularité à prévoir sur quelques jours
Pour le photovoltaïque, il y a moins d’incertitudes, la puissance maximale sans jamais atteindre la puissance de crête en totalité peut s‘en approcher par exemple 110 GW, mais une certitude pour la majorité du temps ce sera zéro, en particulier lors des pics de consommation le soir, soit une plage de 110 à 0 GW. 
Globalement ces deux sources qui ensemble constituent l’essentiel de la production peuvent voir leur puissance passer de 164 GW (milieu de journée, par période de fort vent) à 4 GW en fin de journée. Dans un cas 50 GW au dessus des besoins moyens de production, et dans l’autre 50 GW en dessous ;

– Pour ces derniers l’hydraulique ne peut au maximum, STEP comprises, qu’en produire environ, moins de 20 GW. C’est le black out, hors importation, la pénurie forcée. Mais les liaisons avec nos voisins sont encore limitées et surtout ceux-ci peuvent aussi être en manque simultanément. Il faut dire et redire que la fausse idée du foisonnement européen, longtemps soutenue par les tenants des renouvelables électriques a été démystifiée. En période anticyclonique toute l’Europe est affectée.

– Lorsqu’il y a surproduction, par exemple de 50 GW, la solution du « méthane de synthèse (power-to-gas) est présentée par Negawatt, « comme l’une des clés de voûte du système énergétique de 2050 ».

Cette voie représente 181 TWh, (soit 46 % de l’énergie totale solaire et éolien (soit presque la moitié) détournés du cycle direct vers la consommation, pour alimenter des électrolyseurs. Ceux-ci sont affectés d’un rendement de 78 % (pertes 39.8 TWh). Hypothèse très optimiste pour des électrolyseurs à charge constante, ce qui ne sera certainement pas le cas avec les grandes variations de productions. Faut-il une puissance installée d’environ 40 GW d’électrolyseurs ? 

Mais rien ne dit clairement d’où vient le gaz carbonique. Il est suggéré que ceci vient de sources biomasses, les pertes de 47 TWh, venant s’ajouter aux 39.8 TWh électrolyseurs recouvrent elles les énergies pour séparer le gaz carbonique, de l’azote, le transporter…Encore de nombreux doutes…

On peut alors se référer au scénario élaboré par l’ADEME qui suppose que l’électricité est produite seulement avec des énergies renouvelables. 

Un zoom sur la biomasse

En énergie primaire, le total en incluant les déchets, passe de 16.7 Mtep en 2015, à 36.5 Mtep en 2050. Ces derniers se répartissent en

– biomasse solide 21.5 (12 en 2015, soit presque un doublement, vers usage solide ou gaz de méthanisation)

– liquides 3 Mtep, sensiblement le même chiffre absolu (culture génération 1 ou 2 ?)

– gaz 11.6 Mtep (0.5 en 2015, soit 20 fois plus)

– déchets 0.5 Mtep (1.1 en 2015, forte réduction des déchets de façon générale, sobriété généralisée, effet  de la prolongation de vie des matériels…
Nota ; Il n’y a pratiquement pas de changement par rapport à la version 2011, qui globalement donnait 38.9 Mtep
La biomasse d’origine solide restera sous cette forme pour 11.5 Mtep, le reste étant destiné à la gazéification pour alimenter conjointement à la biomasse gaz d’origine et au méthane issu de la méthanisation.

Le tout  constituera la base du gaz réseau pour 19.1 Mtep, réparti entre du gaz chauffage (tous secteurs sauf mobilité) pour 6.8 Mtep et du gaz carburant mobilité pour 12.3 Mtep

Autres sources diverses, solaire et géothermie 

Pour être complet dans  ce tour d’horizon,  citons ces deux sources non explicitées ci-dessus
– Le solaire thermique (eau chaude sanitaire) représente 1.6 Mtep.

Il représentait 0.1 Mtep en 2015. Il concernera l’industrie, le résidentiel et le tertiaire
– La géothermie profonde (eau chaude chauffage) représente 0.9 Mtep

Elle représentait 0.2 Mtep en 2015, à ne pas confondre avec la géothermie de surface (ou géo solaire), mis en œuvre en association aux pompes à chaleur.

Approche économique 
Dans notre conclusion sur l’analyse Négawatt 2011, nous avions regretté l’absence d’analyse financière, comme celle faite pour Negatep ,  en préparation du DNTE. Ceci nous a conduits à faire la même chose sur Negawatt 2011 et Negatep, en 2013. 

Dans tous les cas, comme la question posée, n’était pas d’obtenir un coût dans l’absolu, mais de relativiser le coût de la transition énergétique, par rapport à un scénario dans une optique de croissance et un autre appelé statu quo (on en reste à la situation globale actuelle, indépendamment de l’accroissement de population, par exemple idem consommation fossiles…). 

En conclusion par rapport au statu quo la transition énergétique visant à réduire les rejets de gaz carbonique a un surcoût relatif (tant qu’il n’y aura pas un coût affecté au gaz carbonique rejeté et que les combustibles fossiles ne voient pas leurs coûts s’envoler). 

Ce surcoût s’élève à 36 G€/an pour Negawatt 2011 et à 29 G€/an pour Négatep, (une moyenne à étaler sur une durée de 40 ans) Ceci traduit un faible écart entre les 2 scénarios de 7 G€/an soit au total de 280 G€, sur toute la période la transition

Sans reprendre l’étude précédente et en faisant une correction  simplifiée en extrapolant à Négawatt 2017, notamment en prenant en compte l’accroissement de l’importance de l’éolien et du photovoltaïque (+ 38 % en énergie), mais surtout du facteur proche de 3 pour l’ensemble méthanation, nous arrivons à un surcout de 72 G€/:an pour Negawatt 2017. Le passage de Negawatt 2011 à celui 2017 ne pouvait que coûter plus cher.
Depuis, Négawatt 2017 présente les résultats de l’approche économique qui peut se résumer :

 – «en ce que concernant le seul secteur de l’énergie, la somme annuelle des dépenses « investissement + fonctionnement + importations est du même ordre de grandeur entre le scénario Négawatt et le scénario tendanciel jusqu’à 2025, soit 110 G€ (milliards d’euros) par an. Au-delà le total des dépenses annuelles du scénario Négawatt diminue régulièrement de 110 à 80 G€ / an.

– Les dépenses énergétiques cumulées globales 2015-2050 sont donc de 4 200 G€ dans le tendanciel et de 3 530 G€ dans le scénario Négawatt. Le solde en faveur de ce dernier est donc de l’ordre de 700 G€. » 

Il est intéressant de faire une comparaison à une référence, mais comme nous avons eu l’occasion de l’évoquer plus haut, en évoquant les efforts de sobriété et d’efficacité, ce scénario dit de référence est un soi disant tendanciel, mais qui se place déjà dans un cadre de décroissance.

N’ayant aucune information détaillée sur les couts de base élémentaires utilisés dans cette étude économique, nous ne pouvons nous prononcer.

Conclusion

Il ressort que la conclusion que nous avions écrite après l’analyse de Negawatt 2011, n’est pas modifiée, elle se trouve même renforcée, avec ce plus d’éolien et de photovoltaïque et par contre coup celui de la méthanation. Faut-il prévoir 40 GW d’électrolyseurs ? Et d’où vient le gaz carbonique et, à quel coût déjà énergétique ? 

A première vue séduisant, le scénario Négawatt repose en grande partie sur des hypothèses extrêmement ambitieuses de possibilités de réduction des consommations, sur un rôle considérable accordé au méthane et sur des erreurs d’échelle quant à la possibilité de faire face à l’intermittence de l’éolien et du photovoltaïque.

Les réductions de consommation escomptées dans les principaux postes de consommation, que sont les logements et les transports sont techniquement et financièrement inaccessibles. Elles supposent en outre que de nombreux interdits soient mis en place : interdit d’augmenter les surfaces de logement, alors que les tendances actuelles sont dues en grande partie à la multiplication des familles monoparentales et au vieillissement de la population ; interdits sur l’alimentation ; interdits sur l’habitat individuel, etc. Les mesures préconisées vont sans doute dans le bon sens, mais poussées à l’extrême elles deviennent irréalistes, sans compter que la volonté de les imposer systématiquement ne peut qu’inquiéter.

L’appel massif au méthane, de préférence aux biocarburants pour la mobilité et à l’électricité pour les usages fixes, repose sur des données irréalistes, notamment sur les rendements des opérations, dont celles liées à la méthanation (production d’hydrogène, collecte du gaz carbonique et stockage de ces gaz). Ceci conduit à s’interroger sur les conséquences d’un échec partiel de la démarche : le gaz naturel, en remplacement du méthane synthétique, serait alors la seule voie possible avec, en contre partie, une dépendance accrue vis-à-vis des pays producteurs et, encore plus grave, une augmentation des rejets de CO2.
Annexe   

Difficultés de lecture, d’interprétations. 

Quelques exemples d’incohérences relevées
Consommation dans le résidentiel et tertiaire

– La consommation totale lue est 29,4 Mtep. 

La consommation pour les seuls usages thermiques est de 25,1 Mtep.

 Cela voudrait dire que pour les usages spécifiques de l’électricité, la consommation serait de 4,3 Mtep, ce qui est largement en dessous de ce qu’écrit Négawatt : 100 TWh soit 8,6 Mtep. 

Un écart de 4.3 Mtep (soit 14 %)
Consommation dans les transports

– Entre 2 pages de l’analyse on trouve 2 chiffres différents, l’un de 19.4 Mtep et l’autre de 21.64 Mtep.

Un autre écart de 2 Mtep (soit 10 %)

Fin

NDLR – Non traité et réactions :

B.D.:

1) L’occupation de l’espace, qui est une limitation forte, mais qui n’est prise sérieusement en considération dans aucun document, pas plus Négatep que Négawatt. Par contre sur le terrain, on voit se développer fortement en ce moment les associations de défense contre l’éolien.

 Négawatt veut semble-t-il 26 GW d’éolien en mer. Cela représente 52 centrales comme celle qui va  être installé à Saint-Brieuc, au grand dam de beaucoup de riverains, qui ont perdu tous leurs recours, et environ 5 000 km2 d’occupation du domaine maritime dans des zones où il y a déjà de nombreux conflits d’utilisation.

2) P.H.:

Lorsqu’on simule ici la production électrique, il y a toujours un fond et leur consommation électrique est si basse qu’il n’est pas difficile d’éviter le black out. 

Pour la même raison , on ne peut pas dire que les réseaux ont besoin d’être renforcés.

Ils ont corrigé l’excès de biomasse, de sorte qu’on ne peut pas leur reprocher d’en exploiter beaucoup trop désormais.

Le solaire est posé suivant plusieurs directions. Mais la simulation des parcs en mer peut poser d’énormes problèmes.

Une des failles repose aussi sur les pompes à chaleur, elles sont aérothermiques, s’ils nont rien mis à côté (cf. http://www.energie-crise.fr/spip.php?article220), ils font sauter le réseau par grand froid.

Et l’aspect économique est également fantaisiste, ils ont annoncés 550 €/m2 pour la rénovation ce qui fait 52 milliards annuels en comparaison des 5 milliards de Macron et de l’isolation diffuse ou des 15 milliards de Bâtiments sans fossiles ou de la FFB.

L’absence de surplus d’énergie pour l’industrie alors que nous avons le record de déficit commercial en Europe est une autre erreur.

Non, grâce à son charbon, l’Allemagne ne risque pas le black-out, contrairement à la France…

encore un article peu rigoureux….

« German Green Party Collapsing In ‘Existential Crisis’ »

By @AndrewCFollett 

http://dailycaller.com/2017/05/15/german-green-party-collapsing-in-existential-crisis/

Il y a quelque temps, à partir de cet article qui parlait d’un épisode tendu d’approvisionnement allemand le 24 janvier 2017
(et lui attribue en plus des conséquences politiques), certains se sont interrogés pour voir s’il existait un rapport officiel allemand sur le sujet.

La réponse dégonfle complètement l’événement « du 24 Janvier » qui apparaît plutôt comme une lutte de communicants aux intérêts contraires, mal interprétée de plus par l’auteur de l’article.

L’article mérite donc un « classement vertical »…
En effet, il est toujours incroyable de voir le nombre de fausses informations et demi-vérités que certains journalistes arrivent à écrire sur une page.   

Les écologistes en Allemagne (Die Grünen) ont perdu des voix lors des 3 dernières élections régionales. Lors de la dernière élection fédérale en 2013, les écologistes ont atteint 8,4 % (63 sièges) et arriveront selon le dernier sondage du 19.5.2017 à 7 %. Qu’ils passent au-desous de la barre des 5 % serait souhaitable mais peu probable. La raison de cette perte de voix n’est certainement pas la situation d’approvisionnement en janvier 2017 mais surtout le fait que les grands partis ont repris les thèmes écologiques dans leurs programmes et que les citoyens n’attribuent pas de compétences particulières aux écologistes concernant les grands thèmes préoccupant les citoyens comme par exemple la sécurité, le terrorisme, les réfugiés, la nouvelle politique des États Unis, l’avenir de l’Europe.
 
Il y a eu cet hiver 2 épisodes avec une production d’EnR intermittentes (éolien, solaire) quasi nulle. La situation se répète, la production d´’EnRi est toujours quasiment inexistante les nuits sans vent, comme chaque fois que l’on passe d’une dépression à un anticyclone, mais grâce au parc conventionnel en back-up l’approvisionnement a toujours été assuré et l’´Allemagne a même exporté de l’électricité dans ces périodes tendues.
  

 

Il n’´existe pas de rapport officiel allemand analysant cet épisode du 24 janvier, peut-être l’agence fédérale de réseau en parlera-t-elle dans son prochain rapport annuel qui sort en octobre/novembre 2017. Mais on ne voit guère, actuellement, en quoi la situation du 24.1. mériterait un rapport spécifique.  
 

Analysons en détail la situation du 24.1. Vers 18 h la consommation était de 74,6 GW et l’exportation 1,1 GW : la production d’ENRi de 1,5 GW (2 % de la consommation), bioénergies 6 GW , STEP/Hydro 6 GW, nucléaire 7,6 GW, le parc conventionnel assurant le reste. Compte tenu du fait que l’Allemagne dispose actuellement d’un parc conventionnel d’environ 95 GW dont 85 GW thermique à flamme  il y avait encore une marge de sécurité.  

On peut vérifier soi-même les données soit sur le site Agora Energiewende soit sur le site Fraunhofer ISE.
 
M. Vassiliadis, chef du syndicat IG Bergbau, Chemie Energie a utilisé la situation d’approvisionnement du 24.1. dans une interview au Handelsblatt en mars 2017 pour mettre en garde contre les exigences démesurées, irréalistes et irréalisables de sortie du charbon d’ici 2025 comme demandé par certains écologistes. (On peut s´’étonner que cette discussion n’est pas entamée en France compte tenu de l’expérience de l’hiver passé : la réduction du nucléaire à 50 % d’ici 2025 est tout aussi irréaliste et irréalisable).
 
Résumé : La situation d´’approvisionnent du 24.1 était marquée par une défaillance des ENRi malgré 90 GW en éolien et solaire installés. Mais grâce au parc conventionnel il n’y avait aucun risque de black-out. L’Allemagne a eu ce jour un solde d’exportation de 1 à 5 GW, vers l’Autriche, la Suisse et temporairement la France (0 à 10 h et 18 à 24h)
 
Concernant la question : « ce qui va arriver aux 6 GW de puissance éolienne mentionnés »,  la phrase  « Germany will ditch 6,000 megawatts of wind power capacity by 2019 » ne repose sur rien.
On soupçonne que ce chiffre de 6 GW pourrait résulter d´’une étude de Deutsche Windguard GmbH de décembre 2016. Les subventions pour 6 000 éoliennes (4,5 GW) se termineront fin 2020 et jusqu’à 2026 s’ajouteront 1 600 éoliennes par an. Compte tenu du prix de l’électricité très bas actuellement sur le marché spot (29 € /MWh en moyenne sur 2016) l’exploitation des éoliennes sans subvention ne serait pas rentable. Il faudrait au moins un prix spot de 35 à 40 €/MWh. Les lobbyistes de l’éolien mettent en garde contre un arrêt de plusieurs GW d’éolien, si le prix spot restait au niveau actuel et réclament – comme on pouvait s’y attendre – l’arrêt des centrales à charbon pour assurer la survie des éoliennes. (La différence entre une énergie fatale et une énergie pilotable ne devrait pas jouer de rôle…. cela n’intéresse personne…)
 

Dans :
« The country’s trendy and ineffective energy policy already forced payments of $548 million last year to switch off wind farms » : le montant de $ 548 million est à peu près correct : 478 millions d´’Euro en 2015, dont 87 % pour l’´écrêtement de l’éolien, 8 % bioénergies et 5 % solaire.
 
« The average German paying 39 cents per kilowatt-hour for electricity » n’est pas exact non plus. Selon les sources officielles c’est 29 cent/kWh. Il s’agit sans doute  d’une faute de frappe ?

Conclusion.

Le solde net allemand était importateur le 24 janvier mais ces importations/exportations allemandes qui sont d’ailleurs fortement corrélées à la production éolienne signifient simplement que l’Allemagne se fournit hors de ses frontières pour profiter des cours les plus bas.
Le 24 janvier, les centrales nucléaires Phillipsburg 2 et Isar 2 (qui n’a redémarré que le surlendemain) étaient à l’arrêt, représentant 2 800 MW indisponibles. Et les 8 GW disponibles étaient donc à presque 100 % de taux de charge.
Charbon et lignite tournaient autour de 80%, mais effectivement, le parc disposait d’une réserve de puissance considérable en gaz, avec 9 GW effectifs sur 29 GW installés…
Et une dizaine de centrales à l’arrêt complet ou quasi complet.
Tous ces éléments sont consultables sur https://www.energy-charts.de/power_inst.htm

A besoins quasi constants depuis notamment 2002, l’Allemagne dispose donc même de 105 GW « pilotables » (ou du moins disponibles) si on compte la biomasse, contre 102 GW en 2002. Il est logique qu’ils puissent faire face à des baisses de vent…
Et juste pour mémoire, c’est le lendemain, 25 janvier que la France serait passée à un cheveu de la rupture d’approvisionnement, selon le communiqué du CCE d’EDF.

Annexe :

Le réseau, lui, est dépendant des voisins, gratuitement pour l’instant…

http://m.faz.net/aktuell/wirtschaft/energiepolitik/deutsches-stromnetz-in-einem-kritischen-zustand-15052863.html

Les errements idéologiques de Greenpeace

Newsletter de :

Ecologie Radicale Information:

(Information de Michel Panet mardi 4 avril 2017, EXPERT du monde arabe)

 

Le 2 juin 2014 j’avais laissé sur ce blog un billet relatant la genèse du mouvement Greenpeace dans le milieu hippy de Vancouver qui avait affrété un bateau pour aller titiller l’armée américaine car le projet d’essais nucléaires souterrains en Alaska leur déplaisait.

 

Depuis, comme chacun sait, Greenpeace est la plus puissante ONG du monde avec un budget de plus de 1,3 milliard de dollars par an (chiffre officiel probablement éloigné de la réalité) et elle continue à pourfendre l’énergie nucléaire sous toutes ses formes plus par idéologie, disons fondatrice, qu’en s’appuyant sur des faits officiels et reconnus pourtant dans le monde entier.

 

L’Agence Internationale de l’Energie (IAE) publie chaque année des statistiques sur la mortalité dans le secteur de la production d’énergie électrique rapportée à 10 TWh (10 000 MWh) et les données sont éloquentes malgré le fait qu’elles englobent les accidents de la centrale nucléaire de Tchernobyl et la rupture du barrage hydroélectrique chinois de Banqiao en 1975. Je rappelle au passage que depuis bientôt 6 ans il n’y a pas encore eu de morts directement répertoriés en raison de radiations à la suite de l’accident de la centrale nucléaire de Fukushima-Daiichi et que l’IAE, s’appuyant sur des données officielles estime que le nombre de morts, essentiellement par cancers, dans la région de Tchernobyl « ne dépassera » pas 9 000.

 

L’IAE cite cette statistique au futur en considérant la probabilité de morts par cancers jusqu’au décès de toutes les personnes ayant été exposées à la contamination radioactive à la suite de l’accident de Tchernobyl provoqué, faut-il le rappeler, par une erreur humaine, comme celui de Three Miles Island d’ailleurs.

 

La rupture du barrage de Banqiao a provoqué la mort de 230 000 personnes et malgré ces deux accidents nucléaires majeurs de Tchernobyl et de Fukushima cette source d’énergie reste la plus sûre avec entre 0,2 et 1,2 morts par TWh produit, y compris les décès dûment attribués à l’accident de Tchernobyl suivie par les centrales électriques au gaz naturel.

 

L’hydroélectrique arrive donc en troisième position et le charbon est la source d’énergie la plus mortelle avec jusqu’à 32,7 morts par TWh, près de 12 fois plus « mortelle » que l’énergie nucléaire.

 

Contrairement à ce qu’affirme Greenpeace l’énergie nucléaire reste donc le moyen de production d’électricité le plus sûr au monde.

Pourquoi un tel débat revient d’actualité alors que les mouvements anti-nucléaire sont plus que jamais actifs en particulier en Europe avec l’abandon programmé de l’énergie nucléaire par l’Allemagne bientôt suivie par la Suisse, tout simplement parce que l’intoxication permanente de Greenpeace a imprégné les esprits du public mais également des décideurs à la merci de politiciens irresponsables ayant adopté les thèses erronées de Greenpeace.

Un autre évènement d’actualité est le risque de rupture du barrage de Oroville en Californie dont le volume d’eau retenu a atteint un niveau record après les dernière pluies abondantes qui ont traversé cet Etat ces dernières semaines. La Californie, pour l’exemple, veut développer les énergies propres et renouvelables et dépend pour un part non négligeable de l’hydroélectricité.

Or l’hydroélectricité, comme je l’ai fait remarquer dans un récent billet constitue la seule technologie de stockage de l’électricité par pompage d’eau au cours des heures dites de consommation creuse ou lors des pics de production induits par les énergies « vertes » intermittentes par définition, éolien et solaire. La polémique est donc relancée en Californie malgré les statistiques publiées par l’IAE.

Il faut rappeler que la rupture du barrage de Banqiao construit en 1952 peut être considérée comme une erreur humaine dans la mesure où la digue était sous-dimensionnée et ne pouvait pas faire face à des pluies inhabituelles comme celles provoquées par le typhon qui s’abattit sur la région en août 1975, de même que le barrage de Oroville n’est pas dimensionné pour supporter des pluies torrentielles comme celles que vient de connaître la Californie où 180 000 personnes viennent d’être évacuées de la région. Qu’a dit Greenpeace à ce sujet ? Rien ! Ce n’est pas du nucléaire donc cette organisation s’en lave les mains et ce qui est encore plus incroyable est que la même organisation, avec son porte-voix en la personne de Corinne Lepage, a décrété que la centrale de Fessenheim était située dans une zone à « haut » risque sismique.

 

En Californie n’y a-t-il pas de risques sismiques majeurs ? Ces fait prouvent bien que Greenpeace surfe sur sa planche idéologique anti-nucléaire surannée, une source d’énergie pourtant la seule pouvant permettre de réduire substantiellement les rejets de gaz carbonique … Vraiment du grand n’importe quoi !

« Pour raison nucléaire garder, vive le DARI ! » par Georges Charpak.

LE MONDE | 02.06.2000 à 00h00 • Mis à jour le 02.06.2000 à 00h00 | Par
PAR GEORGES CHARPAK

Dans un futur qui, à plus ou moins long terme, est menacé du tarissement des ressources énergétiques basées sur le charbon ou le pétrole, il est normal que de grands espoirs aient été fondés sur l’énergie nucléaire. Mais la production massive de corps radioactifs artificiels qui accompagne cette forme d’énergie soulève aujourd’hui des interrogations et des inquiétudes quant aux dangers présentés par l’adoption massive de cette source d’énergie.

Le problème majeur à présent pour l’industrie nucléaire est de montrer qu’elle est capable de gérer, de façon satisfaisante pour les générations à venir, les déchets radioactifs des centrales nucléaires et de maintenir à zéro les risques de catastrophes type Tchernobyl.

Il est essentiel de prendre en compte l’irradiation à laquelle sont soumis les humains, indépendamment de l’énergie nucléaire, et c’est là qu’apparaissent les pièges.

La mesure de la radioactivité est extraordinairement sensible. On peut déceler un atome unique qui se désintègre, alors qu’il faut le poids de millions de milliards d’atomes pour émouvoir la balance la plus sensible. Cette propriété a permis à la radioactivité de féconder des sciences comme la biologie, la médecine, l’archéologie, en les dotant d’outils irremplaçables.

On peut déceler des contaminations radioactives bien plus faibles que celles qui proviennent des corps radioactifs fossiles naturels qui imprègnent notre planète et nos propres tissus, et qui font que nous baignons toujours dans un imperceptible bain de radiations. Cela n’a pas empêché la matière vivante de se développer pendant les trois derniers milliards d’années et cela ne joue aucun rôle sur notre santé.

J’ai conscience de heurter une conviction affichée par les groupes politiques qui se sont donné pour mission l’élimination de l’industrie électronucléaire. Mais la prise de conscience du niveau de radiations incontournable auquel est soumise la race humaine est indispensable pour juger de ce qui relève de la peur superstitieuse, d’une propagande intéressée, ou d’une crainte légitime des incidents ou accidents qui accompagnent l’usage de sources de rayonnements, à usage industriel ou médical.

L’irradiation de notre corps par les éléments radioactifs naturels qui sont présents dans nos tissus me semble un étalon parfait pour apprécier la nuisance de sources radioactives artificielles.

Il est puéril de s’inquiéter de tout événement ou accident qui produit une irradiation inférieure, d’autant plus que, pour un Français, cette irradiation est 10 à 30 fois plus faible que celle qui provient des sources de rayonnements naturels extérieurs à notre corps, principalement des roches, ou des rayons cosmiques qui nous tombent du ciel.

La grande variabilité est d’origine géographique. Elle est due à la répartition très inégale, dans les roches répandues sur la terre, des corps radioactifs fossiles, uranium, thorium ou potassium.

L’extrême prudence qui entoure l’industrie nucléaire a conduit les législateurs à imposer comme limite à l’impact de l’industrie électronucléaire sur les populations le tiers de l’irradiation naturelle en France. Les contaminations radioactives liées à cette industrie, qui sont en moyenne inférieures au centième de l’irradiation naturelle, donnent lieu à des débats parfois difficiles à saisir pour les citoyens. Les raisons en sont multiples : complexité des unités de mesure servant à caractériser l’importance d’une contamination, incertitudes quant aux effets des rayonnements et, enfin, passion politique.

Je propose donc, avec mon collègue Richard L. Garwin, membre de l’Académie des sciences des Etats­ Unis, d’introduire une nouvelle unité d’irradiation qui permettra aisément d’évaluer la gravité de tout incident ou accident donnant lieu à une contamination. Cette unité est le DARI (pour dose annuelle due aux radiations internes). L’irradiation de nos tissus par les corps radioactifs que nous recelons toujours étant en effet l’étalon le plus stable pour les humains.

Ces corps radioactifs sont le potassium 40 et le carbone 14. Le premier est un résidu des fournaises nucléaires stellaires qui ont produit la matière terrestre il y a plus de cinq milliards d’années. Le carbone 14 est produit par des réactions nucléaires induites dans l’air par les rayons cosmiques. Ceux­ci arrosent la terre et proviennent surtout des réactions nucléaires produites en haute atmosphère par des protons énergiques venant de la galaxie. Leur intensité croît avec l’altitude. Ils provoquent dans l’air la transmutation de l’azote en un carbone radioactif, le carbone 14, dont la vie moyenne est de cinq mille ans et qui se présente sous forme de gaz carbonique. En raison des échanges avec les êtres vivants, il imprègne les tissus corporels. C’est, avec le potassium 40, l’acteur principal de l’irradiation interne.

Pour un être humain de 70 kilos, il contribue à 4 000 désintégrations par seconde, soit 4 000 becquerels, ce qui donne avec le potassium un total de 10 000 becquerels. Mais en raison des particularités des rayonnements qu’il émet, il contribue dix fois moins à l’irradiation des tissus que le potassium.

La signification du becquerel est simple : il s’agit de l’activité d’une source dont un atome se désintègre par seconde. Nous pouvons donc l’utiliser en ayant conscience qu’il s’agit d’une radioactivité extraordinairement faible. Mais nous pouvons ignorer toutes les autres unités communément utilisées, incompréhensibles pour les non­spécialistes. Qui est familier avec le sievert, irradiation déposant 1 joule par kilogramme de tissus, pondérée par un coefficient tenant compte de la nature du rayonnement et de l’organe irradié ? Le tableau ci­dessus montre l’importance relative de quelques sources d’irradiation.

Méfions-­nous des chiffres ! Un bain dans de l’eau à 30 degrés est agréable. Un bain dans de l’eau à 90 degrés est mortel. L’effet d’une augmentation de température de 1 millième de degré est négligeable, que ce soit à 30 degrés ou à 90 degrés. Certains veulent nous terroriser en matière d’irradiation, avec l’équivalent d’une augmentation de température de 1 millième de degré !

Comparer les effets d’un incident de contamination avec ceux des corps radioactifs naturels que nous portons permet de savoir s’il a un effet significatif ou de sourire si une propagande prétend l’amplifier de façon exagérée.

Si nous devions prêter attention aux dangers dus aux radiations naturelles et étendre cette attention craintive à toutes les sources de danger de même niveau, nous paralyserions la plus grande partie de l’activité humaine.

Il faudrait raser les murs, en évitant les bordures de trottoir en granite qui sont plus radioactives que le sol de La Hague ! Il faudrait éviter les séjours prolongés en montagne, en raison des rayons cosmiques dont l’intensité croît avec l’altitude ! Il faudrait chasser de nos maisons les fumeurs, même occasionnels. Il ne faudrait surtout pas vivre dans des villes où les particules sortant des pots d’échappement massacrent, en raison de leur effet cancérigène, des milliers de personnes par an ! Or, en 2050, les deux tiers des habitants de la planète vivront dans les villes.

J’ai été frappé par la dénonciation bruyante de la radioactivité contenue dans la laine de verre produite par une nouvelle usine de Saint­Gobain, dont le niveau de radioactivité naturel provoquait une irradiation qui se situait justement au niveau du centième de DARI. La récente découverte de la radioactivité des sables d’une plage de la Méditerranée, l’Espiguette au Grau­du￾Roi, a tourné à la farce lorsqu’il est apparu que l’activité était due au sable apporté par le vent. La découverte de la même intensité radioactive artificielle aurait entraîné une panique soigneusement orchestrée et la ruine de la station balnéaire.

L’adoption du DARI éliminerait totalement les problèmes nés d’incidents surmédiatisés, sans proportion avec leur impact réel sur la santé publique.

PAR GEORGES CHARPAK

Le nucléaire = 20% de l’énergie finale. Combien de GW pour 50% d’énergie finale ? 150 GW ? Non 90 GW !

Explications.

Si on prend  la part d’énergie utile, par exemple le nombre de passager par km et de tonnes transporté par km, assurée par les trains électrifiés, les métro, les tramways, on trouve 4 à 6 % pour 1 % d’énergie finale… Cherchez l’erreur ?

Confirmation de cette illusion d’optique : l’électricité assure 50 % de l’ECS (Eau Chaude Sanitaire), 30% du chauffage, une partie de la cuisson…Et il faut rajouter le soupçon de conversion de l’électricité spécifique en chaleur dans un pays où on chauffe les logements plus de 6 mois par an L’utilisation de l’énergie finale qui pose l’équivalence entre travail et chaleur est une hérésie. En énergie primaire ou en énergie utile, le nucléaire c’est approximativement 1/3, on ajoute ensuite biomasse-hydraulique soit 1/6 et enfin 1/2 d’énergies fossiles ce qui donne 1.

Utiliser la formule « 20% » d’énergie finale est trompeur, car on pense alors qu’il faut multiplier par 5 le parc nucléaire pour sortir des fossiles, alors qu’il ne faut même pas multiplier sa production par 2 (900 TWh) et sa puissance par 1,5 (90 GW). Soyons tous d’accord sur cet objectif ?

Lorsque nous utilisons des proportions, il faut s’astreindre à des équivalences chaleur-énergie qui ne soient pas de 1, même pour le chauffage à effet Joule.

Dire qu’il faut se débarrasser de 50% d’énergie fossile ou de 80% ne change pas beaucoup l’ampleur du défi, dans la communication.

Alors que multiplier par 1,5, ce n’est pas la même chose que de multiplier par 5 pour aboutir à la solution.

 

Le défi est grand mais la solution facile. Qui le sait ? Disons-le !

 

PH-JPB

 

Pour en savoir plus :

http://energie-crise.fr/spip.php?article68

 

Plafonner ou diminuer le nucléaire ? Il est urgent d’attendre…

En réaction à l’article du Monde :

Hollande et le nucléaire : le changement, mais pas maintenant

Réponse d’un lecteur :

L’écologie ne se résume pas à l’arrêt ou à la diminution drastique du nucléaire comme le laissent entendre tous les antinucléaires de Yannick Jadot à Corinne Lepage.

Naïvement, je pensais que l’effort principal devait porter sur les énergies décarbonées pour éviter le risque de réchauffement climatique.
Mais les efforts de Hollande et de Ségolène ont surtout porté sur la limitation du nucléaire au moyen du plafond de 63,2 GW de puissance installée (c’est précis!!) et de la RT 2012 qui interdit en pratique l’usage du chauffe-eau électrique (50 kWh par an et par m2). On peut qualifier toutes ces mesures de déclinistes !
Un surplus d’énergie décarbonée nucléaire ne me semble pas néfaste (cet hiver il a bien été utile), ni contribuer, comme vous l’écrivez, à renforcer un tabou. En outre,comme le déclarait Michel Lavérie, ancien directeur de l’ASN, un surplus de centrales rend plus facile une décision d’arrêt.
L’augmentation de la capacité du photovoltaïque et de l’éolien est une bonne chose sous réserve de leur compétivité (non biaisée par des subventions excessives) et des progrés techniques et économiques à réaliser pour le stockage nécessité par leur caractère intermittent.
Donc,aller doucement, sans déclarations péremptoires,de façon pragmatique me semble frappé au coin du bon sens.L’ancien gouvernement a fait un « deal  » malheureux avec les antinucléaires, car idéologique et aurait mieux fait de s’attaquer plus tôt au diesel [ancien] qui provoque des décés certains et non des risques hypothétiques.
Comme l’écrit Michel Onfray, si le nucléaire est le projet de « l’hyper technophilie du siècle passé » et l’outil de la société de consommation, il reste, à moins d’un changement de société majeur, INCONTOURNABLE.


Sans doute votre article incite-t-il à un changement rapide de société ? Pour ma part je pense qu’il faut prendre le temps et j’espère que le nouveau gouvernement le prendra.
Salutations

Le vent n’est pas écologique !

Par Michel Gay

Le 6 janvier 2016

N°129
Qui l’eut cru : la production d’électricité par les éoliennes n’a rien d’écologique !
Les éoliennes ne poussent pas sous le soleil en les arrosant. Ce moyen de production d’électricité dit « écologique » nécessite des matériaux ainsi que des travaux industriels et d’entretien. Il ne suffit pas juste de récupérer l’énergie produite… quand il y a du vent.
Une éolienne récente de puissance 2 mégawatts (MW) mesure environ 150 m de haut en bout de pale (environ 100 m pour le mât) et sa durée de vie est de 20 ans. Sa construction nécessite 425 mètres cubes (m3) de béton et 40 tonnes d’acier. Le poids total des matériaux de construction atteint presque 1200 tonnes. Des « composites » entrent dans la fabrication des pales (3 fois 7 tonnes, soit 21 tonnes par hélice), des métaux (dont le cuivre) et des « terres rares » composent la nacelle et le générateur, ainsi que 300 à 400 litres d’huile de lubrification et de refroidissement.

En étant optimiste, son facteur de charge, en moyenne en France, est de 23% (temps de fonctionnement en équivalent pleine puissance), soit environ 2000 heures par an. Sur sa durée de vie, cette éolienne produira donc 80 gigawattheures (GWh).

Il faut donc 5 m3 de béton et 0,5 tonne d’acier par GWh pour une éolienne.
Or, la durée de vie d’un réacteur nucléaire EPR de 1650 MW est de 60 ans (minimum prévu). Sa construction nécessite 385.000 m3 de béton et 74.000 tonnes d’acier. Son facteur de charge prévu est de 85%, soit environ 7500 heures/an. Pendant sa durée de fonctionnement, ce réacteur produira donc au minimum 742.500 GWh … soit l’équivalent de 9000 éoliennes de 2 MW.

Il faut donc 0,5 m3 de béton et 0,1 tonne d’acier par GWh pour la construction d’un EPR
L’EPR produit des déchets radioactifs. Les déchets conditionnés représentent environ 4000 m3 par an, soit, pour une production nucléaire annuelle de 400.000 GWh  / an, soit 0,01 m3 par GWh d’un mélange de verre, d’acier et de béton supposé sans vide. 

L’exploitation du centre de stockage géologique CIGEO est prévue pour durer au moins 100 ans. La totalité de l’acier et du béton pour le construire doit donc être divisée par la production pendant cette durée, soit environ 40 millions de GWh.

En prenant un volume excavé de 4,3 millions de m3 (document CEA décembre 2012, tome 2, page 60, sans transmutation) et un remplissage / garnissage par la moitié d’acier et de béton, soit 2,15 Mm3, alors on obtient 0,06 m3/ GWh (par excès).

En tout état de cause, le volume d’acier de verre et de béton ne devrait pas excéder 0,1 m3 par GWh pour le stockage.
Ainsi :

1) il faut 0,5 m3 de béton par GWh pour la construction d’un EPR, auquel il faut ajouter 0,1 m3 pour le stockage des déchets radioactifs (acier inclus). 

Total 0,6 m3 / GWh soit 8 fois moins que pou l’éolien (5 m3 / GWh),

2)  il faut 0,1 tonne d’acier par GWh pour la construction, plus environ 0,02 tonne pour le stockage géologique. 

Total 0,12 tonne / GWh soit environ 4 fois moins que pour l’éolien (0,5 tonne / GWh). 
De plus, les 9000 éoliennes produiront une électricité de manière erratique puisqu’il n’y a pas toujours du vent, et qu’il n’est pas forcément corrélé avec le besoin. Il faudrait donc aussi ajouter aux éoliennes le béton et l’acier nécessaires à la construction, en parallèle, des centrales à gaz et à charbon de compensation à l’absence de leur production les jours de vents faibles ou nul. Ou bien les immenses stockages qui seraient nécessaires pour absorber leurs pics de production les jours ventés… Et ce n’est peut-être pas négligeable !
Qui a dit que produire de l’électricité avec du vent était écologique et minimisait l’impact sur la nature ?