La permaculture en zones semi arides est-elle assez productive pour aider à sauver le climat ?

Question ouverte : la permaculture est-elle un effet de mode ou un réel moyen de contribuer substantiellement à la prévention du réchauffement climatique en développant un nouveau puits de carbone ?

Combien coûte la tonne de CO2 évitée dans cette configuration ? Est-ce compétitif ? On peut en douter car le diable se cache souvent dans les détails.

Pour mémoire, le nucléaire c’est potentiellement 50% de l’énergie de 2100.

Et la permaculture, c’est davantage que 1% ?

Exemples concrets :

Sadhana Forest

– population atteinte: permanente 1500 personnes, population occasionnelle: 15 000 personnes.

– population cible: 150 millions de personnes. (ceux habitant actuellement dans les zones arides dans la bande des 33 degrés N-S, celle où le soleil est suffisant pour fournir l’énergie toute l’année)

– population cible à terme 2050: 3 milliards sur les 9 milliards prévues

En 8 ans, ils ont réussi à transformer des terrains de latérite en vergers tropicaux qui produisent plus que le nécessaire pour les habitants,

Graine De Vie

Grâce à une relation privilégiée avec les habitants, les associations et les collectivités locales de Madagascar, Graine de Vie restaure des forêts et des mangroves autrefois luxuriantes, mais détruites par l’oubli des savoirs ancestraux. L’action de Grain De Vie met en lumière l’importance de l’éducation et de la formation dans la redécouverte d’anciens savoirs, mais aussi l’innovation technique pour passer à la reforestation à grande échelle.

Ces ONG agissent déjà sur 3 continents et à Madagascar : les superficies et les populations sont immenses (attention à la projection de Mercator).

Est-ce généralisable ?

Business model :

Prix des terres: 0,1 $/m2 en zone aride, voire la moitié dans les régions vraiment désertiques. On constate que souvent, la nappe phréatique est à moins de 100 mètres de profondeur en zone aride. Dans les déserts, c’est 200 m ou pire.

Dès lors, il y a 2 types de situations, selon que les précipitations dépassent 300 mm par an ou pas:

– zone tropicale: aucun arrosage nécessaire, un arbre capture au moins 25-50 kgCO2/an et coûte 0,1 à 0,5 euros. Soit 40 arbres = 20 euros/tCO2/an maxi, soit moins de 1 euro/tCO2 au bout de 20 ans.

– zone semi-aride (300 à 600 mm de pluie par an): les arbres adultes n’ont pas besoin d’arrosage pour survivre; L’arrosage sert à passer la saisons sèche et obtenir une production fruitière économiquement intéressante. 1 arbre coûte alors 2 euros (avec arrosage), donc 100€/tCO2/an maxi, soit moins de 5 euros/tCO2 au bout de 20 ans.

– zone aride (300 mm/an ou moins): arrosage toute l’année nécessaire. Cela coûte environ 6 euros par arbre, donc environ 15 euros/tCO2 sur 20 ans.

Ces coûts incluent 20% de perte d’arbres: ces 20% ne meurent pas tous, mais on coupe aussi les moins productifs en fruits pour en récupérer le bois.

Evidemment, on ne compte pas la production fruitière et l’eau, qui est intégralement donnée aux habitants.

GraineDeVie, c’est déjà 8 millions d’arbres, soit 200 000 tCO2/an. Sur Terre, il y a la place de faire mille à dix mille GdV sans embêter personne, 10 fois plus en mettant le paquet sur les ceintures vertes autour des mégalopoles et la densification urbaine, soit 0.2 à 2 GtCO2/an sans effort, 10 fois plus avec effort. Donc l’ordre de grandeur est correct et compatible avec W.EC.A.N. (2 à 10 GtCO2/an de séquestration carbone pour passer en émissions négatives avant 2050 et ainsi réduire rapidement la concentration de CO2, pour revenir à 300 (+/-50) ppmCO2 avant que les océans n’aient eu le temps de trop se dilater).

Qu’en pensez-vous ?

Complément le 15/08/2017:

Ordres de grandeur pour éviter 0,5°C de réchauffement anthropique planétaire d’ici 2100, en complément des 2,5°C tenu par le scénario #MessageSupplyN proposé par le groupement international d’experts en énergie climat, le GISOC.

– 1 arbre tous les 5 m à 10kgCO2/an par arbre (estimation moyenne très conservatrice, car les zones arides ou nordiques sont problématiques)

– par hectare: 400 arbres ==> 4 tCO2/ha/an

– 10 milliards d’hectares pour compenser toutes nos émissions: 40 GtCO2/an

– à 100 hectares par km2, ça fait 100 millions de km2

– la surface de la terre, c’est 4*pi*(6785km)^2 = 629 millions de km2, donc on a besoin de 16% de la surface de la terre donc la moitié des terres émergées. Ce qui est exactement ce qu’il reste à reboiser. CQFD. Pour -0,5°C, la moité (8%) suffirait.

0,1 à 8 euros par arbre, 5 à 50 kgCO2 capturés par arbre et par an, en fonction des sols, des climats et des combinaisons d’essence.

Graine de vie c’est : 100 €/ha

Donc 5,5 milliards d’ha pour 550 G€ pour 5 milliards de personnes : 550 € d’investissement, mais une productivité suffisante pour permettre à 2 personnes de vivre de la production d’un hectare + 10% de taxes. 2 personnes vivent de la production de 0,9 hectare et donnent la production de 0,1 hectare à l’Etat.

Terres émergées: seulement 30%, donc 200 millions de km2 disponibles.

Avant 2100, replantons 55 millions de km2 (soit 100 fois la France continentale, alias Hexagone, donc environ 11 milliards d’agrosylviculteurs), soit 22 GtCO2/an capturés et utilisons la technologie pour réduire le reste des émissions de GES (environ 22 GtCO2/an).

Précisons le cadre. Il s’agit de capturer rapidement du CO2 en créant une économie locale. Donc cela ne concerne bien sûr pas les forêts existantes, mais celles qui ont été détruites (récemment ou pas). A la limite, on peut y planter n’importe quoi, ce sera toujours mieux que rien, sur le plan climatique. Ensuite, pour que cela soit pérenne, il faut éviter:

– les catastrophes naturelles: principalement les incendies et les parasites. La monoculture est un facteur de risque. Les forêts mélangeant feuillus et conifères sont bien plus résistantes aux fléaux. La perte de production de bois devient négligeable à 100 ans. Il ne n’agit pas de faire des pinèdes et des coupes claires. On parle de coupes sombres, bois de qualité pour la construction, vergers de fruits à coques pour l’alimentation et la capture de CO2 par voie oxalogène (noyer maya).

– les catastrophes économiques: diversifier les usages est un gage de pérennité, dans tous les pays. La monoculture de l’olivier en Méditerranée fait figure d’exception, le prix de l’huile d’olive de qualité ayant toujours été élevé. L’utilisation des déchets fait encore l’objet de recherches. Au pire, l’épandage reste possible (en faibles concentrations, car le grignon d’olives devient vite toxique).

On cherche à faire cela à un prix raisonnable sous les tropiques (moins de 1 euro par arbre). Les allemands investissent 6 à 8 euros par arbre pour le faire chez eux: c’est aussi malin que d’installer du PV au Nord de l’Europe vu l’urgence climatique.

Des commentaires scientifiques à propos de ce post ?

Publicités

Cr de la conférence du 15 avril 2019 à Paris Hôtel d’Iena : Agir Contre le dérèglement climatique : l’urgence !

https://twitter.com/Gp21_RSE/status/1112426766386237444?s=19

Base électrique : pilotable 0 % décarboné, et 100 % fossile ?

Verbatim de Etienne Anglès d’Auriac, Vice-Président Stratégie et Climat chez TOTAL. (note personnelles d’un membre de l’ONG Sauvons le climat)

Il a révélé des informations intéressantes, résumées ci-dessous :

1) Concernant la stratégie de TOTAL : il a indiqué que TOTAL (avec SHELL, autre major européen) étaient les deux seules compagnies pétrolières majeures à se présenter comme énergéticiens globaux et se préoccuper du climat, toutes les autres (américaines notamment) continuant à rester des « pure player » pétrolières et gazières, leurs actionnaires n’étant pas majoritairement intéressés par le climat…

Quant à la vision d’énergéticien global de TOTAL, elle s’oriente (comme celle d’Engie !) vers le couple gaz + renouvelables (électriques mais aussi bio-carburants) pour deux raisons : le gaz est selon notre orateur très abondant et permet des réductions rapides d’émissions de CO2 par remplacement du charbon. Par contre, la montée en puissance des renouvelables demandera beaucoup de temps. TOTAL y ajoute des actions dans le domaine de la séquestration du carbone (achats de forêts et injection de CO2 dans d’anciens puits de pétrole, mais aucun coût n’a été donné dans ce dernier cas).. Enfin, l’opinion de TOTAL sur l’hydrogène est plus que réservée, l’hydrogène issu de l’électrolyse ayant un modèle économique incertain… (ce qui rejoint ce que l’on sait déjà). Voilà en gros ce qui a été présenté comme la contribution climatique de TOTAL à son plan stratégique global… Chacun appréciera et jugera.

2) Concernant les émissions de CO2 (et autres GES) liés à l’exploitation pétrolière, gazière et charbonnière :

Des informations concrètes très intéressantes ont été données sur ces points :

* Emissions de CO2 de l’exploitation pétrolière et gazière. Les émissions globales se partagent en deux parties :

10 % pour l’extraction d’une part, le raffinage, transport, etc. d’autre part (environ 5 % pour chacun des postes)

90 % lors de la combustion.

Ce résultat soulève deux questions importantes, les 10 % d’émissions avant combustion n’étant pas négligeables :

– Sont-elles comprises dans les émissions des moyens de production d’électricité établis par le GIEC ? Si ce n’est pas le cas, les 820 gCO2/kWh du charbon par exemple (ci-dessous) sont en réalité de 900 gCO2/kWh.

– L’équivalence « administrative » énergie finale = énergie primaire pour les hydrocarbures est mise à mal et devrait être énergie finale = 0,9 énergie primaire !

* Emissions de méthane. Deux sources d’émissions sont concernées :

– TOTAL estime à 0,22 % actuellement (et veut réduire à 0,2 % en 2020) les émissions de méthane dans l’atmosphère de son exploitation pétrolière et gazière (% ci-avant exprimés par rapport aux quantités vendues). Ce qui représente des quantités très importantes en valeur absolue, pour un gaz qui a un pouvoir de réchauffement 30 fois supérieur à celui du CO2 sur un siècle. Une partie importante venant du « torchage » des gaz issus des puits de pétrole, dans la mesure où la combustion de ces gaz n’est complète qu’à 90 % environ et laisse passer du méthane et autres gaz. TOTAL a un plan de récupération de ces gaz fatals pour supprimer le torchage, mais qui demandera du temps. D’autres pétroliers ne semblent pas s’en soucier…

Par contre, il n’y a pas de fuites de gaz dans les installations industrielles de conversion ou combustion du gaz (centrales au gaz notamment) pour une raison évidente très forte : compte tenu des risques majeurs d’explosion, ce point est surveillé comme le lait sur le feu.

– Les fuites de grisou (c’est-à-dire de méthane) des mines de charbon. Selon notre conférencier, ces fuites seraient très importantes durant l’exploitation des mines de charbon (et lignite) et se prolongeraient ensuite par dégazage progressif après la fin de l’exploitation pendant de longues années. Ce qui signifie que le charbon serait encore plus néfaste pour le climat qu’on le dit d’habitude, notamment avec la multiplication des petites mines comme en Chine, en Inde et ailleurs.

Ces différentes fuites de méthane d’origines diverses sont-elles comptabilisées par le GIEC ? on suppose que oui…

Total a également évoqué son partenariat avec Shell sur un projet en Norvège, à une échelle industrielle, de collectage de GES et enfouissement en mer dans une formation géologique à plusieurs milliers de mètres de profondeur.

« Electricité : la hausse des tarifs n’a rien à voir avec les coûts de production » (JDD)

Commentaire : La hausse des prix de l’électricité en juin 2019 devrait être de 3,5 % et pas de 5,9 %.

Donc 2,4 % pour gaver les parasites imposés par l’ultra-libéralisme de Bruxelles et contre un libéralisme intelligent. (cf article de France Info qui, hypocrite, critique simplement le nucléaire mais le loue le jour on on en a besoin…)

L’article complet ici :

https://www.lejdd.fr/Politique/electricite-la-hausse-des-tarifs-na-rien-a-voir-avec-les-couts-de-productions-3887645

Electricité : la hausse des tarifs n’a rien à voir avec les coûts de production

le 7 avril 2019

 

LE VRAI DU FAUX – François de Rugy, ministre de la Transition écologique, a déclaré cette semaine à l’Assemblée nationale : « Les tarifs doivent couvrir les coûts de production de l’électricité. En France, ce sont [ceux] d’EDF et de l’électricité nucléaire, essentiellement. » C’est faux.

Contrairement à ce qu’a dit François de Rugy à l’Assemblée national, la hausse des tarifs de l’électricité n’est pas due à celles des coûts de production. (Sipa)

 

La hausse de 5,9% des tarifs régulés de l’électricité, qui devrait intervenir cet été, n’a rien à voir avec les coûts de production d’EDF ou de l’électricité nucléaire, qui restent stables. Dans son avis remis au gouvernement, l’autorité régulatrice détaille la forte hausse des prix de l’énergie constatée sur les ­marchés de gros. Car si l’électricité d’origine nucléaire couvre 75% de notre consommation, nous avons besoin à tout moment de puissance complémentaire comblée sur les marchés par un approvisionnement à des centrales au gaz ou au charbon. Or les prix des énergies se sont envolés l’an dernier, entraînant ceux de l’électricité : le produit de base est passé de 35 euros/MWh en janvier 2017 à 59 euros/MWh en décembre 2018.

L’affaire portée devant le Conseil d’Etat?

 

Si le prix de l’énergie nucléaire reste très inférieur (42 euros/MWh), cette hausse se répercute en partie sur les prix. L’Autorité de la concurrence a rendu la semaine dernière un avis très critique, estimant que « 40% de la hausse [de 5,9% envisagée] ne correspondent pas à une augmentation des coûts de fourniture d’EDF, mais permettent aux concurrents de proposer des prix égaux ou inférieurs aux tarifs réglementés ». La loi Nome votée en 2010 leur garantit, pour quinze ans, un accès à l’électricité nucléaire bon marché d’EDF. Les volumes offerts aux fournisseurs alternatifs ne peuvent excéder un plafond de 100 TWh par an. Or ils ont eu besoin l’an dernier de 132 TWh… La différence a été achetée, au prix fort, sur les marchés de gros.

Pour ne pas plomber la compétitivité des fournisseurs alternatifs, dénonce l’Autorité de la concurrence, l’autorité régulatrice a intégré cette hausse au calcul de l’augmentation du tarif régulé. Une démarche « contraire à la volonté exprimée du Parlement », qui prive le consommateur du « bénéfice de la compétitivité du parc nucléaire historique ». La Commission de régulation de l’énergie conteste cette analyse, mais l’association de défense des consommateurs CLCV est déterminée à porter l’affaire devant le Conseil d’État, si la hausse de 5,9% prévue se confirme.

 

 

Nature : « De robustes voies de réduction vers un avenir climatique tolérable nécessitent une action mondiale immédiate »

https://www.nature.com/articles/s41558-019-0426-8

Translation in french (google translate):

Des voies de réduction robustes vers un avenir climatique tolérable nécessitent une action mondiale immédiate

Il est difficile de distinguer l’importance relative des politiques de réduction des changements climatiques des incertitudes du système humain-Terre (HES) qui déterminent leurs performances, car les deux sont inexorablement liées et que la nature de ce lien est dynamique, interactive et métrique (1). Nous présentons ici une approche permettant de quantifier les rôles individuels et communs que diverses incertitudes de la HES et nos choix en matière de politique de réduction jouent dans la détermination des conditions climatiques et économiques futures, simulés par une version améliorée du modèle dynamique intégré du climat et de l’économie (2,3). . Malgré les nombreuses incertitudes liées à la SSE, le taux de croissance de la réduction globale (un choix de société) est le principal moteur du réchauffement à long terme. La question n’est pas de savoir si nous pouvons limiter le réchauffement, mais si nous choisissons de le faire. Nos résultats élucident d’importantes dynamiques de SSE à long terme qui sont souvent masquées par des mesures communes agrégées dans le temps. Une réduction agressive à court terme sera très coûteuse et aura peu d’effet sur le réchauffement à court terme. Inversement, le réchauffement que connaîtront les générations futures sera principalement motivé par les mesures de réduction antérieures. Nous quantifions les voies probabilistes d’abattement conduisant à des résultats climatiques / économiques tolérables (4,5), en fonction de la sensibilité du climat à la concentration de CO2 dans l’atmosphère. Même sous des hypothèses optimistes quant à la sensibilité au climat, les voies menant à un avenir climat / économie tolérable se rétrécissent rapidement. Les discussions politiques sur l’atténuation et l’adaptation au changement climatique tirent profit d’estimations de l’ampleur et du calendrier potentiels du changement climatique futur, ainsi que des dommages et coûts potentiels que ce changement pourrait induire. Fournir ces informations aux décideurs est extrêmement difficile car la communauté scientifique ne comprend pas parfaitement les interactions complexes entre les systèmes humains et le climat (6). Les modèles d’évaluation intégrés (IAM) approchent ces interactions dans un cadre informatique (7). Les MIA ont été utilisés pour créer des générations successives de scénarios de changement global omniprésents dans les applications de planification et d’évaluation dans de nombreuses disciplines, y compris les voies de concentration représentatives (8) et les voies socioéconomiques communes (9). Des travaux récents ont porté sur la sensibilité des résultats d’IAM aux incertitudes de la HES1 et aux modèles structurels dans l’ensemble des MIA10, mais peu d’attention a été portée à l’interaction entre les incertitudes de la HES et la politique de réduction (11). Nous fournissons ici un cadre unifié permettant d’évaluer l’impact commun des incertitudes et des mesures de réduction de la HES sur les résultats climatiques et économiques. En prenant en compte l’évolution des sensibilités et des impacts sur des périodes de plusieurs siècles, notre cadre élucide d’importantes dynamiques de SSE à long terme et identifie de solides voies de réduction pour atteindre des niveaux tolérables.
climat / avenir économique (12) (c’est-à-dire une fenêtre politique tolérable). Nous utilisons une version améliorée du modèle dynamique intégré du climat et de l’économie (DICE) 3. DICE est un IAM simple, bien que largement utilisé (13), qui associe une représentation globale de l’économie à un émulateur climatique simplifié. Nous adoptons DICE en tant que substitut parcimonieux et archétypal pour des MAI plus complexes qui représentent des dynamiques multisectorielles et régionales et sont utilisés pour générer des scénarios partagés tels que les trajectoires de concentration représentatives et les trajectoires socio-économiques partagées (voir Weyant (14) pour un examen). Suite aux travaux précédents (2,15), nous améliorons le module climatique de DICE en le remplaçant par le modèle DOEClim (16). DOEClim est un modèle de bilan énergétique qui présente la dynamique de la terre, de la troposphère et des océans, avec des couches de mélange peu profondes et de diffusivité profonde. Nous convertissons le modèle DICE – DOEClim d’une optimisation de politique en un modèle de simulation de politique afin de permettre une exploration simultanée de l’espace de la stratégie de réduction totale et des incertitudes paramétriques2 (voir Méthodes pour plus de détails). Bien entendu, nos conclusions dépendent de la capacité du modèle DICE – DOEClim à saisir la dynamique clé de la HES intégrée et seront inévitablement soumises aux limites de ce modèle. En dépit des progrès récents17, des analyses approfondies de sensibilité et d’incertitude de MAI plus complexes, qui donnent une meilleure représentation de la dynamique régionale et multisectorielle, peuvent poser des problèmes de calcul insolubles. Nous adoptons donc le modèle DICE parcimonieux et globalement agrégé. À titre d’exemple illustratif, nous supposons que le niveau global de réduction des émissions de CO2 augmente de manière exponentielle avec le temps, jusqu’à ce que la réduction totale soit atteinte. Il s’agit d’un cas particulier d’une forme fonctionnelle plus flexible utilisée dans des travaux antérieurs (11). Nous échantillonnons le taux de croissance exponentiel pour générer des trajectoires d’abattement qui atteignent l’abattement complet uniformément entre 2030 et 2150 (Fig. 1a et voir Méthodes).

Nous supposons que l’année 2030 est la première occasion pour le système énergétique de devenir totalement neutre en carbone (11) avec un taux de croissance relative maximum de réduction de 26,3% par an, alors que 2150 est supposé être la première année d’émissions négatives3. Les trajectoires d’émissions résultantes sont globalement conformes aux trajectoires de concentration représentatives et de trajectoires socio-économiques partagées (voir Figures supplémentaires 2 à 6). Nous avons échantillonné 24 sources différentes d’incertitude HES, telles que représentées dans DICE – DOEClim, ainsi que le taux de croissance de l’abattement global afin de générer 5 200 000 états alternatifs du monde (voir Méthodes pour plus de détails). Les 24 incertitudes HES couvrent la plupart des paramètres du modèle DICE – DOEClim, notamment ceux qui définissent la croissance démographique, la productivité totale des facteurs, les impacts économiques du changement climatique, le coût des technologies sans carbone, l’intensité de carbone sous-jacente de sensibilité du climat aux émissions (voir les tableaux supplémentaires 1 à 9 pour plus de détails). Nous utilisons les 5 200 000 états alternatifs du monde générés pour évaluer les compromis selon trois dimensions d’intérêt: dommages climatiques de valeur actuelle, coûts de réduction de valeur actuelle et réchauffement de l’atmosphère en 2100 (Fig. 1b). Comme prévu, le scénario de la Fig. 1b montre un compromis entre les dommages climatiques et les coûts de réduction: si de grands efforts de réduction sont entrepris, le réchauffement est généralement limité et les dommages sont faibles. Cependant, une action de réduction agressive ne garantit pas un avenir « tolérable » (Fig. 1c, d). Ici, «tolérable» est défini comme un monde où le réchauffement est limité à 2 ° C par rapport aux niveaux préindustriels ou inférieur en 2100, pour un coût de réduction de la valeur actuelle inférieur à 3% du produit mondial brut, les dommages pour la valeur actuelle étant moindres. moins de 2% du produit mondial brut. Ces contraintes de satisfaction spécifiques illustrent et concordent avec d’autres préférences climatiques / économiques futures abordées dans la littérature (12,18-21), et nos résultats restent cohérents dans une série relativement large de définitions alternatives de «tolérable» (voir Matériel supplémentaire). Les histogrammes de chacune des variables tracées à la Fig. 1b – d sont fourni dans la Fig. 7 supplémentaire.

La croissance rapide de la réduction ne garantit pas un réchauffement limité, ni n’exclut les coûts élevés de la réduction ni les dommages climatiques.
(Fig. 1c, d). Pour identifier les contrôles principaux pour chaque métrique d’intérêt sur la figure 1, nous effectuons une analyse de sensibilité globale (22) qui attribue la variabilité observée à différentes incertitudes paramétriques.
(voir section Méthodes). Les contrôles politiques et les paramètres paramétriques HES les plus importants pour les mesures agrégées dans le temps des dommages, des coûts de réduction et du réchauffement dépendent de la mesure considérée (Fig. 2a). Les dommages en valeur actuelle sont principalement contrôlés par les trois paramètres de la fonction de dommage climatique et du taux de croissance global de la réduction, alors que les coûts de réduction de la valeur actuelle sont presque entièrement contrôlés par le taux de croissance de la réduction. Il est important de noter que le principal contrôle sur le réchauffement à l’horizon 2100 est également le taux de croissance de la réduction, qui constitue un choix de société et non une incertitude exogène de HES. Ainsi, la question principale est de savoir si nous allons limiter le réchauffement, pas si nous pouvons le limiter. Il est important de déterminer si les métriques temporelles agrégées communément rapportées dans les figures 1 et 2a masquent une dynamique système importante et ce que cela implique pour interpréter les résultats des politiques de réduction. Par exemple, l’agrégation temporelle des coûts et des dommages résultant de l’escompte réduit la charge du changement climatique en une seule mesure, ce qui peut ne pas refléter de manière transparente l’ampleur de la charge réelle supportée par les générations futures. Travailler uniquement dans des termes actualisés et agrégés dans le temps représente un transfert implicite de coûts et de conséquences pour les générations futures non consentantes (23–25). Il est important de prendre en compte l’évolution des facteurs qui contrôlent les dommages climatiques, les coûts de réduction et le réchauffement au cours de la période de simulation 2020-2050 (Fig. 2b – d). Non seulement les facteurs de contrôle varient considérablement selon les mesures (comme dans la Fig. 2a), mais ils varient également considérablement dans le temps. Le coût de la réduction au cours des deux prochaines décennies (figure 2c) est presque entièrement contrôlé par le taux de croissance de la réduction, choix de société, alors que le réchauffement ressenti au cours de cette période (figure 2d) est presque entièrement contrôlé par la sensibilité au climat, qui est hors de notre contrôle. Cependant, dans les premières décennies du siècle prochain, ce classement va s’inverser et le réchauffement ressenti sera contrôlé principalement par les actions de réduction antérieures (Fig. 2c, d). Une croissance rapide de la réduction au cours des prochaines décennies sera coûteuse et ne modifiera en rien le climat éprouvé de ceux qui paient ce coût, mais déterminera en fin de compte le réchauffement des générations futures (Fig. 2b, d). Cette analyse quantifie le contrôle que nous exerçons sur le réchauffement futur, même à la lumière d’autres incertitudes, et met en lumière la gravité des décisions de réduction à court terme. D’après nos résultats (Fig. 2), l’intuition physique et les travaux antérieurs (26,27), nous savons que la sensibilité au climat et les mesures de réduction précoce sont des facteurs déterminants des conditions climatiques / économiques futures. Cependant, la rapidité avec laquelle les efforts de réduction à l’échelle mondiale doivent augmenter pour atteindre avec succès les fenêtres tolérables de la figure 1 est moins claire, compte tenu de toutes les autres incertitudes. Étant donné l’étendue des états du monde échantillonnés dans cette étude, il est utile d’évaluer la probabilité que nous parvenions d’atteindre un niveau tolérable de changement climatique. Plus simplement, un niveau de réduction donné a-t-il une forte probabilité de succès lorsqu’il est soumis aux incertitudes de la HES échantillonnées ?

Pour répondre à cette question, nous utilisons un modèle de régression logistique pour prédire la probabilité de parvenir à un avenir tolérable, en fonction de la sensibilité au climat et du taux de croissance de la réduction, facteurs déterminants influant sur les coûts, les dommages et le réchauffement (voir fig. 2).
et méthodes). La figure 3 présente l’éventail des voies de réduction permettant d’atteindre un avenir climat / économie tolérable avec une probabilité d’au moins 50% (appelées «voies de réduction robustes»), en fonction de trois niveaux de sensibilité au climat. Avec une sensibilité climatique très faible (optimiste) (Fig. 3a), la voie de la réduction vers un avenir tolérable est large et une réduction totale peut être atteinte au milieu du siècle, tout en maintenant une chance meilleure que 50% d’atteindre un climat tolérable. avenir économique. À mesure que la sensibilité au climat augmente (Fig. 3b, c), la voie vers un avenir climat / économique tolérable se rétrécit et, si la sensibilité au climat est supérieure à 3 (la médiane de la distribution supposée), la voie est probablement déjà fermée. Changer la définition de «tolérable» a un impact limité sur la largeur des filières de réduction (voir Matériel supplémentaire). Selon toutes les définitions de «tolérable» échantillonnées (et à notre sens large), nos analyses s’accordent pour dire qu’une croissance rapide de la réduction est nécessaire pour se protéger contre une sensibilité climatique élevée et augmenter nos chances d’obtenir un avenir tolérable. Conformément aux hypothèses classiques de DICE (3), cette analyse ne tenait pas compte des émissions négatives avant 2150, ce qui pourrait élargir la trajectoire de réduction à un avenir tolérable en permettant de sauver un monde de réduction lente par l’avènement d’une technologie émergente. Cependant, une politique qui enferme le monde dans le déploiement massif de nouvelles technologies non éprouvées pourrait bien représenter un pari irresponsable et inapproprié lorsque les conséquences de l’erreur sont potentiellement catastrophiques (28,29). Nous montrons que la croissance de la réduction doit considérablement augmenter au cours de la prochaine décennie en tant que condition essentielle pour la réussite d’un avenir climat / économique tolérable (comme le suggèrent d’autres (30)), mais que cette croissance en elle-même ne garantira pas le succès. Notre analyse simple montre que, pour parvenir à un avenir tolérable, nous devons également avoir la chance de vivre dans un monde peu sensible au climat. Le fait de ne pas augmenter rapidement la réduction de la pollution ne garantit quasiment pas l’échec dans un très large éventail de sensibilités climatiques. Nous montrons que notre génération a la responsabilité importante de veiller à ce que les générations futures aient un avenir tolérable. Cependant, le pari qui reste dépend de la sensibilité du climat et de la rapidité avec laquelle les promesses d’émissions négatives se matérialisent, mais nous montrons qu’une croissance rapide et immédiate de la réduction reste notre action la plus sûre.

____________________

NDLR : voir le scénario #GISOC sur @FrGisoc (ou en anglais : @GISOC_info)

____________________

Original text :

Robust abatement pathways to tolerable climate futures require immediate global action

J. R. Lamontagne   1*, P. M. Reed2, G. Marangoni   3,6, K. Keller   3,4 and G. G. Garner   5

Disentangling the relative importance of climate change abatement policies from the human–Earth system (HES) uncertainties that determine their performance is challenging because the two are inexorably linked, and the nature of this linkage is dynamic, interactive and metric specific1. Here, we demonstrate an approach to quantify the individual and joint roles that diverse HES uncertainties and our choices in abatement policy play in determining future climate and economic conditions, as simulated by an improved version of the Dynamic Integrated model of Climate and the Economy2,3. Despite wide-ranging HES uncertainties, the growth rate of global abatement (a societal choice) is the primary driver of long-term warming. It is not a question of whether we can limit warming but whether we choose to do so. Our results elucidate important long-term HES dynamics that are often masked by common time-aggregated metrics. Aggressive near-term abatement will be very costly and do little to impact near-term warming. Conversely, the warming that will be experienced by future generations will mostly be driven by earlier abatement actions. We quantify probabilistic abatement pathways to tolerable climate/economic outcomes4,5, conditional on the climate sensitivity to the atmospheric CO2 concentration. Even under optimistic assumptions about the climate sensitivity, pathways to a tolerable climate/economic future are rapidly narrowing. Policy discussions of climate change mitigation and adaptation benefit from estimates of the potential extent and timing of future climate change, and the potential damages and costs this change might induce. Providing decision-makers with these estimates is exceedingly difficult because the scientific community lacks a complete understanding of the complex interactions between human systems and the climate6. Integrated assessment models (IAMs) approximate these interactions in a computational framework7. IAMs have been used to create successive generations of global change scenarios that are ubiquitous in planning and evaluation applications across many disciplines, including the representative concentration pathways8 and shared socioeconomc pathways9. Recent work has considered the sensitivity of IAM results to HES uncertainties1 and structural model uncertainty across IAMs10, but little attention has been paid to the interaction between HES uncertainties and abatement policy11. Here we contribute a unified framework to evaluate the joint impact of HES uncertainties and abatement actions on climate–economic outcomes. By considering the evolution of sensitivities and impacts over century-scale periods, our framework elucidates important long-term HES dynamics, and identifies robust abatement pathways to achieve tolerable
climate/economic futures12 (that is, a tolerable policy window). We utilize an improved version of the Dynamic Integrated model of Climate and the Economy (DICE)3. DICE is a simple, though widely used13, IAM that links a global representation of the economy with a simplified climate emulator. We adopt DICE as a parsimonious and archetypal surrogate for more complex IAMs that represent multi-sector and regional dynamics, and are used to generate shared scenarios such as the representative concentration pathways and shared socioeconomic pathways (see Weyant14 for a review). Following previous work2,15 we improve the climate module in DICE by replacing it with the DOEClim model16. DOEClim is an energy-balance model that has representation of land, the troposphere and ocean dynamics, with shallow mixing and deep diffusivity layers. We convert the DICE–DOEClim model from a policy optimization to a policy simulation model to enable simultaneous exploration of the full abatement strategy space and parametric uncertainties2 (see Methods for details). Of course, our findings are subject to the ability of the DICE–DOEClim model to capture the key dynamics of the integrated HES and will inevitably be subject to the limitations of that model. Despite recent advances17, extensive sensitivity and uncertainty analyses of more complex IAMs that give a better representation of regional and multi-sector dynamics can pose intractable computational challenges. Thus, we adopt the parsimonious, globally aggregated DICE model. As an illustrative example, we assume the global CO2 emissions abatement level grows exponentially over time, until full abatement is achieved. This is a special case of a more flexible functional form used in earlier work11. We sample the exponential growth rate to generate abatement trajectories that achieve full abatement uniformly between 2030 and 2150 (Fig. 1a and see Methods). We assume that the year 2030 is the earliest opportunity for the energy system to become fully carbon neutral11 with a maximum relative abatement growth rate of 26.3% per year, whereas 2150 is assumed to be the first year of negative emissions3. The resulting emissions trajectories are broadly consistent with the representative concentration pathway and shared socioeconomic pathway trajectories (see Supplementary Figs 2–6). We sampled 24 different sources of HES uncertainty, as represented in DICE–DOEClim, along with the growth rate of global abatement to generate 5,200,000 alternative states of the world (see Methods for details). The 24 HES uncertainties cover most of the parameters of the DICE–DOEClim model, including those that define population growth, total factor productivity, economic impacts of climate change, the cost of carbon-free technologies, the underlying carbon intensity of the economy and the climate sensitivity to emissions (see Supplementary Tables 1–9 for details). We utilize the generated 5,200,000 alternative states of the world to evaluate trade-offs in three dimensions of interest: present value climate damages, present value abatement costs and the atmospheric warming in 2100 (Fig. 1b). As expected, the scenario cloud in Fig. 1b shows a trade-off between climate damages and abatement costs: if large abatement efforts are undertaken, warming is generally limited and damages are low. However, aggressive abatement action does not guarantee a ‘tolerable’ future (Fig. 1c, d). Here, ‘tolerable’ is defined as a world where warming is limited to 2 °C above pre-industrial levels or less in 2100, at a present value abatement cost of less than 3% of the gross world product, with present value damages less than 2% of the gross world product. These specific satisficing constraints are illustrative of and consistent with other preferred climate–economic futures discussed in the literature12,18–21, and our findings remain consistent across a relatively broad suite of alternative definitions of ‘tolerable’ (see Supplementary Material). Histograms for each of the variables plotted in Fig. 1b–d are
provided in Supplementary Fig. 7.

Rapid abatement growth does not guarantee limited warming, nor does it preclude high abatement costs or climate damages
(Fig. 1c,d). To identify the primary controls for each metric of interest in Fig. 1, we perform a global sensitivity analysis22 that attributes the observed variability to different parametric uncertainties
(see Methods section). The most important policy and HES parametric controls for the time-aggregated measures of damages, abatement costs and warming depend on the metric under consideration (Fig. 2a). Present value damages are primarily controlled by the three parameters of the climate damage function and the global abatement growth rate, whereas present value abatement costs are controlled almost entirely by the abatement growth rate. Importantly, the primary control on 2100 warming is also the abatement growth rate, which is a societal choice and not an exogenous HES uncertainty. Thus, it is mostly a question of whether we will limit warming, not whether we can limit warming. An important consideration is whether the common timeaggregated metrics reported in Figs 1 and 2a are masking important system dynamics, and what this implies for interpreting abatement policy results. For instance, temporal aggregation of costs and damages through discounting collapses the burden of climate change to a single metric, which may not transparently reflect the magnitude of the actual burden borne by future generations. Working solely in time-aggregated, discounted terms represents an implicit transfer of costs and consequences to unconsenting future generations23–25. It is important to consider the evolution of the factors that control climate damages, abatement costs and warming over the simulation period 2020–2150 (Fig. 2b–d). Not only do the factor controls vary widely across metrics (as in Fig. 2a), but they also vary widely over time. The cost of abatement in the next two decades (Fig. 2c) is almost entirely controlled by the growth rate of abatement, a societal choice, whereas the experienced warming over that time (Fig. 2d) is almost entirely controlled by the climate sensitivity, which is out of our control. However, in the early decades of the next century this ranking will flip and the experienced warming will be controlled mostly by the earlier abatement actions (Fig. 2c, d). Rapid abatement growth in the next decades will be costly and do little to change the experienced climate of those paying that cost, but will ultimately determine the warming experienced by later generations (Fig. 2b,d). This analysis quantifies the control we exert over future warming, even in light of other uncertainties, and brings the gravity of near-term abatement decisions into sharp focus. Based on our results (Fig. 2), physical intuition and previous work26,27, we know that climate sensitivity and early abatement action are key drivers of future climate/economic conditions. Less clear, however, is how rapidly global abatement efforts must increase to successfully achieve the tolerable windows in Fig. 1, considering all other uncertainties. Given the breadth of the states of the world sampled in this study, it is insightful to assess how likely we are to achieve a tolerable level of climate change. Put more simply, does a given level of abatement yield a high probability of success when subjected to the sampled HES uncertainties? To answer this question, we use a logistic regression model to predict the probability of successfully achieving a tolerable future, conditional on the climate sensitivity and the rate of abatement growth as the identified dominant factors influencing cost, damages and warming (see Fig. 2
and Methods). Figure 3 reports the range of abatement pathways that achieve a tolerable climate/economic future with a probability of at least 50% (termed ‘robust abatement pathways’), conditioned on three levels of climate sensitivity. At a very low (optimistic) climate sensitivity (Fig. 3a), the abatement pathway to a tolerable future is wide, and full abatement can be reached by mid-century, while maintaining a better than 50% chance of attaining a tolerable climate/economic future. As climate sensitivity increases (Fig. 3b,c), the pathway to a tolerable climate/ economic future narrows and, if the climate sensitivity is greater than 3 (the median of the assumed distribution), the pathway is probably already closed. Changing the definition of ‘tolerable’ has a limited impact on the width of the abatement pathways (see Supplementary material). Under all sampled (and in our view broad) definitions of ‘tolerable’, our analyses agree that rapid abatement growth is needed to hedge against a high climate sensitivity and increase our chances of achieving a tolerable future. In keeping with standard DICE assumptions (3), this analysis did not consider negative emissions before 2150, which might broaden the abatement pathway to a tolerable future by allowing a slow abatement world to be saved by the arrival of an emerging technology in the future. However, a policy that locks the world into the massive deployment of new, unproven technologies may well represent an irresponsible and inappropriate gamble, when the consequences of being wrong are potentially catastrophic28,29. We show that abatement growth must increase substantially in the next decade as one key condition for the successful achievement of a tolerable climate/economic future (as suggested by others30), but that this growth on its own will not guarantee success. Our simple analysis shows that, to achieve a tolerable future, we must also have the good fortune of living in a world with low climate sensitivity. Failure to rapidly increase abatement all but guarantees failure over a very wide range of climate sensitivities. We show that our generation has an important responsibility to ensure that coming generations have a tolerable future. It is still, however, a gamble that depends on how sensitive the climate turns out to be and how soon the promises of negative emissions materialize, but we show immediate rapid growth in abatement remains our safest course of action.

Opinion : Le nucléaire peut sauver le monde (NY Times)

https://www.nytimes.com/2019/04/06/opinion/sunday/climate-change-nuclear-power.html

Traduction Google :

L’expansion de la technologie est le moyen le plus rapide de réduire les émissions de gaz à effet de serre et de décarboniser l’économie.

Par Joshua S. Goldstein , Staffan A. Qvist et Steven Pinker

Drs. Goldstein et Qvist sont les auteurs de «Un avenir radieux: comment certains pays ont résolu le changement climatique et le reste peut suivre». Le Dr Pinker est professeur de psychologie à Harvard.

Alors que les jeunes demandent à juste titre de véritables solutions au changement climatique, la question n’est pas de savoir quoi faire – éliminer les combustibles fossiles d’ici 2050 – mais comment . Au-delà de la décarbonisation du réseau électrique actuel, nous devons utiliser une électricité propre pour remplacer les combustibles fossiles dans les transports, l’industrie et le chauffage. Nous devons répondre aux besoins croissants en énergie des pays les plus pauvres et étendre le réseau à un milliard de personnes qui manquent d’électricité. Et il faudra encore plus d’électricité pour éliminer l’excès de dioxyde de carbone de l’atmosphère d’ici le milieu du siècle.

D’où proviendra cette quantité gigantesque d’énergie sans carbone? La réponse populaire est uniquement les énergies renouvelables, mais ceci est un fantasme. L’énergie éolienne et solaire est en train de devenir moins chère, mais elles ne sont pas disponibles 24 heures sur 24, qu’il pleuve ou que le soleil brille, et des batteries qui pourraient alimenter des villes entières pendant des jours ou des semaines ne montrent aucun signe de matérialisation. Aujourd’hui, les énergies renouvelables ne fonctionnent qu’avec un combustible fossile.

L’Allemagne, qui a opté pour les énergies renouvelables, n’a que peu réduit ses émissions de dioxyde de carbone et, selon nos calculs, au taux d’ajout de l’énergie propre par rapport au produit intérieur brut en Allemagne, il faudrait plus d’un siècle pour que le monde se décarbonise, même si le pays n’était pas aussi en train de se retirer prématurément des centrales nucléaires. Quelques pays chanceux où l’hydroélectricité est abondante, comme la Norvège et la Nouvelle-Zélande, ont décarbonisé leurs réseaux électriques, mais leur succès ne peut être amplifié ailleurs: les meilleurs sites hydroélectriques du monde sont déjà dotés de barrages.

Il n’est donc pas étonnant qu’une réaction croissante à ces faits intimidants soit: «Nous sommes cuits».

Mais nous avons en fait des modèles éprouvés de décarbonisation rapide avec croissance économique et énergétique: la France et la Suède. Ils ont décarbonisé leurs réseaux il y a plusieurs décennies et émettent maintenant moins d’un dixième de la moyenne mondiale de dioxyde de carbone par kilowatt-heure. Ils restent parmi les endroits les plus agréables au monde et bénéficient d’une électricité beaucoup moins chère que l’Allemagne .

Ils l’ont fait avec l’énergie nucléaire. Et ils l’ont fait rapidement, en tirant parti de l’intense concentration en d’énergie des centrales nucléaires. La France a remplacé la quasi-totalité de son électricité à partir de combustibles fossiles par le nucléaire en quinze ans seulement ; Suède, en environ 20 ans. En fait, la plupart des ajouts d’électricité propre les plus rapides ont été historiquement les pays qui développent le nucléaire.

C’est une solution réaliste au plus grand problème de l’humanité. Les usines construites il y a 30 ans en Amérique, comme en France, produisent de l’électricité propre et bon marché, et l’énergie nucléaire est la source la moins chère en Corée du Sud. Les 98 réacteurs américains fournissent aujourd’hui près de 20% de la production d’électricité du pays. Alors, pourquoi les États-Unis et d’autres pays n’augmentent-ils pas leur capacité nucléaire? Les raisons sont économiques et la peur.

Les nouvelles centrales nucléaires coûtent extrêmement cher à construire aux États-Unis aujourd’hui. C’est pourquoi si peu sont en construction. Mais elles n’ont pas besoin d’être si coûteuses. La normalisation et la répétition sont la clé pour retrouver notre capacité perdue à construire des centrales nucléaires abordables. La premère produite dans la chaîne de montage est coûteuse – le développement du premier iPhone coûte plus de 150 millions de dollars – mais les gains de coûts sont considérables car ils sont construits en quantité et que les problèmes de production sont résolus.

Pourtant, comme le disait l’ ancien président de la Commission de réglementation nucléaire, alors que la France dispose de deux types de réacteurs et des centaines de types de fromage, aux États-Unis, c’est l’inverse. Au cours des dernières décennies, les États-Unis et certains pays européens ont créé des réacteurs de plus en plus complexes, dotés de plus en plus d’éléments de sécurité répondant aux craintes du public. De nouvelles conceptions uniques, des réglementations changeantes, des normes de construction et de chaîne d’approvisionnement et une génération perdue d’experts (au cours des décennies où la construction a été stoppée) ont conduit les coûts à des hauteurs absurdes.

Ces problèmes économiques peuvent être résolus. La Chine et la Corée du Sud peuvent construire des réacteurs à un sixième du coût actuel aux États-Unis. Avec la volonté politique, la Chine pourrait remplacer le charbon sans sacrifier la croissance économique et réduire les émissions mondiales de carbone de plus de 10%. À long terme, des dizaines de jeunes entreprises américaines développent des réacteurs de «quatrième génération» pouvant être produits en série, générant potentiellement de l’électricité à un coût inférieur à celui des combustibles fossiles. Si les activistes américains, les politiciens et les régulateurs le permettent, ces réacteurs pourraient être exportés vers le monde dans les années 2030 et 40, apaisant la soif d’énergie grandissante des pays pauvres tout en créant des emplois américains bien rémunérés. Actuellement, l’énergie nucléaire de quatrième génération a fait l’objet d’un rare accord bipartite au Congrès, ce qui en fait une politique américaine particulièrement attrayante pour faire face au changement climatique. Le Congrès a récemment adopté la Loi sur l’innovation et la modernisation de l’énergie nucléaire avec une grande grande marge. Les deux parties aiment l’innovation, l’entrepreneuriat, les exportations et les emplois.

Cette approche nécessitera un cadre réglementaire judicieux. Actuellement, écrit Richard Lester, ingénieur en génie nucléaire au MIT , une société proposant une nouvelle conception de réacteur est confrontée «à la perspective de devoir dépenser un milliard de dollars ou plus pour un processus de licence sans fin, en tout ou rien, alors que nous avons besoin de la part du gouvernement de cette transformation de l’énergie propre, avec une réglementation favorable, une approbation simplifiée, des investissements dans la recherche et des incitations qui éloignent les producteurs et les consommateurs du carbone.

Tout cela dépend toutefois du dépassement d’une crainte irrationnelle du public et de nombreux militants. La réalité est que le nucléaire est la forme d’énergie la plus sûre jamais utilisée par l’humanité. Les accidents miniers, les pannes de barrages hydroélectriques, les explosions de gaz naturel et les accidents de trains de pétrole tuent tous des personnes, parfois en grand nombre, et la fumée de la combustion du charbon les tue énormément, plus d’un demi-million par an.

En revanche, en 60 ans d’énergie nucléaire, seuls trois accidents ont alarmé le public: Three Mile Island en 1979, qui n’a tué personne; Fukushima en 2011, qui n’a tué personne (de nombreux décès sont dus au tsunami et certains à une évacuation en panique près de l’usine); et Tchernobyl en 1986, résultat de l’extraordinaire catastrophe soviétique, qui a tué 31 personnes dans l’accident et peut-être plusieurs milliers de personnes atteintes d’un cancer, à peu près le même nombre chaque jour, tué par les émissions de charbon . (Même si nous acceptions les affirmations récentes selon lesquelles les autorités soviétiques et internationales avaient dissimulé des dizaines de milliers de morts à Tchernobyl, le bilan de 60 années d’énergie nucléaire équivaudrait encore à environ un mois de morts liées au charbon.)

Les centrales nucléaires ne peuvent pas exploser comme des bombes nucléaires, et elles n’ont pas contribué à la prolifération des armes, grâce à des contrôles internationaux rigoureux: 24 pays ont le nucléaire mais pas les armes, alors qu’Israël et la Corée du Nord ont les armes nucléaires mais pas l’énergie.

Les déchets nucléaires sont compacts – le total américain pour 60 ans tiendrait dans un Walmart – et sont stockés en toute sécurité dans des fûts et des piscines en béton, devenant de moins en moins radioactifs. Une fois que nous aurons résolu le problème plus pressant du changement climatique, nous pourrons soit brûler les déchets comme combustible dans de nouveaux types de réacteurs, soit les enfouir profondément dans le sol. Il s’agit d’un défi environnemental beaucoup plus facile que les énormes déchets de charbon du monde, déversés régulièrement près des communautés pauvres et souvent chargés d’arsenic toxique, de mercure et de plomb qui peuvent durer éternellement .

Malgré sa sûreté démontrable, l’énergie nucléaire appuie sur plusieurs boutons psychologiques. Premièrement, les gens estiment le risque en fonction de la facilité avec laquelle on pense à des anecdotes telles que des accidents nucléaires bien connus. Deuxièmement, la pensée des radiations active l’état d’esprit du dégoût, dans lequel toute trace de contaminant souille tout ce avec quoi elle est en contact, malgré le fait que nous vivons tous dans une soupe de radiations naturelles. Troisièmement, les gens se sentent mieux s’ils éliminent un seul risque minuscule que de minimiser les risques de tous les dangers combinés. Pour toutes ces raisons, l’énergie nucléaire est redoutée alors que les combustibles fossiles sont tolérés, tout comme voler est effrayant même si la conduite est plus dangereuse.

Les opinions sont également motivées par nos tribus culturelles et politiques. Depuis la fin des années 1970, lorsque No Nukes est devenue une cause emblématique du mouvement vert, la sympathie pour le nucléaire est devenue, parmi de nombreux environnementalistes, un signe de déloyauté, voire de trahison.

Malgré ces défis, la psychologie et la politique peuvent changer rapidement. Alors que l’énormité de la crise climatique s’infiltre et que les économies de carbone provenant des énergies renouvelables ne s’additionnent pas, le nucléaire peut devenir le nouveau symbole vert. Protéger l’environnement et sortir le monde en développement de la pauvreté sont des causes progressives. Et les membres de la génération Y et ceux de la génération Z pourraient repenser les valeurs sacrées que leurs parents boomers ont laissées sans examen depuis que les Doobie Brothers ont chanté lors du concert de No Nukes en 1979.

Si le public et les politiciens américains peuvent faire face à de réelles menaces et surmonter leurs peurs sans fondement, nous pouvons résoudre le problème le plus pressant de l’humanité et laisser à nos petits-enfants un avenir radieux, caractérisé par une stabilité climatique et une énergie abondante. Nous pouvons renvoyer, une fois pour toutes, la prophétie auto-réalisatrice selon laquelle nous sommes cuits.

Joshua S. Goldstein , professeur émérite de relations internationales à l’American University, et Staffan A. Qvist , ingénieur en énergie suédois, sont les auteurs de «Un avenir radieux: comment certains pays ont résolu le changement climatique et peuvent suivre». Steven Pinker est professeur de psychologie à l’Université de Harvard et est l’auteur de «Enlightenment Now ».

The Times s’engage à publier diverses lettres à la rédaction. Nous aimerions savoir ce que vous pensez de cet article ou de l’un de nos articles. Voici quelques astuces . Et voici notre email: letters@nytimes.com .

Suivez la section Opinion du New York Times sur Facebook , Twitter (@NYTopinion) et Instagram .

Examen du rapport Pompili concernant la sûreté et la sécurité des centrales nucléaires françaises (Jacki GUERINOT)

 

EXAMEN DU RAPPORT POMPILI

concernant la sûreté et la sécurité des centrales nucléaires françaises

Par Jacki GUERINOT, Ingénieur en génie atomique

 

Une commission d’enquête du parlement sur la sûreté et la sécurité des réacteurs nucléaires a travaillé pendant 5 mois au début 2018 en vue de répondre aux préoccupations du public nées de l’accident de Fukushima et contribuer aux décisions prochaines concernant la PPE (programmation pluriannuelle de l’énergie) qui définira les choix énergétiques du pays pour les années 2019 à 2028. Le rapport Pompili, qui est le résultat de ces travaux, a été publié le 5 juillet 2018. Il propose 33 mesures pour améliorer à la fois la sûreté nucléaire et la sécurité nucléaire, dont les plus significatives sont

  • La publication d’un calendrier des centrales à arrêter et démanteler
  • Le renforcement du rôle de l’ASN en matière de sécurité
  • La mise en place d’une solution alternative au stockage des déchets radioactifs en profondeur
  • La limitation de la sous-traitance pour la maintenance des centrales
  • Le renforcement du contrôle parlementaire

 

Le présent document se propose d’analyser à la fois les préoccupations nées de l’accident de Fukushima et les mesures énoncées dans ce rapport, ceci sur la base de l’expérience acquise depuis la création du parc nucléaire. Il donne également un avis sur plusieurs questions techniques ayant soulevé des controverses au sein de la commission.

 

1 – L’incidence de la catastrophe de Fukushima

Premier accident d’une telle gravité survenu dans un pays démocratique et techniquement avancé, l’accident de Fukushima a vivement frappé les esprits et a déterminé la commission d’enquête à se rendre au Japon pour interroger exploitants et autorités.

A l’issue de ces échanges elle y a acquis la conviction qu’en matière d’accident nucléaire « l’impensable pouvait se produire », que le « pire n’est jamais à exclure » et qu’il fallait en conséquence durcir encore les exigences de sûreté pour le parc nucléaire français, les rapports de confiance entre autorités et exploitants étant notamment à l’origine de l’accident selon les Japonais.

Il faut toutefois remarquer qu’à Fukushima ce n’est pas l’impensable qui s’est produit. C’est après un séisme très fort, un tsunami de grande ampleur. Et ceci n’était pas impensable puisque des tsunamis aussi importants s’étaient déjà produits dans la région dans les siècles passés, mais que l’étude des dangers liés au site, exigée par les règles de sûreté avant la construction – au début des années 1970 – ne les avait pas suffisamment pris en compte. La centrale était en conséquence calée trop bas par rapport à la mer. Pendant les 40 ans écoulés depuis la construction, la compagnie exploitante TEPCO n’a eu aucune initiative pour modifier cette situation, même après le terrible tsunami survenu en 2004 à Banda Aceh en Indonésie. Il eut été suffisant pour que la catastrophe de Fukushima ne se produise jamais, de surélever dès 2004 un des diesels de secours de la centrale,  assurant ainsi une alimentation électrique de sauvegarde. Mais, deuxième règle de sûreté non respectée, on n’a pas fait le retour d’expérience après le tsunami de Banda Aceh. Il est vrai qu’il eut fallu à TEPCO une ingénierie spécialisée faisant en permanence le point de la sûreté comme c’est le cas dans les centrales françaises ou américaines.

Enfin, il y a encore beaucoup à dire sur ce qui s’est passé après la perte totale des alimentations électriques par submersion des diésels lors de l’accident. La fusion du cœur est survenue sur 3 de 4 réacteurs. Or, depuis 30 ans (accident de Three Mile Island en 1979 aux USA), les réacteurs américains et français étaient déjà équipés de recombineurs d’hydrogène pour absorber l’hydrogène produit par la fusion. Les 4 réacteurs japonais n’en avaient pas et l’hydrogène a explosé en détruisant les bâtiments (explosions vues en direct à la TV française). De plus, c’est parce que la pression dans les enceintes étanches des réacteurs due à la fusion risquait de détériorer définitivement le confinement qu’il a fallu faire des chasses d’air vers l’extérieur. Les réacteurs français possédaient depuis 25 ans pour cette occasion (procédure U5) un filtre spécial étudié par le CEA permettant de retenir les radioéléments, afin de protéger l’environnement. Ce n’était semble-t-il pas le cas à Fukushima où la chasse a contaminé une partie de la province.

On peut difficilement dire que cet accident illustre le fait que « l’impensable peut se produire ». L’impensable était de fait l’impréparation de TEPCO. Il existe en effet des règles dont les plus fondamentales ont été énoncées par l’autorité de sûreté américaine dès la fin des années 50 et qui ont ensuite été codifiées dans les regulatory guides de la NRC (Nuclear Regulatory Comission), obligeant par exemple les projets de centrales à :

  • prévoir une étude détaillant et prenant en compte les dangers liés au site,
  • enfermer l’îlot nucléaire dans une enceinte de confinement résistante et étanche en béton,
  •  prendre en compte le retour d’expérience de tout incident ou accident survenu par ailleurs dans le monde après la construction.

 

Ces règles générales ont été appliquées en France dès lors qu’EDF a acheté la licence Westinghouse des réacteurs à eau pressurisée en 1968, et auraient dû l’être à Fukushima puisque les réacteurs, certes d’un principe différent à eau bouillante, y étaient construits par General Electric. Elles n’ont visiblement pas été appliquées par TEPCO qui a exploité sa centrale nucléaire comme une simple centrale classique.

 

Il faut d’ailleurs souligner que c’est dès 1977, par la lettre SIN 1076/77 que l’ASN, l’Autorité de Sûreté Nucléaire Française, a imposé à EDF de prendre en compte les situations « hors dimensionnement » de perte totale de la source froide et de perte totale des alimentations électriques (procédures H1 et H3) montrant par là qu’elle se préoccupait de « l’impensable » et ne se bornait pas à une approche probabiliste. Les matériels correspondants ont été mis en place dès le début des années 80 sur les sites français comprenant notamment une turbine à gaz fournissant l’alimentation électrique dite « d’ultime secours ».

 

Quant à conclure comme le rapport Pompili que la « confiance ne suffit pas », cela va sans dire. Le nombre d’inspections faites chaque année par l’ASN, voisin de 20 inspections par an et par centrale, dont une partie inopinées, suffirait à montrer que la confiance n’est accordée en France qu’après contrôle. Une centrale française arrêtée à 40 ans aura ainsi subi 600 à 700 inspections de l’ASN, sans compter les inspections internes à EDF représentant environ 2000 journées d’inspection par des spécialistes.

 

On peut néanmoins s’étonner que les interlocuteurs japonais n’aient pas signalé à la commission d’enquête les lacunes graves relevées dans les dispositions techniques de sûreté de TEPCO et qui ont mené à cet accident catastrophique, se limitant à des réflexions- d’ailleurs essentielles- sur les relations de confiance excessives qui avaient existé entre autorité de sûreté et exploitant.

 

On peut également regretter que l’emballement médiatique qui a suivi l’accident et en a altéré la signification, n’ait pas été suffisamment pris en compte par la commission d’enquête, alors que les informations télévisées amenaient à confondre-et continuent de le faire- les effets catastrophiques du tsunami (18 000 morts dans la région de Fukushima) et ceux de l’accident nucléaire qui a suivi : aucun décès par irradiation parmi les opérateurs restés à leur poste et les liquidateurs intervenus après.

 

A l’issue de cet examen, on peut conclure que la signification donnée par le rapport à cet accident est totalement erronée. Il ne s’agit pas d’un risque nucléaire qui serait imparable. L’accident est en vérité le résultat d’impasses poursuivies pendant 40 ans et correspondant à un choix stratégique de la direction de TEPCO d’abaisser les coûts de revient, sans s’être toutefois donné les moyens suffisants en ingénierie spécialisée pour contrôler en permanence l’état de sûreté de la centrale.

 

2 – Examen des mesures proposées par la commission

2.1 Publication d’un calendrier des centrales à arrêter et démanteler

Concernant la décroissance de la consommation électrique annoncée, la courbe donnée dans le rapport n’est guère convaincante : une décroissance de 486 TWh à 478 TWh en 6 ans n’est pas ce qui peut permettre de fermer des centrales nucléaires alors même que les grands constructeurs automobiles du monde entier se préparent à lancer la fabrication des voitures électriques et qu’il faudra reporter le fret routier sur le rail, électrique lui aussi. De plus, le dérèglement climatique déjà observé risque fort d’augmenter la consommation électrique d’été due aux climatiseurs.

Il faudra aussi expliquer à l’abonné français pourquoi la centrale de Beaver Valley, mise en service en 1976 et qui a servi de modèle à Fessenheim mise en service en 1978, pourra fonctionner jusqu’en 2036 alors que Fessenheim devra être arrêtée et démantelée dès 2018, à l’âge de 40 ans et non de 60 ans.

Une difficulté pour cette explication sera que l’ASN avait autorisé Fessenheim en 2017 à fonctionner 10 ans de plus –jusqu’à 50 ans- à l’issue de la 4e visite décennale, parce dans un état très satisfaisant. On se privera ainsi sans raison, par le démantèlement brusqué de Fessenheim, d’une machine capable de produire au moins pour 8 milliards d’euros de vente d’électricité entre 2019 et 2028.

2.2 Renforcer le rôle de l’ASN en matière de sécurité nucléaire

La sécurité des centrales nucléaires est du ressort du SGDN (Secrétariat Général de la Défense Nationale) dont le rôle est d’organiser la protection des « points sensibles »vis-à-vis des sabotages. La sécurité sur le terrain est assurée par 22 PSPG (Pelotons Spécialisés de Protection de la Gendarmerie) regroupant un millier de militaires entraînés comme le GIGN. De plus, le COSSEN (commandement spécial pour la sécurité Nucléaire) a pour rôle d’enquêter sur les personnels devant accéder dans les centrales.

Il n’y a eu jusqu’à présent aucun sabotage sur aucun site, mais 2 pénétrations d’organisations écologistes et 13 pénétrations de Greenpeace avec médiatisation pour, soi- disant, prouver la nécessité d’un renforcement de la sécurité. En effet, la gendarmerie se concentre sur la défense de l’ilot nucléaire sans empêcher les pénétrations écologistes sur les sites, ceci pour ne pas risquer des accidents (tirs réflexes). Le fait que des militants viennent poser un calicot sur le béton à l’extérieur d’un bâtiment réacteur n’a en effet aucune signification quant au danger d’attentat puisque c’est au minimum un mètre de béton très ferraillé qui les sépare des systèmes de sûreté placés à l’intérieur.  .

Les métiers de l’ASN et du SGDN étant bien définis et  distincts, et l’importance des locaux et systèmes étant définie selon les critères de sûreté donnés par l’ASN, il n’est pas certain que celle-ci puisse apporter un complément utile aux mesures militaires prises par le SGDN.

2.3 Solution alternative au stockage en profondeur des déchets

C’est le Parlement lui-même qui, par la loi du 31/12/1991, avait défini les grandes orientations d’un programme de recherches sur la conservation de déchets radioactifs à vie longue et haute activité. Les recherches avaient alors été confiées au CEA et à l’ANDRA en collaboration avec le CNRS et les organismes de recherche américains, finlandais et suédois. Elles concernaient trois possibilités : le stockage en couches profondes, la transmutation nucléaire, et le stockage en surface. Une commission nationale d’évaluation (CNE) instituée par la loi a remis chaque année un rapport d’évaluation au gouvernement jusqu’au rapport final déposé en 2006.

Le stockage en couche profonde piloté par l’ANDRA (projet CIGEO à Bure) prévoit que la conservation se fera sous 3 barrières : la première par intégration dans un verre, la deuxième constituée par un conteneur acier inox, la troisième barrière étant constituée par la couche d’argile de 150 m surplombant les canaux de stockage horizontaux. La réversibilité du stockage est assurée afin de récupérer les conteneurs quand les recherches menées par le CEA sur la transmutation permettront de réduire la radioactivité.

Le stockage en surface ayant été étudié et non retenu, le stockage en couche intermédiaire suggéré par le rapport pourrait-il apporter un bénéfice par rapport au stockage en couche profonde, ou… une plus grande probabilité d’infiltration d’eau et de résurgence en surface des radioéléments ?

2.4 Limitation de la sous-traitance pour la maintenance

Le manuel d’assurance-qualité d’EDF distingue la réalisation qui peut être sous-traitée, le contrôle assuré par un chef de travaux EDF, qui est obligatoire et implique son auteur autant que la réalisation, et la surveillance réalisée par un service spécialisé d’EDF qui vérifie par prélèvement que les contrôles sont faits.

Ce schéma est respecté même avec un étage de sous-traitance en plus impliquant que le contrôle soit réalisé par un sous-traitant. Le chef de travaux EDF qui a confié le contrôle au sous-traitant, restant responsable des travaux confiés sous son autorité, n’a toutefois pas de raison de perdre en compétence.

S’agissant de la possibilité que des candidats à l’attentat se glissent dans l’effectif des entreprises sous-traitantes, il faut rappeler que le filtrage des personnes habilitées à travailler sur un site nucléaire est réalisé par le COSSEN qui centralise les enquêtes en croisant 9 fichiers (notamment identification des retours de Syrie et des cas de radicalisation).

2.5 Renforcement du contrôle parlementaire

L’ASN, appuyée sur les moyens considérables du CEA,  fixe les critères de sûreté et l’EDF s’y conforme. l’ASN a tout pouvoir pour arrêter l’installation si elle le juge nécessaire.

Des inspections sont réalisées tant par l’ASN que par EDF en interne.

Des commissions locales d’information réunissant des citoyens suivent l’actualité dans toutes les centrales à travers de nombreuses réunions.

Il serait déraisonnable, voire démobilisateur, d’ajouter un étage supplémentaire de surveillance.

 

3 – Commentaires sur les discussions en commission notées par le rapport

 

3.1 Evaluation relative des accidents industriels : Le pire accident industriel survenu dans le monde n’est pas nucléaire mais chimique. C’est celui de Bhopal, en Inde, survenu en 1984 et dû à un nuage de gaz toxique répandu sur la ville après un incident survenu à l’usine de pesticides et qui a causé dans l’immédiat 3500 morts et bien plus encore par la suite.

Les barrages hydroélectriques, présentés aujourd’hui comme une solution recommandée aux problèmes énergétiques, ont occasionné dans le passé par leur rupture des accidents également catastrophiques avant que les méthodes actuelles de construction et de surveillance en service aient été généralisées. C’est le cas de l’accident de Malpasset, en amont de Fréjus, qui a causé la mort de 423 personnes en 1959 suite à la vague géante produite par l’irruption dans la vallée de 50 millions de tonnes d’eau après rupture de ce barrage destiné à l’irrigation.

3.2 Problèmes posés par la cuve de Flamanville 3

Il n’y a pas complaisance de l’ASN vis-à-vis des intérêts d’EDF dans la décision prise par l’ASN d’accepter la cuve de Flamanville 3 à condition de remplacer à terme le couvercle de cuve par un autre couvercle répondant exactement aux critères de teneur en carbone.

 

En effet, la fragilisation de l’acier induite sous le flux neutronique quand les limites de teneur en carbone sont dépassées n’apparaît que sur de longues périodes. En acceptant la cuve, mais en prescrivant d’en changer le couvercle à la prochaine révision décennale, l’ASN abrite sa décision sur la lenteur du phénomène et sur les résultats des contrôles métallurgiques qui auront lieu dans l’intervalle.

 

4 – CONCLUSION

 

L’émoi provoqué dans l’opinion mondiale par l’accident de Fukushima se révèle totalement injustifié quand on examine en détail le cheminement de l’accident et que l’on prend conscience des impasses techniques tentées par la société TEPCO dans sa stratégie d’exploitation.

.

L’emballement médiatique qui tend à faire l’amalgame entre les morts du tsunami et ceux de l’accident nucléaire ne doit pas non plus abuser nos députés. Les 18.000 morts de la province sont ceux du tsunami et le nombre de victimes de l’accident nucléaire reste nul  ( 4 morts sur le site directement dus au séisme ou au tsunami) , résultat dû à tant à la qualité des opérateurs qu’à l’efficacité des mesures prises par la sécurité civile pour protéger la population. Le problème persistant étant l’existence d’une zone interdite.

 

 Il serait consternant dans ces conditions d’arrêter des centrales nucléaires en France à cause d’un accident nucléaire survenu à l’étranger, sur des réacteurs de principe différent, dont les raisons sont des manquements clairement identifiés, et qui par lui-même n’a pas fait de victimes à ce jour.

 

On doit craindre cependant que l’émotion suscitée par cet accident ne conduise à des erreurs dans les choix énergétiques de notre pays qui vont être faits pour 10 ans à la fin 2018. Ceci alors que le véritable et seul problème est de lutter contre le dérèglement climatique créé par le CO2 et contre la pollution de l’air créée par les particules fines et les gaz de combustion. Le véritable enjeu est donc de réduire au plus vite la consommation des produits pétroliers et du charbon. Et les centrales nucléaires sont indispensables pour parvenir à cet objectif alors que les énergies renouvelables sont pénalisées car intermittentes.

 

L’avance acquise en France dans le domaine nucléaire doit par ailleurs être maintenue, alors que des pays neufs se saisissent de cette source d’énergie pour s’assurer un développement rapide, afin d’empêcher que se répande dans le monde ce qu’on a pu appeler une « sûreté low cost ».

 

 

Le 30 août 2018,  Jacki GUERINOT,  anciennement inspecteur au parc EDF, anciennement chargé de mission à la Délégation aux Risques Majeurs (risques technologiques).

La vaste supercherie de l’excès de cancer en Corse qui serait du à Tchernobyl,

…ou comment interpréter des statistiques pour défendre une cause.
.
Paris, 23 juillet 2013 (Donc avant la prise de position officielle de notre ministre)
Une enquête sur l’impact de Tchernobyl en Corse a été enfin conduite et les politiques se sont exprimés sur le sujet. Sans remettre en cause les résultats obtenus en cours de l’étude, nous sommes très surpris des conclusions qui en ont été tirées : les données et graphiques ne démontrent pas du tout un lien entre l’AUGMENTATION des incidences de maladies thyroïdiennes en Corse et Tchernobyl, mais démontrent bien autre chose.

Nous sommes vraiment étonnés que des politiques avisés comme le Président Giacobbi aient emboîté le pas à Madame Michèle Rivasi pour conclure à un lien manifeste. En effet, les données montrent une augmentation progressive des maladies thyroïdiennes, mais d’une part, cette augmentation a bien lieu dès 1984, soit plusieurs années avant que l’on puisse imaginer un lien avec l’exposition aux faibles doses dues à Tchernobyl, sauf exceptions individuelles toujours possibles, et d’autre part, l’erreur statistique est telle qu’il est impossible de conclure (comme pour les études précédentes).

Et pour cause ! les doses infinitésimales ne peuvent avoir aucun effet sur les humains, autres que nocébo, et c’est là que cette publication est scandaleuse.

Si les détails vous intéressent, nous vous donnons ci-dessous notre propre analyse et les références d’une analyse critiques des conclusions de cette étude.

En tant que scientifiques, mais aussi électeurs et militants politiques, nous osons espérer que cela incitera les commentateurs à une plus grande prudence et conduira à améliorer les conclusions politiques que les membres de l’Assemblée territoriale seraient susceptibles de tirer de cette étude pour l’avenir de la Corse.

Pour le RESSEC, Stephan Savarese
—————————————————————————–

Analyse résumée: dans le rapport final de l’étude :

Source: http://www.corse.fr/Consultez-le-rapport-final-relatif-a-l-enquete-epidemiologique-retroactive-concernant-les-consequences-du-nuage-de_a4221.html

apparaissent les figures ci-dessous. Elles résument bien les résultats de l’étude:

1. la période d’étude commençant en 1983, on ne dispose pas de données fiables sur une période significative avant l’accident. Les données de l’année 1983 sont particulièrement édifiantes. Si elles sont fiables, alors l’incidence augmente dès 1984 et 1985. Comment l’imputer à Tchernobyl? En revanche, c’est la montée en puissance des centrales au fuel lourd de Lucciana et Vazziu !!! Ou bien est-ce la mise en place ou le renforcement d’un système de surveillance sanitaire en Corse? Ou bien encore l’évolution de l’exposition de la population au soleil en montagne (figure ci-jointe phase4.png) ?

2. lorsque l’étude montre une augmentation du risque, aucune barre d’erreur ne figure sur les graphiques. En revanche, lorsque les résultats démontrent une baisse, une barre d’erreur d’amplitude supérieure aux données est ajoutée au graphique ! Cela viole les règles élémentaires d’une présentation objective des données: pourquoi avoir omis les barres d’erreurs lorsque les indicateurs augmentent et les avoir laissées lorsqu’ils baissent ?
Exemples: figures phase1.png (adultes) et phase2.png (enfants) ci-dessous.
3. lorsque l’étude ne montre aucune augmentation du risque, elle est assortie de commentaires assurant du contraire !
Exemple: figure 3 ci-dessous cancers.jpg

L’honnêteté scientifique est bafouée par ces modes de présentation. Un rappel des études précédentes, qui recensent des données acquises depuis 1973, aurait été utile. On y voit clairement que la détection des maladies thyroïdiennes a augmenté à un rythme quasiment constant sur la période 1973-1984. Puis ce rythme a ralenti, tout en continuant de progresser à la faveur des améliorations des dispositifs de dépistage. Cette étude ne remet absolument pas en cause cette conclusion, malgré les données supplémentaires recueillies.
Par rapport aux études précédentes, le recueil de témoignages locaux est une avancée significative, mais l’incertitude statistique reste trop importante. Dans les études précédentes, l’incertitude statistique a aussi diminué avec le temps, ce qui sera probablement le cas si l’on décide de compléter les travaux engagés en les soumettant aux règles professionnelles strictes du processus scientifique: revue contradictoire par des pairs, avis des autorités compétentes, académies de Médecine et des Sciences, etc.

– analyse détaillée:
http://www.rue89.com/2013/07/16/nuage-tchernobyl-lenquete-corse-completement-fumeuse-244265

– commentaires sur internet: http://www.corsenetinfos.fr/Tchernobyl-La-preuve-corse-d-un-mensonge-d-Etat_a4037.html?com#com_3783214

Figure 1 : Phase 1 (adultes)

Figure 2 : Phase 2 (adultes)

Figure 3 : Cancers

Figure 4 : Evolution