12/02/2023 (2023-02-12)
Par Paul Deheuvels, Membre de l’Institut
paul.deheuvels@sfr.fr
Présentation, Société de Calcul Mathématique SA, 9 février 2023
1. Le dogme officiel du carbone émerge
L’idée que les émissions de CO2 dues à la combustion de combustibles fossiles (charbon, pétrole, gaz, lignite…) contribuent à augmenter les températures terrestres est due au Suédois Svante Arrhenius, prix Nobel de chimie 1903. Dans son livre majeur1, il affirma que le CO2 fait monter les températures par effet de serre, et ne vit que des avantages, tant à l’élévation des taux atmosphériques de CO2, qu’à l’augmentation des températures. Les thèses d’Arrhenius, longtemps restées dans l’oubli, ont été reprises dans les années 50 par l’océanographe américain Roger Revelle2. Ce dernier montra en 1957 que l’essentiel du CO2 d’origine anthropique (dû à l’activité humaine) était absorbé par les océans, et n’influait qu’à la marge au réchauffent planétaire. Il émit la conjecture que le taux de CO2 atmosphérique pourrait basculer vers une augmentation soudaine, propre à faire monter les températures, si la consommation industrielle de combustibles fossiles croissait brutalement, au point de ne plus être compensée par l’absorption océanique. Revelle continua à soutenir la thèse d’un réchauffement climatique dû aux émissions industrielles de CO2, en convertissant à ses idées le futur vice-président des États-Unis Al Gore, qui fut son élève à l’université d’Harvard de 1967 à 1969. Les idées de Revelle restèrent lettre morte du fait que, contrairement à ses prédictions, l’évolution des températures de 1950 à 1975 fut orientée à la baisse3. La présence d’aérosols d’origine volcanique dans l’atmosphère a, peut-être, compensé l’influence des émissions de CO2, et ce, durant un quart de siècle. Jusqu’en 1987, la croyance majoritaire des scientifiques était que le monde se dirigeait vers une nouvelle glaciation. C’est ainsi qu’en 1983, le climatologue britannique Hubert Lamb4, dans la première édition de son livre sur le climat, prévoyait une baisse annuelle des températures de -0,15 °C, jusqu’en 2015. Si cette prédiction s’était avérée exacte, de 1983 à 2023, on aurait observé en 40 ans une baisse des températures colossale5 de -6 °C (de -4,8 °C en se limitant à l’horizon de 2015). La perspective du nouvel âge glaciaire qui en aurait découlé ne pouvait qu’affoler les experts américains, qui ont mis en place plusieurs groupes de travail gouvernementaux6 destinés à étudier ces questions.
C’est ainsi que, de manière paradoxale, l’intérêt des autorités américaines pour le réchauffement climatique fut issu de la crainte d’un refroidissement majeur (qui ne s’est jamais produit, heureusement).
Dès 1987, plusieurs commissions d’étude sur le climat étaient opérationnelles aux États-Unis, dont le Goddard Institute de la NASA. On consultera à ce sujet les commentaires historiques du Ch.4 du livre d’Olivier Postel Vinay7, et ceux du Ch.2 du livre de 2021 de Christian Gérondeau8.
Le point de bascule dans l’opinion américaine eut lieu en 1988 où les États-Unis connurent la pire sécheresse caniculaire observée depuis le « Dust Bowl » de 1930. Aux USA, l’été 1988 fut torride, avec un pic de chaleur le 25 juin coïncidant avec l’audition par le Congrès des États-Unis du climatologue en chef de la NASA (National Aeronautics and Space Administration), James Hansen. Ce dernier dirigeait, depuis 1981, le Goddard Institute for Space Studies [GISS], au sein de la NASA. Hansen avait une formation d’astronome, et avait émis la thèse que les températures très élevées (460 °C) de la planète Vénus étaient dues entièrement aux fortes concentrations de CO2 présentes dans son atmosphère (il y a 250 000 fois plus de CO2 dans l’atmosphère de Vénus que sur la Terre). Il s’imaginait que l’augmentation des taux de CO2 dans l’atmosphère terrestre pourrait aboutir, comme pour Vénus, et toutes proportions gardées, à des températures excessives. En juin 1988, alors que les climatiseurs n’arrivaient pas à réguler la température dans la salle de réunion du Congrès des États-Unis, Hansen n’eut pas de peine à convertir ses auditeurs aux thèses de Revelle, à savoir de l’existence d’un réchauffement climatique brutal dû aux émissions industrielles de CO2. Notons qu’aucune canicule ne fut constatée en Europe durant cette période, et que ces événements météorologiques extrêmes furent limités au continent américain. Hansen avait perdu toute prudence scientifique, en affirmant, notamment, devant les membres du Congrès « qu’il était certain à 99 % sur la base des 2000 stations d’enregistrement dans le monde, que les gaz à effet de serre, et notamment le CO2, étaient à l’origine du réchauffement ». Le fait qu’il est impossible de prouver comme de réfuter de telles assertions atteste clairement du caractère dogmatique de la « religion du climat ». Celle-ci sévit depuis l’origine comme l’une des plus grandes erreurs que l’humanité ait connues, avec des conséquences incalculables.
La machine était en marche. Elle avait été préparée en 1985 par la Conférence de Villach (Suisse), sous l’égide de l’Organisation Météorologique Mondiale [OMM] et du département de l’environnement des Nations Unies [PNUE-UNEP] dont le but affiché était d’« étudier le rôle du CO2 et des autres gaz à effet de serre sur les variations du climat ». Les organisations mondiales étaient alors influencées par des personnalités comme le météorologiste suédois Bert Bolin et l’homme d’affaires canadien Maurice Strong. Bert Bolin fut l’animateur principal de la Conférence de Villach qui prédit9 une élévation probable de la température de 4,5 °C dans la première moitié du XXIe siècle, assortie à d’une élévation des océans de 1,5 m. Elle conclut à l’urgence de « mettre en œuvre une politique internationale de réduction des émissions de gaz à effet de serre destinée à minimiser les changements climatiques et la montée des eaux marines ». Maurice Strong, quant à lui, était un autodidacte complet, ayant arrêté ses études à 14 ans et fait fortune dans l’industrie pétrolière. Partisan d’un gouvernement mondial, proche de David Rockefeller de la Commission Trilatérale, du Groupe de Bilderberg et du Club de Rome, il se trouva à 44 ans mis à la tête du Programme des Nations Unies pour l’Environnement (United Nations Environment Program) [PNUE-UNEP], qu’il quitta en 1983 pour diriger la Commission Mondiale sur l’Environnement et le Développement, mieux connue sous le nom de « Commission Brundtland10 », dans laquelle il retrouva Bert Bolin. Le 30 mars 1987, sous l’influence de Maurice Strong, était publié le « Rapport Brundtland » qui affirmait, sans preuve, que « le recours aux combustibles fossiles pourrait, dès le début du XXIe siècle, avoir suffisamment augmenté la température moyenne de la planète pour bouleverser les zones de production agricole, inonder les villes côtières du fait de l’élévation du niveau de la mer, et mettre à mal les économies nationales ». Le rapport Brundtland affirmait, de surcroît, « qu’une action internationale vigoureuse était nécessaire pour réduire les volumes de CO2 émis par l’usage des combustibles fossiles ».
Comme on peut le constater par ces faits, dès 1988, s’est installée une « religion du climat », basée sur des prévisions alarmistes invérifiables :
- la température allait monter de +4 °C à +6 °C d’ici 2100 (un horizon suffisamment lointain pour rendre cette prévision invérifiable) ;
- le niveau de la mer allait monter de plusieurs mètres d’ici 2100 ;
- l’ensemble de ces événements serait provoqué par le rejet dans l’atmosphère de CO2 issu de la combustion des « combustibles fossiles ».
Force est de constater que les organismes internationaux au sein de l’ONU n’ont fait que répéter sans preuve les affirmations (1-2-3) qui ont été à chaque fois démenties par les observations.
Nous ne parlerons pas ici des mécanismes naturels (indépendants des rejets anthropiques de CO2) responsables de l’évolution du climat. On peut citer, parmi ceux-ci, les cycles d’activité solaire, comme les cycles de Milankovitč, qui expliquent (en partie) les variations du climat par les variations périodiques de l’excentricité, de l’inclinaison et de la précession de l’orbite terrestre autour du soleil11. D’autres facteurs sont le cycle de Schwab (d’une durée de 11 ans), et les cycles séculaires de Gleissberg. On notera que le petit âge glaciaire s’est produit pendant l’occurrence du grand minimum de Maunder (de 1645 à 1715) durant lequel l’activité solaire fut réduite, avec peu de taches solaires présentes. L’ensemble de ces mécanismes naturels, en association avec les rejets dans l’atmosphère de cendres volcaniques et de SO2 créant des aérosols diminuant l’ensoleillement (et faisant baisser les températures) font paraître les thèses du GIEC comme un salmigondis primitif.
Il est parfaitement clair que le fait de prendre comme seule cause des variations climatiques les rejets anthropiques de CO2 est manifestement contraire à la vérité. Parmi les livres majeurs décrivant les mécanismes naturels de l’évolution du climat, il faut citer, tout particulièrement, l’ouvrage best-seller de Fred, S. Singer et Dennis T. Avery, qui s’est vendu à des centaines de milliers d’exemplaires, depuis sa publication en 2007. Son titre se passe de commentaires : « Unstoppable global warming every 1500 years », Rowman & Litltlefield Publishers, New York.
Ceci étant, le fondement de la « religion du climat » évoquée plus haut, a abouti, en novembre 1988 à la naissance du GIEC-IPCC12, dirigé, durant les 9 années suivantes par Bert Bolin, qui proclama sans réserve le dogme officiel attribuant le réchauffement climatique à l’activité humaine par le biais de rejets de « gaz à effet de serre » (principalement de CO2). L’historique de cette construction administrative est décortiqué dans les livres de Jean-Michel Bélouve13 et Christian Gérondeau (2021)14. Officiellement, le GIEC fut créé à la demande du G7/815 réuni du 19 au 21 juin 1988 à Toronto (Canada). La déclaration économique ayant suivi cette rencontre a requis la « création d’une commission intergouvernementale sur les changements climatiques mondiaux, placée sous les auspices du Programme des Nations Unies sur l’Environnement et de l’Office Mondial de Météorologie ». Les artisans politiques de la création du GIEC au sein du G7/8 furent Ronald Reagan, président des Etats Unis, agissant dans la lignée du Rapport Hansen présenté en juin 1988 devant le Congrès des Etats Unis, et Margaret Thatcher, premier ministre de la Grande Bretagne. Cette dernière menait alors une guerre totale contre l’exploitation du carbone fossile, et plus spécifiquement contre les syndicats de mineurs de charbon. Cette lutte fut émaillée par la grande grève des mineurs de 1984-85 et le démantèlement des mines anglaises qui s’en suivit. Aux côtés de Ronald Reagan, Mme Thatcher a orienté le développement initial du GIEC vers la recherche de la culpabilité du carbone dans l’évolution du climat. Or, comme nous le verrons plus loin, celle-ci est toute relative16. Par la volonté de Ronald Reagan et de Margaret Thatcher, le GIEC n’est donc pas un organisme à dominance scientifique. Il est contrôlé par les représentants des états, et ses avis demeurent dépendants des gouvernements qui le subventionnent.
Peu après la fondation du GIEC, l’Organisation des Nations Unies créa un organisme officiel associé au GIEC, la CCNUCC (Convention Cadre des Nations Unies sur les Changements Climatiques). Cet organisme réunit chaque année depuis 1995 les représentants des états (193 en 2022) composant les Nations Unies dans des « COP » (Conference of Parties) destinées à encadrer les engagements des états sur le changement climatique. Le GIEC lui-même publie des rapports d’évaluation (Assessment Report [AR]). Les premiers de ceux-ci furent publiés en 1990 (AR1, complété en 1992), 1995 (AR2, révisé en 1998) et 2001 (AR3). Les quatrième, cinquième et sixième rapports d’évaluation furent publiés, respectivement en 2007 (AR4), 2013-2014 (AR5), et 2021-2022 (AR6). À ces rapports généraux s’ajoutent des rapports spéciaux [SR]. Le dernier de ceux-ci, le SR15, publié en 2019, a été approuvé en 2018 par les 193 gouvernements composant l’ONU. Il comprend plusieurs affirmations sans preuve, dont nous reprenons les principales. Il envisage deux horizons pour une élévation de température de +1,5 °C ou +2 °C en 2100, par rapport à la période de référence (dite préindustrielle) de 1850-1900. Le rapport SR15 estime que le réchauffement observé jusqu’en 2016 a été de +0,87 °C ≈ +0,9 °C. Une simple soustraction montre que les deux hypothèses du GIEC correspondent à des élévations de température, respectivement, de 0,6 °C et 1,1 °C, en 2100 par rapport à 2023. Dans le 1er cas, il prévoit une élévation du niveau des océans en 2100 comprise entre 26 et 77 cm. Dans le 2e cas, cette élévation serait comprise entre 36 cm et 87 cm. Ces chiffres paraissent démesurément pessimistes. Dans l’hypothèse maximaliste, retenue par S. E. Koonin17, d’une montée du niveau des océans de 3 mm par an, en l’absence de toute limitation des émissions anthropiques de CO2, le niveau de la mer par rapport à 2023 ne monterait de pas plus que de 24 cm en 2100.
Pour ce qui est des températures, la situation est plus complexe. L’évolution dépend de modèles mathématiques, et les rapports du GIEC font référence à quelques dizaines de modèles, comparés entre eux par des évaluations croisées dénotées CMIP (Coupled Models Intercomparison Project). Le CMIP4 (resp. CMIP5, CMIP6) comparait entre eux les modèles du rapport AR4 (resp. AR5, AR6) du GIEC. Ces comparaisons font apparaître des divergences accablantes. Alors que les modèles d’évolution des températures sont censés décrire et expliquer le réchauffement observé au XXe siècle, ils divergent mutuellement d’environ 3 °C, soit trois fois la valeur du réchauffement observé. De ce fait, les modèles pris en compte par le GIEC pour décrire l’évolution des températures jusqu’en 2100 n’ont aucune crédibilité.
Nous citons ici la p.125 du Ch.4 du livre de S. Koonin18 :
« Nous n’avons pas la moindre idée de ce qui provoque l’échec des modèles, incapables de nous dire pourquoi le climat a changé pendant des décennies. C’est profondément troublant, car le réchauffement observé au début du XXe siècle est comparable à celui que nous avons observé à la fin du XXe siècle, réchauffent que les rapports d’évaluation du GIEC attribuent avec une “confiance élevée” aux influences humaines ».
Nous pouvons conclure ici, en premier lieu, que les prévisions d’élévation de température en 2050 ou 2100 du GIEC n’ont aucun caractère de certitude, et en deuxième lieu, que l’attribution de leur origine à l’élévation du CO2 anthropique est infondée. De ce fait, la recommandation du GIEC de réduire à zéro (la neutralité carbone) les émanations anthropiques de CO2 en 2050 pour limiter l’accroissement des températures en 2100 à +1.5°C est du « grand n’importe quoi ». C’est une affirmation gratuite qu’il n’est pas possible, en l’état actuel des connaissances, de confirmer ni d’infirmer. Le problème est que de nombreux gouvernements (comme ceux de l’Union Européenne) ont pris à la lettre ces recommandations, au prix d’un véritable suicide économique et industriel.
Pour illustrer les erreurs développées dans les premiers rapports AR1-2-3 du GIEC, il convient d’évoquer l’affaire du graphe en « crosse de hockey » ou « courbe de Mann » (MBH98 et MBH99) proposé en 1998, par Michael E. Mann et ses co-auteurs, Raymond S. Bradley et Malcolm K. Hughes [MBH]. Ce graphe se veut décrire l’évolution des températures de la planète durant les 1000 dernières années19. La « crosse de hockey » présente une température stable de l’an 1000 jusqu’à 1950, suivie par une élévation brutale et d’allure catastrophique de 1950 à 2000. C’est parfaitement conforme au « dogme climatique » qui, précisément, prétend lutter contre le réchauffement brutal des températures prédit par Roger Revelle en 1957. D’un point de vue factuel, la « courbe de Mann » a stimulé la volonté des autorités américaines, d’intervenir pour contrer la catastrophe climatique qui surviendrait si l’élévation des températures se poursuivait, au-delà des années 2000, en suivant la partie droite de la « crosse de hockey ». Il s’avère que la courbe de Mann est grossièrement fausse, et basée sur des erreurs statistiques importantes. Ceci a été amplement démontré en 2006 par le « Rapport Wegman »20 et d’autres études similaires.
La courbe de Mann ignore tout particulièrement le « petit âge glaciaire » (little ice age) de 1600 à 1900, ainsi que « l’optimum médiéval » (medieval warm period) de 900 à 1300. Ces fluctuations sont visibles dans le graphe amélioré ci-dessous. Pour mémoire, l’optimum médiéval est une période de températures élevées observées au moyen-âge, et attestée historiquement par quantité de témoignages (colonisation du Groenland, culture de la vigne en Norvège…). À l’inverse, le petit âge glaciaire a été caractérisé par des températures très froides durant tout le XVIIIe siècle, où la Seine gelait régulièrement. On estime que les fluctuations de température moyenne associées à ces périodes sont de l’ordre de 1 °C. On imagine sans peine l’impact qu’aurait eu une baisse de température voisine de 5 °C, si les prévisions du climatologue britannique Hubert Lamb avaient été exactes (voir plus haut).
On comprend l’énergie développée par les tenants de la religion du climat pour valider la courbe de Mann ». En effet, les fluctuations de température de l’optimum médiéval et du petit âge glaciaire se sont produites en dehors de toute production industrielle de CO2 ! Si on admet leur existence, on contredit l’affirmation, répétée à l’envi dans les rapports du GIEC, que le réchauffement observé dans l’ère industrielle est sans précédent.
La température était véritablement glaciaire durant le XVIIIe siècle ; pour en témoigner, on mentionne souvent la charge des hussards du général Pichegru, qui prit d’assaut le 21 janvier 1795 la flotte hollandaise immobilisée dans la mer gelée. On admettra sans peine qu’il fallait une sérieuse baisse des températures par rapport à la moyenne pour faire en sorte que la mer gèle aux Pays-Bas, sur une épaisseur suffisante pour supporter une charge de cavalerie. Or, sur la courbe en crosse de hockey, on ne voit rien !
La polémique autour des travaux de Mann, Bradley et Hugues a culminé avec la querelle qu’ils ont eue avec le climatologue canadien Timothy (Tim) Ball. Ce dernier avait élaboré un graphe de températures donnant la part belle à l’optimum médiéval, et montrant, en particulier que l’élévation des températures postérieure à 1950 était négligeable par rapport aux variations de la période médiévale. Mann a poursuivi Tim Ball en justice et a perdu son procès en 2019, étant incapable de produire les données à partir desquelles il avait fabriqué son graphe en forme de crosse de hockey.
Il ressort de ces développements que la création du GIEC, comme ses premiers travaux, reposant sur la « courbe de Mann », ont été basés sur des interprétations inexactes de données mal documentées. En particulier, l’affirmation que le réchauffement climatique observé depuis 1950 est « sans précédent » est loin d’exprimer une vérité admise par le plus grand nombre de climatologues.
Dans ses rapports AR1-6, le GIEC a développé une théorie visant à montrer que la concentration de gaz carbonique (CO2) dans l’atmosphère était le facteur explicatif principal de l’évolution des températures. À l’appui de ces affirmations se trouve la concomitance des variations du taux atmosphérique de CO2 et des températures.
En fait, il faut être prudent dans l’affirmation qu’il existe une causalité entre le taux atmosphérique du CO2 (à l’instant t) et la température (au même instant t). Lorsqu’on observe des concomitances entre deux chroniques temporelles, cela ne signifie pas pour autant que la variation de l’une influe sur l’autre. Le graphe ci-dessous, dû à François Gervais21 compare, pour la période 1980— 2005, la température moyenne T(t) (trait continu) terrestre à chaque instant t (sur une échelle annuelle), à la variation annuelle ϑ(t) – ϑ(t-1) du taux ϑ(t) de CO2, décalée de 6 mois, soit ϑ(t+1/2) – ϑ(t-1/2). Avec un choix d’échelle convenable pour T(.) et ϑ(.), on constate que les courbes se superposent. On en déduit que le taux de CO2 mesuré aux instants t+1/2 = t+6 mois et t-1/2 = t-6 mois semble lié à la température à l’instant t. Mais, si tel est bien le cas, c’est la température à l’instant t qui influe sur le taux de CO2 à l’instant t+1/2, et non l’inverse !
Ceci veut dire, si ce raisonnement était correct, que la variation des températures (par des mécanismes naturels) provoquerait la variation du CO2 (et non l’inverse)22. De ce fait, toute la construction du GIEC s’effondrerait. Toutefois, il faut distinguer les variations du taux de CO2 issues de phénomènes naturels, qui pourraient très bien se déduire des variations de la température, des variations de CO2 d’origine anthropique, qui elles, ne dépendent que de l’activité humaine. Il faut retenir de ceci que la réalité des dépendances entre le CO2 et la température est plus complexe que ne laissent entendre les modèles du GIEC.
2. La manipulation développée par le GIEC
Depuis sa fondation en 1988, le GIEC a développé une doctrine qui n’a pas significativement évolué depuis les discours alarmistes de James Hansen, Bert Bolin et Maurice Strong, résumés dans le « Rapport Brundtland » de 1987. Il affirme que l’émission anthropique (due aux activités humaines) de CO2, si elle persiste aux mêmes niveaux que ceux qu’on observe aujourd’hui, ne pourra qu’aboutir à des élévations catastrophiques de la température, comme +6 °C en 2100, une élévation des océans de plusieurs mètres, et d’autres conséquences désastreuses pour les populations humaines (famines, migrations, submersion de régions habitées, etc.).
Le GIEC estime que, pour limiter la hausse des températures à 2 °C à l’horizon 2100, il faudrait, d’ici à 2030, faire baisser les émanations anthropiques de CO2 de 30 %, et, pour limiter cette même hausse à 1,5 °C, il faudrait faire baisser, d’ici 2030, les émanations anthropiques de CO2 de 55 %. Or, ces estimations sont complètement fantaisistes.
Tout au long de chacun de ses 6 rapports, le GIEC n’a pas cessé de faire des prédictions alarmistes qui se sont révélées, à chaque fois, complètement fausses. En 2007, un prix Nobel de la Paix a été attribué à l’ancien vice-président des États-Unis (et élève de Roger Revelle à Harvard) Al Gore. À l’évidence, l’attribution de ce prix Nobel est due à l’impact sur l’opinion publique du film documentaire de Davis Guggenheim « Une vérité qui dérange », diffusé en 2006. Ce film est un outil de propagande remarquablement bien fait et convaincant, qui réalise la promotion d’Al Gore, en préparation de sa campagne sur le réchauffement planétaire. Le problème est que ce documentaire est truffé d’affirmations mensongères et de prévisions alarmistes qui lui enlèvent toute crédibilité. Il a été suivi, en 2017, par « Une suite qui dérange », qui a eu moins de succès, et qui demeure aussi mensonger qu’« Une vérité qui dérange ». Parmi les énormités de ces documentaires, on retiendra la fonte annoncée pour 2016 des neiges du Kilimandjaro (il ne s’est rien passé), et l’élévation du niveau des océans de 6 m d’ici 2100 (la meilleure prévision actuelle est de 24 cm). Dans ces documentaires, comme dans les livres du même sujet, Al Gore préconise la mise en place d’un marché mondial des émissions de CO2 dans l’esprit de celui qui fut installé par la suite dans l’Union Européenne. D’une certaine manière, Al Gore est l’inventeur du marché du carbone et de la taxe carbone (voir plus loin). Il est regrettable que ces actions, aussi nuisibles qu’elles soient, aient été justifiées par une collection de mensonges et de prédictions hasardeuses.
Celles-ci ont été mises en évidence dans de nombreux livres.
Par exemple, Drieu Godefridi23 qualifie le GIEC, p.106 de son livre de 2010 de « la plus grande mystification de la science moderne ». Il énumère tout un ensemble de recommandations présentes dans les rapports du GIEC (« governments should consider the following »), qu’il qualifie de TIICE (taxer, interdire, inciter, contraindre, éduquer). La plupart d’entre elles devraient nous paraître familières en 2023. C’est ainsi que le rapport AR4 (2007) du GIEC recommande (Voir Godefridi (2010), p.59) de :
- Imposer des limites de vitesse plus rigoureuses sur autoroute ;
- imposer le covoiturage ;
- rendre les transports publics plus accessibles, voire gratuits ;
- subventionner les véhicules « écologiquement performants »
- réduire les accès des véhicules aux centres-ville ;
- promouvoir les biocarburants ;
- instaurer des jours sans voiture (dans une « optique éducative ») ;
- taxer les émissions de CO2 ;
- augmenter les taxes sur le carburant des véhicules individuels ;
- taxer de manière différenciée les véhicules en fonction de leurs émissions de CO2. (National Aeronautics and Space Administration).
On reste abasourdi par la suite que les États ont donnée, servilement, à ces recommandations, dont la plupart ne semblent aucunement liées, ni de près, ni de loin, aux variations climatiques. À titre d’exemple, les ZFE (zone à faibles émissions) ont été instituées en France à la suite de la Loi « Climat et Résilience » de 2021. On se rend compte que les recommandations du GIEC à partir de 2007 n’ont plus grand-chose à voir avec le contrôle des températures par le biais de la réduction des émanations industrielles de CO2.
La plus grande absurdité dans les actions du GIEC est atteinte dans l’accord de Paris. Il s’agit d’un traité international juridiquement contraignant et adopté « à main levée » en conclusion de la COP21 à Paris, le 12 décembre 2015 par 196 représentants d’états participant à la réunion. Il vise à réduire les émissions de CO2 pour aboutir au niveau zéro (objectif de neutralité carbone) dès 2030. Le but ultime de cet accord est de limiter le réchauffement climatique à +1.5°C en 2100. Aucune justification ne permet de croire que cette finalité soit atteinte par cette mesure.
3. Une série de catastrophes économiques et industrielles dues à l’action du GIEC
L’ambition, affichée par le GIEC, de réduire à zéro les émanations industrielles de CO2 d’ici 2030 si possible, et 2050 dans le pire des cas, est totalement utopique. Elle implique un véritable suicide industriel, propre à faire disparaître nombre d’activités. L’exemple le plus édifiant est celui des automobiles à moteur thermique (essence ou diesel).
Le 27 octobre 2022, les eurodéputés et les 27 états membres de l’Union Européenne ont abouti à un accord sur une législation européenne qui interdit la vente de véhicules neufs (voitures et camionnettes) à essence ou diesel dès 2035. Les véhicules hybrides sont également concernés, pour que seules les voitures électriques soient autorisées sur le marché neuf à partir de 2035. Le but affiché est que tous les véhicules circulant en Europe d’ici2050 soient à zéro émission de CO2. Un objectif intermédiaire est que les véhicules neufs voient les émissions de CO2 réduites d’au moins 55 % par rapport à ce qui était admis en 1990. Il semble que les instances dirigeantes de l’Europe aient ignoré l’existence de véhicules industriels, tout comme les marchés africains et asiatiques où l’usage de véhicules électriques est incongru. Par cette mesure, on aboutit donc à une destruction industrielle majeure d’entreprises européennes qui bénéficiaient jusque-là d’une prééminence mondiale.
Le cas des véhicules automobiles n’est qu’une composante de la feuille de route européenne « Fit for 55 ». Ce paquet juridique vise à « placer l’Europe à l’avant-garde du combat climatique », en imposant l’objectif d’une réduction d’au moins 55 % des émissions nettes de gaz à effet de serre en 2030 par rapport à 1990. On peut se poser ici une question toute bête : « qu’est-ce qu’on y gagne ? ». Fit for 55 comprend 13 ensembles de mesures juridiquement contraignantes (directives et règlements) qui concernent notamment la mise en place d’une taxe carbone aux frontières de l’Union européenne, le renforcement du marché européen du carbone, et, tout particulièrement, les :
- Refonte du marché du carbone et nouveau marché du carbone pour le transport routier, le bâtiment et le transport maritime.
- Mécanisme d’ajustement carbone aux frontières.
- Fin des quotas de carbone gratuits pour l’aviation.
- Création d’un fonds social pour le climat pour accompagner la transition.
- Renforcement des puits de carbone naturels.
- Doublement de la part des énergies renouvelables.
- Refonte de la fiscalité de l’énergie.
- Réduction de la facture énergétique des bâtiments.
- Réduction des émissions des voitures neuves (fin de vente des voitures thermiques en 2035).
- Déploiement d’infrastructures de distribution des carburants alternatifs.
- Augmentation de la part des carburants durables pour l’aviation.
- Incitation à l’utilisation de carburants durables dans le secteur maritime.
- Répartition des efforts climatiques entre États membres.
Ces mesures sont actuellement en cours de discussion au sein de la Commission Européenne, et devraient devenir des actes législatifs applicables à tous les états membres d’ici 2024. Elles ont été adoptées pour l’essentiel, les 27 et 28 juin 2022 selon les agendas suivants :
(a) Mesures à l’ordre du jour du Conseil des ministres de l’Énergie du 27 juin 2022 :
- – Directive sur les énergies renouvelables.
- – Directive relative à l’efficacité énergétique.
(b) Mesures à l’ordre du jour du Conseil des ministres de l’Environnement du 28 juin 2022 :
- – Directive sur le système d’échange de quotas européen (ETS pour Emissions Trading System).
- – Directive sur le système d’échange de quotas européen pour l’aviation (ETS aviation).
- – Règlement sur le partage de l’effort entre États membres (ESR pour Effort Sharing Regulation).
- – Règlement sur les émissions et absorptions de carbone par la forêt et les terres (LULUCF pour Land Use, Land Use Change and Forestry).
- – Règlement sur les émissions de CO2 des véhicules légers neufs.
- – Règlement établissant un fonds social pour le climat.
Le paquet législatif « Fit for 55 » ne représente qu’un objectif intermédiaire, avant un nouveau renforcement législatif visant à atteindre la neutralité carbone complète en 2050.
La suppression des véhicules thermiques n’est qu’une partie des « directives climatiques » mises en place par l’Union Européenne. Plus inquiétant encore est l’ensemble des mesures de performance énergétique, pour les logements anciens, concrétisées par le nouveau diagnostic de performance énergétique (DPE) qui renseigne sur la performance énergétique et climatique d’un logement ou d’un bâtiment (étiquettes A à G), en évaluant sa consommation d’énergie et son impact en termes d’émissions de gaz à effet de serre. Le nouveau DPE interdit l’installation de certains types de chauffage (dont le fuel et le gaz), et rend impossible la location de logements classés E (à partir de 2034), F (à partir de 2028) ou G (à partir de 2025). Ces mesures sont extrêmement pénalisantes pour les propriétaires bailleurs, qui ont le choix entre des travaux coûteux de remise aux normes énergétiques et la mise en vente de leurs logements classés comme « passoires thermiques ». Ils provoquent déjà de grandes difficultés à trouver des logements à louer. Notons qu’un bel immeuble haussmannien en pierre de taille, chauffé au fuel, est typiquement considéré comme une passoire thermique, ce qui, à l’évidence, relève de l’abus. Il en est de même des châteaux et monuments historiques.
Le marché du carbone est un ensemble de dispositions réglementaires mises en place depuis 2015 pour contrôler la diffusion des gaz à effet de serre par les entreprises. Au départ, la plupart des entreprises ont reçu des allocations gratuites de quotas égales à l’estimation administrative des gaz à effet de serre émis. Par la suite, les entreprises pourront échanger des quotas d’émission de gaz à effet de serre de gré à gré, ou dans le cadre d’un marché public. Chaque quota, correspondant à l’émission d’une tonne de CO2, a un coût variable, actuellement voisin de 80 € (en 2022). Au marché des quotas d’émission se rajoute la taxe carbone imposée sur les combustibles et les carburants. Actuellement, elle est de l’ordre de 10 € la tonne. Son objectif affiché est de « réduire les émissions de gaz à effet de serre » en augmentant le coût de la production et de la consommation du pétrole, gaz naturel et charbon.
Le bilan carbone est obligatoire depuis 2022 pour les entreprises de plus de 50 salariés. Il vise à quantifier la globalité des émissions de gaz à effet de serre, directes ou indirectes, dans la perspective de la réduction des émissions de gaz à effet de serre à l’horizon 2050.
L’ensemble de ces mesures sont à la fois coûteuses, inutiles et réductrices. Quelle est leur finalité ? Lorsqu’on sait que la réduction à zéro (physiquement impossible) des émanations anthropiques de CO2 par la France n’aboutirait qu’à une baisse de température de 0,05 °C24, on se pose légitimement la question de l’utilité réelle de cette « usine à gaz ». Tout ça pour ça !
4. Quelques commentaires factuels
Deux constats sont indéniables :
– La température moyenne25 de la planète a augmenté d’environ 0,7 °C de 1850 (date considérée généralement comme le « début de l’ère industrielle ») à 2010 ;
– Durant les 160 ans (de 1850 à 2010), les émissions anthropiques de CO2 ont fortement augmenté. La concentration de CO2 dans l’atmosphère est passée, dans cette même période, de 280 ppm (parts par million, soit 0,028 %) à 380 ppm (410 ppm en 2019).
Le GIEC interprète ces deux constats par trois postulats :
– L’augmentation de la concentration de CO2 dans l’atmosphère serait le principal responsable du réchauffement de la planète (par divers mécanismes physiques, dont celui de l’« effet de serre », décrit par Arrhénius (voir plus haut)).
– Les activités humaines émettrices de CO2 (et dans une moindre influence d’autres gaz à effet comme le méthane CH4) seraient les principales responsables de l’augmentation de la concentration atmosphérique de CO2.
– Le réchauffement de la planète, s’il se poursuivait, pourrait aboutir à une situation catastrophique (fonte des calottes glaciaires, élévation du niveau des océans, températures caniculaires, famines, vagues d’immigration…).
En conclusion, le GIEC considère qu’il faut limiter, autant que faire se peut, les émissions de CO2 pour « sauver la planète », en allant jusqu’à la « neutralité carbone » en 2050. Le fait d’aboutir à zéro émission nette de CO2 en 2050 est présenté par le GIEC comme une condition nécessaire pour limiter la hausse des températures en 2100 à 2 °C. Depuis le début les rapports AR1-6 du GIEC constituent un festival d’erreurs et de contre-vérités (voir, par exemple, les livres de Godfredi (2010)26, Gérondeau (2022)27. Toutes les prédictions faites dans les différents rapports du GIEC se sont révélées fausses.
Ces trois postulats comme le raisonnement logique qui les sous-tend sont extrêmement contestables, constellées d’affirmations contradictoires et entachées d’erreurs majeures.
5. Quelques données factuelles sur le taux de CO2 atmosphérique
La concentration atmosphérique de CO2 est mesurée de manière assez précise depuis 1958 à l’observatoire du Mauna Loa à Hawaï (la « courbe de Keeling »).
Depuis 2019 le taux de CO2 dans l’atmosphère croît de manière régulière (environ 2,3 ppm/an) à partir du niveau de 410 ppm en atteint en 2019. Si cette évolution persistait, on aboutirait à un taux de CO2 présent dans l’atmosphère en 2100 de 577 ppm (= 410 + (2.3 x 77) ppm). Selon les différents modèles présentés dans la littérature scientifique, en l’absence de toute réduction des émanations anthropiques de CO2 un tel taux aboutirait à un réchauffement en 2100 compris entre 0,47 °C et 0,1 °C (voir le tableau p.207 dans le livre de 2013 de François Gervais28). La « sensibilité climatique » est définie par le réchauffement induit par le doublement du taux de CO2 dans l’atmosphère (passage de 400 ppm à 800 ppm). Dans son livre de 2022, François Gervais énumère pp.45-49, non moins de 110 articles scientifiques qui évaluent tous la sensibilité climatique à un niveau inférieur ou égal à 1 °C (et parfois, beaucoup moins).
On arrive aujourd’hui à bien évaluer la part de CO2 présente dans l’atmosphère terrestre due aux émissions anthropiques. On se sert pour cela du dosage dans le CO2 des isotopes 12C et 13C du carbone. L’isotope 13C représente environ 1,1 % de la totalité du carbone, le reste étant principalement du 12C. Or les « combustibles fossiles » comprennent davantage de 13C que de 12C. En mesurant le rapport des isotopes présents dans l’atmosphère29, on arrive à en déduire la part anthropique du CO2. La conclusion est que le CO2 anthropique reste très longtemps dans l’atmosphère terrestre. 60 % (resp. 40 %) du CO2 émis sera encore présent dans les 20 ans (resp. 100 ans) qui suivent. Ceci mène à la conclusion qu’il est illusoire de vouloir stabiliser la concentration du CO2 pour limiter son influence sur le réchauffement. La seule stratégie qui pourrait s’avérer efficace est l’arrêt total d’émissions de CO2 dans le monde entier, cette action étant physiquement impossible.
En conclusion, force est de constater que les recommandations du GIEC sont infondées, irréalistes, et basées, depuis l’origine, sur un festival de mensonges et d’inexactitudes. On revient aux idées initiales d’Arrhenius (1910) et de Revelle (1957), à savoir que l’augmentation du CO2 atmosphérique est une bonne chose, et que celle-ci ne peut qu’influer à la marge sur l’augmentation des températures. On consultera les ouvrages additionnels suivants qui commentent ces conclusions avec un luxe de détails.30 31 32 33
Il importe que les décideurs politiques et industriels prennent conscience de la manière dont ils ont été abusés par le GIEC et ses apprentis sorciers. Il n’est, sans doute pas trop tard pour revenir en arrière, mais chacun sait la difficulté, pour de grands organismes de reconnaître leurs erreurs, une fois que celles-ci ont été commises. Un grand incendie a été allumé, et il détruira la maison de la cave au grenier.
⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.