Science du climat : faiblesses et manquements

17/02/2024 (2024-02-17)

L’analyse d’un ingénieur

[Source : fr.irefeurope.org]

Par Pascal Iris

Un travail bibliographique, portant exclusivement sur les publications de chercheurs spécialisés reconnus par le GIEC, montre que les modèles de simulation climatique qui sont le cœur de la recherche climatique actuelle et les seuls outils susceptibles de fournir des prévisions chiffrées sont en réalité inexploitables.

Aussi surprenant que cela puisse paraître, ce sont les numériciens du climat qui l’écrivent eux-mêmes dans des publications spécialisées qui restent confidentielles faute de relais médiatiques et institutionnels.

Le présent travail montre qu’en réalité la plus grande incertitude règne en la matière, avec l’incapacité de simuler certains phénomènes atmosphériques dominants (comme les nuages), l’absence de fiabilité des résultats et le caractère contestable de leur exploitation.

Pourtant ces modèles sont à l’origine de l’équation qui mène aujourd’hui le monde occidental vers la fameuse « neutralité carbone en 2050 » qui limiterait la hausse de la température mondiale à environ 1,5 °C par rapport à l’ère préindustrielle.

Pour l’auteur, la société est ainsi entraînée sur la pente brutale de la décarbonation généralisée, malgré l’absence d’une information équilibrée sur l’état réel de la recherche scientifique qui fonde les décisions de politique publique.

Une démarche fondée sur la raison critique.

Pour qu’il n’y ait aucune ambiguïté, posons en préambule qu’il est clair, pour nous comme pour la très grande majorité de la population, que la protection de l’environnement et l’utilisation sobre et rationnelle de l’énergie sont un enjeu majeur pour l’avenir. Il est également indéniable que la température moyenne de l’atmosphère a augmenté ces 200 dernières années.

Aujourd’hui des décisions drastiques et engageant l’avenir sont prises au motif que la science climatique aurait définitivement statué, science qui aurait « parlé », comme il est commun de l’entendre.

Sur le fond, constater l’élévation de température ces 200 dernières années est une chose (assez complexe en soi), en interpréter la cause en est une autre, et quantifier l’avenir une troisième : la thermodynamique de l’atmosphère n’a malheureusement pas la simplicité de la bille qui tombe sous l’effet de la pesanteur !

Elle est au contraire d’une extrême complexité, chacun le reconnaît et il y a un paradoxe entre cette complexité admise et la simplicité de « la seule faute au CO2 ».

Faisant totalement fi de ce paradoxe, les politiques publiques en la matière se résument désormais à la « décarbonation » de la société tout entière.

Alors, que dit vraiment la science du climat ?

Compte tenu des enjeux, il n’est pas inutile de se poser cette question, si peu abordée tant les choses paraissent certaines et sans appel.

Pour le savoir, un travail bibliographique a été entrepris, EXCLUSIVEMENT fondé sur des publications de scientifiques spécialisés reconnus, par le GIEC en particulier, de façon à éliminer tout biais qui pourrait qualifier la démarche de « climatosceptique ».

La modélisation numérique au cœur de la recherche climatique

Aujourd’hui, la climatologie est un large domaine d’étude et de recherche qui relève de nombreuses disciplines scientifiques distinctes les unes des autres (océanographie, glaciologie, hydrologie, astronomie, géologie, thermodynamique, paléoclimatologie, histoire, analyse numérique, physique du rayonnement, etc.).

Aucune de ces disciplines n’est, à elle seule, capable d’une interprétation globale et encore moins d’une évaluation quantitative.

Les seuls outils susceptibles d’évaluer les températures futures de la planète sont les modèles climatiques de simulation, les plus évolués étant dénommés « modèles climatiques globaux ».

Supposés intégrer l’ensemble des facteurs en jeu, ces outils de simulation sont à l’origine de l’équation du GIEC qui gouverne désormais l’avenir de nos sociétés européennes : neutralité carbone en 2050 = espérance d’une élévation de la température moyenne limitée à 1,5 °C en 2100 (par rapport à l’ère préindustrielle).

Si leur rôle est central, quelles sont les capacités réelles de ces modèles ?

Cette question, qui n’est jamais posée publiquement et dont le GIEC ne fait aucunement état dans ses « résumés aux décideurs », mérite pourtant de l’être.

La modélisation du climat est par ailleurs une discipline qui présente la particularité d’être hyper spécialisée, extrêmement complexe et surtout quasi confidentielle parce que les numériciens du climat représentent une infime minorité de chercheurs étiquetés « spécialistes du climat ».

Elle est de ce fait quasi inaccessible, y compris aux autres scientifiques et c’est là un second paradoxe, loin d’être négligeable vu l’importance stratégique de la discipline.

La question du « réglage » des modèles climatiques

Un modèle, c’est la représentation virtuelle et discrétisée d’un domaine au sein duquel se développent des phénomènes physiques que l’on formalise par des équations, dont on estime certains paramètres directeurs non mesurables et qu’on borne par des conditions spécifiques aux limites du domaine.

Qualité des « équations », « conditions aux limites » et « réglage » des paramètres directeurs sont les facteurs clefs de toute simulation numérique.

Des incertitudes peuvent concerner ces trois éléments, mais le plus critique, quand il s’agit de modéliser la géosphère (c’est-à-dire les milieux naturels), est l’estimation des paramètres directeurs des équations, dénommée souvent « calage » ou « réglage » du modèle. On le fait en ajustant les résultats de calcul sur des historiques pertinents de données, quand ils existent, ou bien on les estime comme on peut.

Le réglage est par conséquent un acte essentiel et délicat, consubstantiel à la modélisation elle-même. Les résultats de calcul y sont très sensibles et les paramètres non mesurables sont un des talons d’Achille de la modélisation des milieux naturels, tous les numériciens le savent et ont à gérer ce sujet. Cela fait partie de leur « art » qui ne relève en aucun cas du « presse bouton ».

Un résultat de modélisation doit par conséquent s’accompagner d’une notice sur ces paramètres, les hypothèses qu’ils contiennent et l’incertitude qu’ils produisent sur les résultats de calcul.

Dans le cadre d’une étude d’intercomparaison des modèles à l’échelle internationale reconnue par le GIEC, un article collectif publié en 2017 sous la direction de F. Hourdin du laboratoire de météorologie dynamique (CNRS — Université Pierre et Marie Curie)1 constate la très faible prise en compte de la question du « réglage » des modèles et regrette explicitement que le GIEC ne s’y intéresse pas. L’opacité sur le sujet est signalée par les auteurs qui y voient une lacune importante. Ils appellent explicitement à plus de transparence.

Le papier est très honnête, très direct et en même temps édifiant compte tenu de l’importance du sujet.

Je cite :

« Il existe une subjectivité dans le réglage du modèle climatique […]il est souvent ignoré lors des discussions sur les performances des modèles climatiques dans les analyses multimodèles […] Pourquoi un tel manque de transparence ?

« Cela est peut-être dû au fait que le réglage est souvent considéré comme un élément inévitable, mais sale de la modélisation du climat […]un acte de rafistolage qui ne mérite pas d’être écrit dans la littérature scientifique […]

« Le réglage peut en effet être considéré comme un moyen inracontable de compenser les erreurs de modèle. »

Au-delà de sa clarté, ce propos direct illustre parfaitement une lacune méthodologique majeure, car l’exploitation des résultats s’exonère manifestement de toute documentation sur les hypothèses de calcul, sur les conditions de réglage, sur la sensibilité des résultats aux paramètres, etc. toutes choses élémentaires et encore une fois consubstantielles à la simulation elle-même.

Un jury de thèse demanderait systématiquement ces éléments à un doctorant présentant des résultats de calcul. Cette situation n’est par conséquent pas conforme aux « règles de l’art » et les spécialistes la dénoncent à juste titre.

Mais les auteurs vont plus loin, je cite :

« Vingt-deux groupes sur 23 ont signalé avoir ajusté les paramètres du modèle pour obtenir les propriétés souhaitées, en particulier à la partie haute de l’atmosphère. »

Cette phrase ne peut que susciter davantage d’interrogations : suggérerait-elle que cette opacité permettrait de régler les modèles pour obtenir les résultats souhaités ?

À la recherche des résultats attendus

En creusant davantage, on découvre que tel est bien le cas, au moins dans un cas publié : un modèle, mis en œuvre en 2019 au sein de l’Institut Max Planck de climatologie en Allemagne2, conduisait à une sensibilité climatique à l’équilibre (ECS) de 7 °C jugée irréaliste (la sensibilité climatique est la variation de la température mondiale estimée pour un doublement du CO2 par rapport à l’ère préindustrielle).

On comprend qu’un paramètre de réglage de la convection atmosphérique a été multiplié par 10 par rapport à la valeur initialement estimée, pour corriger la chose et aboutir à une sensibilité considérée comme plus acceptable de 3 °C…

Je cite :

« […] nous avons décidé de viser une sensibilité climatique d’équilibre d’environ 3 °C. La réduction de la sensibilité du modèle a été principalement obtenue en augmentant le taux d’entraînement pour une convection peu profonde d’un facteur 10 […] dans le but de réduire la rétroaction des nuages tropicaux de basse altitude. »

On ne peut que s’interroger sur la pertinence de ce « réglage » de circonstance : pourquoi multiplier par 10 le paramètre jugé correct initialement, pourquoi pas 5, 20 ou 50… ?

Quel est le sens physique d’un tel réglage ?

Cette question précise est essentielle, car si l’on n’est pas capable de clarifier le sens physique d’un réglage, le modèle perd totalement de son intérêt et de sa pertinence : il fait l’objet d’un ajustement opportuniste sans nécessaire cohérence avec la physique des phénomènes simulés.

L’article n’en parle pas alors que c’est un des pièges bien connus du réglage ; on peut faire l’analogie (également bien connue des statisticiens) avec les corrélations sans cause.

Ce réglage montre simplement que, toute chose étant égale par ailleurs et en particulier à effet de serre donné, la mécanique interne de l’atmosphère, en l’occurrence la convection des nuages, a un impact considérable sur la température.

La mise en évidence de l’influence d’un tel « mécanisme interne » ne manque pas d’intérêt, à l’inverse de la température qui, calculée dans ces conditions, n’en présente aucun.

Tout cela pose question et c’est un euphémisme.

Des objets de recherche incertains.

En 2020, F. Hourdin et son équipe précisent la problématique à gérer et les modalités d’amélioration de leur modèle3.

Je cite :

« […]Il est communément admis qu’une grande partie de l’incertitude dans les projections futures du changement climatique avec les modèles climatiques mondiaux provient de la représentation de processus physiques non résolus par ce qu’on appelle des paramétrisations, et en particulier des paramétrisations de la turbulence, de la convection et des nuages. Les mêmes paramétrisations sont également responsables d’erreurs importantes, qui persistent dans la représentation du climat actuel avec les modèles globaux.

« […] L’amélioration des modèles numériques globaux est essentielle pour l’anticipation des changements climatiques futurs.

« […] Les améliorations sont basées sur des changements significatifs du contenu physique ainsi que sur une stratégie de réglage mieux contrôlée. »

Cette analyse confirme sans ambiguïté ce qui est évoqué plus haut, à savoir le champ considérable des inconnues et des insuffisances.

La qualité des équations est problématique puisque la physique de bon nombre de phénomènes n’est pas formulable explicitement, comme les nuages qui jouent un rôle majeur et variable selon leur configuration et leur extension.

Cette publication confirme que les modèles climatiques, sur lesquels tout repose, sont en fait eux-mêmes des objets de recherche, encore peu avancée compte tenu de la difficulté et de la complexité du sujet.

À l’évidence ce ne sont pas des outils numériques d’ingénierie prédictive, comme les modèles de calcul de structure ou de calcul thermique par exemple : dans ces deux cas, les équations sont connues et les paramètres mesurables par voie expérimentale ; il ne s’agit pas de simuler le milieu naturel.

En d’autres termes, le domaine du calcul climatique relève clairement de la « recherche » avec par essence ses incertitudes, ses inconnues et ses obstacles… à ne pas confondre avec la « science », c’est-à-dire un corpus de connaissances établies, fondées sur la théorie et l’expérience.

Cet état de fait n’est pas choquant en soi ; le fait que ce soit un non-dit masqué vis-à-vis des décideurs et du public est en revanche très choquant et révèle un problème épistémologique méconnu, mais majeur.

L’amalgame médiatique entre recherche et science est souvent fait par méconnaissance, abus de langage et confusion des termes.

Des calculs prédictifs inexploitables

Le 5 mai 2022, l’insuffisance majeure des modèles climatiques est explicitement admise dans un commentaire publié dans la revue Nature, co-signé par des spécialistes tout à fait reconnus, dont Gavin A. Schmidt, le directeur du GISS (Goddard Institute for Space Studies de la NASA)4. Le GISS est un des piliers mondiaux de la science climatique officielle.

Ce commentaire, destiné à alerter la communauté scientifique, intitulé « Reconnaître le problème du modèle chaud » se fonde sur la comparaison la plus récente de 50 modèles (CMIP6).

Il indique qu’une part significative de ces outils de dernière génération, supposés plus performants, « surchauffent » et sont incapables de reproduire le passé.

Je cite :

« Avis aux utilisateurs : un sous-ensemble de la dernière génération de modèles “surchauffe” et prévoit un réchauffement climatique en réponse aux émissions de dioxyde de carbone qui pourrait être plus important que celui obtenu à partir d’autres modèles. »

Et les auteurs d’expliquer :

« Auparavant, le GIEC et de nombreux autres chercheurs utilisaient simplement la moyenne et la dispersion des modèles pour estimer leurs impacts et leurs incertitudes. »

Il faut s’arrêter sur cette phrase, car on découvre à l’occasion une situation étonnante : on comprend que le GIEC estimerait la température future de la planète en faisant la moyenne des résultats des modèles climatiques globaux disponibles !

Cette forme de « démocratie numérique » n’a rien de scientifique et, sauf erreur, n’existe dans aucune autre discipline… un peu comme si on décrétait que le bon résultat d’une épreuve de mathématiques au bac n’était pas dans celle de la copie qui a 19/20, mais dans celle qui a 10/20, en faisant une moyenne avec les mauvaises notes qui pèseraient aussi lourd que les bonnes (à supposer qu’il y ait des bonnes notes en modélisation du climat… ce qu’on ne sait pas) !

La validation des modèles n’est manifestement pas faite comme il se doit, c’est-à-dire individuellement ; on fait la moyenne de tous les modèles.

L’incertitude ne repose pas sur une analyse de sensibilité aux paramètres pour chaque modèle, mais sur les écarts entre les modèles pris dans leur globalité.

Cette approche « démocratique » de la recherche est singulière pour ne pas dire baroque et conduit à s’interroger légitimement sur le GIEC qui, s’il s’appuie effectivement sur des résultats de recherche, les exploitent d’une façon sans doute politique, mais en aucun cas scientifique, comme ce type de moyenne inusitée le montre.

Mais l’article va plus loin. Je cite :

« Dans le rapport AR6(ndlr : sixième cycle d’évaluation du GIEC, le plus récent — 2021), ces méthodes simples ne fonctionnent plus(ndlr : il s’agit de cette moyenne): les modèles à haute sensibilité pris isolément n’ont pas le même poids que les autres pour estimer la température globale. Les auteurs du rapport AR6 ont décidé d’appliquer des pondérations à chaque modèle avant d’en faire la moyenne, afin de produire des projections de réchauffement climatique “réévaluées”. »

En d’autres termes, « le principe » qui consistait jusqu’à présent à prendre en compte la moyenne des résultats de tous les modèles pour prévoir l’avenir thermique de la planète n’est désormais plus valable… Les auteurs approuvent le principe d’une « pondération » effectuée par le GIEC de façon à limiter l’impact des modèles les plus récents qui « surchauffent » !

Que dire de cet invraisemblable bricolage manifestement destiné à aboutir aux valeurs qui conviennent ?

En réalité, les auteurs reconnaissent explicitement qu’il est impossible de quantifier l’avenir dans la mesure où il n’est pas possible de prendre en compte tous les facteurs de la thermodynamique atmosphérique (ils reviennent en particulier sur le rôle central des nuages quasi impossibles à représenter numériquement).

Je cite :

« La Terre est un système complexe dans lequel les océans, la terre, la glace et l’atmosphère sont interconnectés, et aucun modèle informatique ne pourra jamais en simuler exactement tous les aspects. […] »

« Les modèles varient dans leur complexité qui font chacun des hypothèses et des approximations différentes sur les processus qui se produisent à petite échelle, comme la formation de nuages. […] »

« Il y a de nombreux aspects du changement climatique que nous ne comprenons pas encore, d’où la nécessité de continuer à améliorer la science du climat. […] »

« Cependant, même si nous connaissions précisément ce volume (gaz à effet de serre), nous ne saurions toujours pas exactement quel serait le niveau de réchauffement de la planète. […] »

Et ils proposent tout simplement de ne plus utiliser ces outils pour faire des prévisions dans le temps !

Telle est la conclusion insoupçonnée à laquelle aboutissent aujourd’hui des spécialistes de haut niveau international, insoupçonnables de « climatoscepticisme », après des décennies de modélisation et de progrès supposés.

Les modèles les plus récents, c’est-à-dire les plus évolués, donnent de « mauvais » résultats, au point de devoir être massivement « pondérés ».

En matière d’évaluation et de prévision quantifiée, ces publications montrent que la science est en réalité du côté de la plus grande incertitude et nous sommes par conséquent très loin d’une ingénierie numérique exploitable contrairement à ce que l’on fait croire.

On ne sait pas évaluer les températures futures, on ne sait pas prendre en compte correctement une partie des phénomènes internes essentiels et cela se comprend très bien vu l’extrême complexité de l’objet simulé.

Ces chercheurs honnêtes l’écrivent, mais cela reste confidentiel faute de relais médiatiques et institutionnels.

Les rapports du GIEC cachent aux décideurs la réalité de ces insuffisances ; au contraire, ils assènent des certitudes : l’homme reste responsable du climat et il y a urgence à agir.

Il faut rappeler à ce stade que l’objet statutaire du GIEC n’est pas d’étudier le réchauffement climatique, mais d’étudier le réchauffement climatique d’origine humaine.

Ce biais originel a manifestement des conséquences considérables sur l’orientation des travaux de recherche à l’échelle mondiale, sachant que les rapports du GIEC sont approuvés formellement par chacun des États et deviennent de ce fait des éléments de politique publique, particulièrement suivis en Europe.

Une unanimité scientifique factice.

Au-delà de la science qui aurait parlé et dont on peut mesurer la faiblesse prédictive, on entend également en permanence qu’il y a unanimité de la communauté scientifique sur le sujet et qu’il faut « écouter les scientifiques ».

La responsabilité centrale du CO2 dans la perspective climatique catastrophique à venir est de ce fait considérée comme une vérité absolue.

Tout scientifique interrogé dans la rue le dira sans doute comme tout le monde, d’autant que le contester pourrait s’avérer préjudiciable à sa carrière. Mais qu’en est-il quand il s’exprime dans le cadre professionnel des publications scientifiques à comité de lecture, c’est-à-dire le seul qui compte ?

La référence est une étude australienne5 parue en 2013 (et reprise par Greenpeace) qui conclut effectivement que 97 % des scientifiques compétents considèrent que le réchauffement climatique est bien d’origine anthropique.

Le diable étant dans les détails, il faut regarder de plus près la méthodologie de l’étude : 11 944 publications (environ 25 000 coauteurs) dont les résumés contiennent les termes « global warming » et « global climate change », parues entre 1991 et 2011 dans des revues à comité de lecture, ont été analysées et classées.

Sur ces 11944, 7970 soit près de 70 % ne donnent aucun avis sur le sujet… et ont été éliminées du « panel » !

Sur les 30 % restantes, en réalité seules 1010 publications (soit 8,5 % du nombre initial) donnent un avis explicite et 986 d’entre elles indiquent effectivement que l’homme est responsable, soit bien 97,6 %. Mais… 97,6 % de 8,5 %, soit… 8,25 % du total !

Ainsi en réalité, 91,5 % de la communauté scientifique concernée ne donne aucun avis explicite professionnel sur la question et l’unanimité affichée par les medias (et Greenpeace) ne porte que sur un peu plus de 8 %. Une étude américaine de même nature publiée en 2021 conduit à des résultats comparables6.

L’unanimité scientifique sur l’origine humaine du réchauffement climatique relève clairement d’une exploitation fallacieuse des chiffres, si l’on s’en tient à la réalité des publications professionnelles sur laquelle est basée cette affirmation.

En matière de chiffres, le dernier rapport du GIEC suscite également bien des interrogations.

Les chiffres du GIEC… pas exactement l’idée qu’on s’en fait

Partons maintenant de l’hypothèse que les évaluations du GIEC sont fiables et intéressons-nous à l’impact du CO2.

Dans son dernier rapport aux décideurs concernant les aspects scientifiques7, il est indiqué (p9 A.1.3) que pour le passé et jusqu’à nos jours, le «probable réchauffement dû à l’homme depuis 1850-1900 est d’environ +1 °C ». Plus loin, il est écrit pour le futur (p35 D1.1) que « chaque tranche de 1000 Gt d’émissions cumulées de CO2 provoque une augmentation probable de la température mondiale de 0,45 °C (meilleure estimation) ».

On peut s’arrêter sur ce chiffre.

Les émissions annuelles de CO2 résultant de la combustion des hydrocarbures représentent aujourd’hui environ 35 GT.

Un calcul simple montre qu’en 2100, dans 80 ans et selon les hypothèses du GIEC, on aboutirait au rythme de la consommation mondiale actuelle (du fait des hydrocarbures) à une hausse de température estimée depuis 1850 de 2,3 °C (1+80*35/1000*0,45 °C = 2,26 °C)… à comparer avec l’objectif de neutralité carbone en 2050 qui conduirait à une hausse comprise limitée à 1,5 °C.

Soit un écart inférieur à 1 °C entre les deux scénarii d’émissions !

Ce faible écart estimé est à mettre en regard de l’objectif de « neutralité carbone en 2050 » qui lui, a contrario, représente bien une révolution industrielle, économique et sociale aussi faramineuse que brutale par rapport à notre mode de fonctionnement actuel où 80 % de l’énergie utilisée dans le monde est d’origine fossile. D’après l’Agence internationale de l’énergie8 en effet, pour atteindre la neutralité carbone en 2050, il faudrait réduire la consommation mondiale de charbon de 90 %, celle de pétrole de 75 % et celle de gaz naturel de 55 %.

Cet objectif de réduction drastique est colossal et ne peut s’obtenir que par une forte décroissance… pour moins de 1 °C d’écart estimé !

C’est assez surprenant, mais pour mieux comprendre, il faut savoir que le GIEC présente en fait différents scénarii d’émission de CO2 d’ici la fin du siècle. La hausse spectaculaire autour de 4,5 °C (voire plus) souvent mise en avant dans les médias, est en réalité « calculée » par le GIEC sur la base du scénario d’émission de CO2 le plus extrême (scénario SSP5-8.5 — voir 8 p.13 — fig. SPM.4) qui prévoit non pas la poursuite de nos émissions au niveau actuel, mais leur multiplication par deux d’ici 2050 puis par trois d’ici 2080… c’est-à-dire une croissance effrénée (et sans doute irréaliste) de la consommation d’hydrocarbures !

Malheureusement, les chiffres présentés dans les médias ne sont jamais assortis des hypothèses qui les sous- tendent, ce qui entretient la confusion.

Pour terminer de façon pratique, notons que la Chine, l’Inde et les pays dits « du Sud » qui représentent l’essentiel de l’humanité fondent leur développement majoritairement sur les énergies fossiles et n’ont pas l’intention d’y renoncer.

La Chine met en œuvre aujourd’hui un programme électro-charbonnier sur dix ans qui représente environ 300 GW, soit 5 à 6 fois la puissance électronucléaire totale installée en France, quand l’Inde multiplie les ouvertures de mines de charbon.

La France pèse moins de 1 % des émissions mondiales.

Un débat d’intérêt public interdit et une société prise en otage

Qu’ont à répondre sur le fond les spécialistes médiatiques de l’urgence (voire de la terreur climatique) et sur quoi fondent-ils précisément leur certitude affichée et chiffrée du rôle majeur, immédiat et catastrophique du CO2 ?

Quand on interroge les spécialistes et des leaders d’opinion, la réponse est toujours la même : pas de réponse. Tout cela est manifestement un non-sujet, n’a pas à être discuté et surtout l’expression du moindre doute apparaît comme une inadmissible transgression.

Or, comme pour tout domaine de recherche scientifique, le doute est non seulement légitime, mais salutaire et le débat contradictoire, nécessaire.

Au nom de quoi la climatologie serait-elle le seul domaine à pouvoir s’y soustraire ?

Les interdits intellectuels sont bien sûr antinomiques avec l’essence même de la recherche et posent un problème éthique, déontologique et épistémologique.

Nos médias donnent une parfaite illustration de cette situation, comme en témoigne la récente charte environnementale de Radio France, dont le premier article est le suivant, je cite :

« Article 1 : Nous nous tenons résolument du côté de la science, en sortant du champ du débat la crise climatique, son existence comme son origine humaine. Elle est un fait scientifique établi, pas une opinion comme une autre. »

Cette position officielle « d’autorité » qui s’exprime à longueur d’antenne sans la moindre contradiction (sur les radios de service public supposées pluralistes par leur statut) illustre à quel point l’idéologie, le militantisme, voire l’endoctrinement, ont pris la main.

C’est ce qui est dénoncé par de nombreux scientifiques au plan international, à l’image de l’américain John Clauser, prix Nobel de physique 2022, ou bien de Steven Koonin9, membre de l’Académie des sciences américaine, ancien sous-secrétaire d’État à la science du département de l’énergie de l’administration Obama.

Si cette affaire ne relevait que d’un débat savant, cela ne poserait pas vraiment de problème ; la tectonique des plaques a mis soixante ans avant d’être admise par la communauté des géologues.

Mais en l’occurrence, il s’agit de l’avenir de notre société et c’est une affaire d’État.

Nos concitoyens sentent bien qu’il y a sur ce sujet quelque chose d’anormal, même s’ils n’ont aucun outil ni aucune information structurée leur permettant des choix éclairés.

Ils ont raison, car on n’a sans doute jamais pris de décisions aux conséquences aussi lourdes sur des fondements aussi faibles.

Il n’est pas trop tard pour les décideurs d’en prendre la mesure et pour les experts d’avoir le courage de s’expliquer publiquement et contradictoirement.

Présentation de l’auteur

Citoyen ordinaire à la retraite, l’auteur est ingénieur (Mines de Nancy) et scientifique de formation (thèse de 3e cycle de mathématique appliquée en géosciences à l’École des Mines de Paris) ; ancien chef d’une entreprise technologique spécialisée dans les modèles numériques de simulation pour l’industrie mécanique et métallurgique (Transvalor SA), il a une expérience pratique de la modélisation numérique appliquée à différents domaines.

Il est familier du milieu de la recherche, ayant été pendant 20 ans directeur de l’association ARMINES, importante structure de recherche partenariale (partenariat recherche publique — recherche privée).

C’est bien sûr à titre strictement personnel qu’il s’exprime, considérant disposer de l’expérience et de la compétence pour exercer sa raison critique sur l’état de l’art de la modélisation climatique qui est à la source des prévisions chiffrées en la matière.

Références bibliographiques

1 Fréderic Hourdin et coll. : « The art and science of climate model tuning » — Bulletin of American Meteorological Society — BAMS mars 2017 98, n° 3, pp. 589-606

2 Thorsten Mauritsen et coll. : Développements dans le modèle du système terrestre MPI-M version 1.2 (MPI-ESM1.2) et sa réponse à l’augmentation du CO2 — Journal of advances in modelling earth systems — 13 janvier 2019

3 Frederic Hourdin, Catherine Rio, Jean-Yves Grandpeix, Jean Baptiste Madeleine, Frédérique Cheruy : La composante atmosphérique du modèle climatique IPSL avec une physique améliorée et mieux réglée — Journal of advances in modelling earth systems — 06 avril 2020.

4 Zeke Hausfather, Kate Marvel, Gavin A.Schmidt et coll. : « climate simulations : recognize the «hot model» problem » – Nature – vol 605 – 5 mai 2022

5 John Cook et coll. : Environmental research letters : Quantifying the consensus on anthropogenic global warming in the scientific literature—Environ. Res. Lett. 8 024024 — 15 05 2013

6 Mark Lynas, Benjamin Z Houlton et coll. : Environnemental research letters : Greater than 99% consensus on human caused climate change in the peer-reviewed scientific l — 19 October 2021

7 GIEC – Changement climatique 2021 — Les bases scientifiques physiques — résumé à l’intention des décideurs. (IPCC_AR6_WG1_SPM)

8 Net zero by 2050 — A roadmap for the global energy sector — AIE — mai 2021

9 Steven Koonin : « Climat, la part d’incertitude » Édition l’Artilleur — 2022

image_pdfPDF A4image_printImprimer

⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *