Les principes du raisonnement. Partie 3. Logique et climatologie

01/10/2023 (2023-06-05)

[Source : The Principles of Reasoning. Part III: Logic and climatology | Climate Etc. (judithcurry.com) ]

[Traduction : John Hunter 2023]

Par Terry Oldberg. Copyright 2011.

[Voir aussi, du même auteur :
Les accords de Paris sur le climat ont une base fausse]

À l’origine j’avais prévu que cet essai finirait avec la partie 2. Cependant, M. Curry m’a demandé d’aborder le sujet de la logique et de la climatologie dans une troisième partie. Par les remarques suivantes, je réponds à sa demande.

Je me concentre sur les méthodologies d’une paire de questions qui étaient posées par le groupe de travail GIEC 1. [WG1 — Working Group 1], en aboutissant aux conclusions du rapport de 2007. À savoir :

  • il y a une certitude considérable sur le fait que les modèles de circulation générale océan/atmosphère (AOGCMs) [Atmosphere Ocean General Circulation Models] fournissent des estimations quantitatives crédibles pour le changement climatique du futur.1 Et :
  • la sensibilité du climat à l’équilibre (TECS) est « probablement » comprise entre 2 °C à 4,5 °C2.

Ma question est la suivante : ces méthodologies sont elles logiques ?

CONTEXTE

Ce travail est une continuation des parties 1 et 2. Pour une compréhension du sujet, voici un résumé de 1 et 2 :

Un modèle, une théorie est une procédure pour faire des inférences [NDLR Une inférence est une opération logique qui consiste à admettre une vérité en vertu de sa liaison avec d’autres vérités déjà admises]. À chaque fois qu’une inférence est faite, il y en a plusieurs et parfois un nombre infini, une seule convient. Donc celui qui construit le modèle est aux prises en permanence avec l’identification de l’inférence correcte. Comment faire cela ?

La logique est la science des principes par lesquels une inférence correcte peut être identifiée. Ces principes se nomment « Les principes du raisonnement ».

Si Aristote nous a laissé les principes du raisonnement en logique déductive, en revanche il n’y a rien sur les principes du raisonnement en logique inductive. Pendant des siècles les constructeurs de modèles se sont débrouillés avec le manque de principes du raisonnement en logique inductive en utilisant une règle intuitive « à tâtons » que j’ai appelée heuristique pour trouver l’inférence correcte. Parmi ces heuristiques, on a la parcimonie maximum (le rasoir d’Occam) et la beauté maximum. Cependant à chaque fois qu’un élément heuristique particulier identifiait une inférence différente comme la bonne, une heuristique différente identifiait une inférence différente comme aussi la bonne. De cette façon la méthode heuristique violait la loi de non-contradiction. La non-contradiction définit le principe de la logique.

Le problème de l’extension de la logique à partir de sa branche déductive et à travers sa branche inductive était connu sous le nom de « problème de l’induction ». Il y a 400 ans les logiciens ont commencé à avancer sur ce problème. Peu à peu ils ont appris qu’une inférence a une mesure unique. La mesure d’une inférence était l’information qui manquait dedans pour une conclusion déductive par l’événement. C’est ce qu’on appelle l’entropie ou bien l’entropie conditionnelle. Au vu de l’existence et de de la valeur unique, le problème de l’induction pouvait être résolu par le biais de l’optimisation. En particulier l’inférence était correcte si elle minimisait l’entropie conditionnelle ou bien augmentait l’entropie sous des contraintes exprimant l’information disponible.

En 1963 le problème de l’induction était résolu. Ce faisant trois principes du raisonnement apparurent :

1. Le principe de la maximisation de l’entropie.

2. Le principe de l’attente d’une entropie maximale.

3. Le principe de la mimimalisation de l’entropie conditionnelle.

Peu de scientifiques, de philosophes ou de statisticiens ont remarqué ce qui s’était passé. La grande majorité des concepteurs de modèles ont poursuivi la tradition consistant à identifier la seule déduction correcte par la méthode heuristique.

Des méthodologies dépourvues de logique

Quand une enquête est menée d’après les principes du raisonnement, le modèle qui en résulte exprime toute l’information disponible et rien d’autre. Mais quand les gens construisent un modèle, ils se conforment rarement aux principes du raisonnement. Ils construisent un modèle rationnel avec des limites.3

Une conséquence d’une méthodologie illogique peut être que le modèle construit exprime plus que les informations disponibles ou bien moins. Lorsqu’il exprime plus que les informations disponibles, le modèle échoue en raison de sa réfutation par la preuve. Lorsqu’il exprime moins que les informations disponibles, le modèle prive son utilisateur d’informations.

Quand les gens construisent un modèle, ils fabriquent de l’information qui n’est pas disponible pour eux. La pénalité pour cette fabrication c’est d’invalider le modèle et quand le modèle est testé s’il l’est un jour, on peut observer son échec. Il y a disparité entre les fréquences qu’on prédit et les fréquences relatives observées sur le terrain. En particulier, les fréquences relatives observées sont plus proches de la ligne de base que la prédiction que fait le modèle lui-même : la ligne de base de l’événement sur le terrain est la probabilité sans condition de cet événement. Si on assigne des valeurs numériques de façon intuitive aux probabilités des événements, ces gens fabriquent de manière routinière de l’information en ignorant la ligne de base.4 Les joueurs au casino fabriquent de l’information en pensant qu’ils ont découvert des patterns dans les data basées sur l’observation alors que les propriétaires des casinos les ont éliminées dans la construction de leurs systèmes.5 Les médecins les fabriquent en négligeant la ligne de base d’une maladie et en estimant la probabilité qu’un patient souffre de cette maladie s’il teste positif.6 Les physiciens fabriquent de l’information en supposant qu’un système complexe peut être réduit à une relation de cause à effet. C’est ce qu’on nomme « reductionisme ».7 8 Les statisticiens le fabriquent en supposant dans la nature des fonctions de densité de probabilité alors qu’elles sont introuvables dans la nature. Des chercheurs malhonnêtes fabriquent de l’information en créant des événements observables alors qu’ils n’ont rien observé de tel. C’est une expérience de labo à froid. Aucune valeur.

Quand ils construisent des modèles, ces gens gaspillent l’information disponible pour eux en ne découvrant pas les patterns présents dans leurs données. Les statisticiens font la même chose en supposant les catégories sur lesquelles leurs probabilités reposent plutôt que de découvrir ces catégories d’après la minimisation de l’entropie conditionnelle. Ce gaspillage de l’information est caractéristique de la méthode Bayesienne pour construire un modèle.

Enquête et Logique

Si une enquête est conduite comment savoir si la méthodologie est logique ? Si on reprend les outils de la partie 2 et 3, on pourra dire que la méthode logique laissera son empreinte si :

  • les assertions qui émanent de l’enquête sont basées sur des modèles ou des théories et :
  • les processus qui usent de ces modèles comme procédures font des inférences et :
  • chaque inférence devra avoir une mesure unique.
  • Et ainsi de suite.

De cette manière et en suivant cette ligne de raisonnement jusqu’au bout, on peut compiler une liste des traits d’une enquête qui était conduite selon une méthode logique.

Un besoin de clarté

La tâche n’est pas si simple qu’il y paraît. Le langage de la climatologie souffre d’une grande ambiguïté dans ses termes.

Ma méthodologie

J’ai trois buts en vue. D’abord en finir avec l’ambiguïté. Ensuite je me servirai des outils qui éclaircissent pour identifier les traits d’une enquête selon une méthodologie logique. Et enfin je comparerai ces traits aux enquêtes VG1. Après cette comparaison, je donnerai une conclusion sur le caractère logique de chaque enquête.

Une fois que j’aurai jugé du caractère logique de chaque enquête, je ferai connaître ma conclusion sur les assertions des deux enquêtes. La base de mon jugement inclura le texte du rapport WG1 de 2007 et les rapports de plusieurs chercheurs qui ont écrit sur l’ambiguïté des références dans les termes de climatologie.

Éclaircissement du sens ambigu du « modèle »

En climatologie ce mot a deux sens : a) la procédure d’un processus qui fait une inférence prédictive ; et b) la procédure d’un processus qui ne fait pas de référence prédictive. Le principe du raisonnement fait un jugement sur la validité des inférences. Cette ambiguïté dans les termes trouble notre compréhension et le caractère logique de la méthodologie.

Pour résoudre cette ambiguïté et conserver la sémantique du mot modèle que j’ai établi dans la partie 1, j’appellerai « modèle » mon terme de référence à la procédure du processus qui fait une inférence prédictive, et « modèle_fr » la procédure du processus qui ne fait pas de référence prédictive.

[NDLR En anglais, l’auteur utilise les termes anglais (model) et français (modèle), traduits ici respectivement par « modèle » et « modèle_fr ».]

Selon ma définition un modèle fournit la procédure pour faire des prédictions, mais pas des projections. Un modèle_fr fournit la procédure pour faire des projections, mais pas des prédictions. Après je démêlerai les termes « inférence prédictive » et « projection » puis « prediction ».

Les études existantes

Résumé des études passées. Voici sur le terrain linguistique ceux qui m’ont précédé :

  • Gray
  • Green et Armstrong
  • Trenberth

Le langage dans lequel on aborde ces études n’a pas cherché à dissiper le sens ambigu du mot « modèle ». Donc ces études en souffrent. J’ai expliqué plus haut la nécessité de distinguer entre les deux modèles. On va voir que les assertions WG1 étaient uniquement basées sur les modèles_fret non sur les modèles de climat. Ces derniers n’existent pas pour eux.

Au cours de sa prestation comme expert auprès du GIEC, Vincent Gray a soulevé la question de comment les modèles_fr pouvaient être validés.9 On ne peut valider des modèles_fr, mais au moment où Gray posait sa question il y avait encore beaucoup d’ambiguïté. La climatologie n’avait pas encore évalué notamment les confusions entre modèles et modèle_fr.

Selon Gray, le GIEC a débloqué la situation en établissant une politique éditoriale pour les rapports d’évaluation ultérieurs. C’est à dire que le mot « prédiction » s’est mué en « projection » et « validation » est devenu « evaluation ». La distinction entre « prediction » et « projection » faite par le GIEC sous ce régime spécial est identique à la distinction que j’ai faite dans cet article.

Le GIEC a échoué de façon constante à appliquer son propre régime. En conséquence les mots « prédiction », « prévision » et leurs dérivés sont mélangés avec « projection » dans les rapports produits par le GIEC. Dans le chapitre 8 du rapport de 2007 de WG1, Green et Armstrong10 trouvèrent 37 occurrences du mot « prévision » et ses dérivés et 90 occurrences du mot « prévoir » ou ses dérivés. Parmi les 240 climatologistes dénombrés par Green et Armstrong dont 70 % travaillent pour le GIEC, une majorité élisent le rapport du GIEC de 2007 comme la meilleure source crédible pour la prédiction/prévision (mais pas la projection), même si les modèles_fr de climat du GIEC ne font ni prédiction ni prévision.

Pour le lecteur qui supposait le GIEC crédible, la prédiction, la prévision et la projection étaient synonymes. C’était ajouter une forte dose d’ambiguïté partout. Le GIEC avec son régime éditorial non appliqué se tirait une balle dans le pied.

Dans le fait que le GIEC avait changé la « validation » en « évaluation », cette instance admettait tacitement que les modèles_fréchappaient à la validation statistique. Cela signifiait que les assurances que conféraient les modèles n’étaient pas réfutables. Ce concept signifiant encore que la disparité entre la relative fréquence d’un événement prédit ou observé qui proviendrait d’une fabrication de l’information laquelle ne serait pas observable.

Vu de loin, il apparaît qu’aucun modèle_fr n’aurait pu être validé statistiquement parce qu’aucun modèle_fr ne fournissait un manuel d’instructions pour faire des prédictions. Chaque modèle_fr pouvait être évalué statistiquement, mais même si « Validation statistique » et « évaluation statistique » sonnent pareil, elles font référence à des idées qui sont logiquement contradictoires. La contradiction étant que les assertions du modèle pouvaient être réfutés par la preuve tandis que les assertions du modèle_fr ne le pouvaient pas.

Sur le fait avéré que la plupart des climatologistes ont compris que les modèles_fr de climat font des prédictions, Green et Armstrong en ont conclu (en se trompant) que ces modèles_fr étaient des exemples de modèles. Ils ont fait un audit des méthodes de construction des modèles_fr d’après les règles de construction des modèles. Les modèles_fr enfreignaient 72 règles sur 89. Au vu de ces désordres, Gteen et Armstrong conclurent que les modèles_fr n’étaient pas des modèles, donc ne convenaient pas pour en faire une doctrine.

En réponse aux chercheurs cités, le climatologiste Kevin Trenberth11 a souligné (et il avait raison) que les modèles_fr du GIEC ne faisaient pas de prédictions. Simplement des « projections ».

Désambiguïser la « prédiction »

Dans la prédiction, on assigne une valeur numérique à la probabilité de chacune des directions possibles et nombreuses d’un événement statistique. Chaque direction est un exemple de l’état de nature et est une variable observable du monde réel.

Désambiguïser « l’inférence prédictive »

C’est une prédiction conditionnelle. Comme une éventualité ou un résultat, la condition est un état de nature et une variable observable du monde réel.

Dans l’inférence prédictive, une valeur numérique est assignée à la probabilité de chaque condition et à la probabilité de chaque résultat ET condition. Ce ET signifie pour moi l’opérateur logique du même nom. Ces assignations font qu’une valeur numérique est donnée à l’entropie conditionnelle de l’inférence prédictive. L’entropie conditionnelle de cette inférence est son unique mesure dans la logique de la probabilité.

La paire « inférence prédictive »/« inférence non prédictive »

Après une clarification du langage, un modèle est une procédure pour faire des inférences dont une est une inférence prédictive. Mais bien qu’un modèle soit une procédure, il ne s’agit pas d’une procédure permettant de faire une déduction prédictive. Donc l’idée que ce modèle_fr fait l’objet d’une inférence prédictive et l’idée qu’il n’est pas référencé par une inférence prédictive forment une paire.

Désambiguïser la « projection »

C’est une fonction de la réponse qui enregistre le temps de la valeur d’une variable dépendante du modèle_fr.

La paire « prédictions » et « projections »

Si on utilise un modèle comme procédure, un processus fait des « prédictions ». Si on utilise un modèle_fr comme procédure, un processus fait des « projections ». Donc l’idée que c’est référencé par des « predictions » et l’idée que c’est référencé par « projections » font une paire.

Désambiguïser la population statistique.

L’idée d’une inférence statistique réfère à une séquence temporelle d’événements statistiques indépendants : la description de chacun des événements renvoie à une condition avec un résultat. Un événement dont la condition et le résultat sont observés se nomme un « événement observable ». Une population ou une série statistique est un agrégat d’événements observables.

Désambiguïser un « ensemble statistique »

C’est une collection de « projections ». Cette collection est formée par la variation des valeurs qui sont assignées aux paramètres du modèle_fr qui lui sont assignés et dans les limites de ces paramètres.

La paire « population statistique » et « ensemble statistique ».

L’idée d’une « population statistique » est associée à l’idée d’un modèle. L’idée d’un « ensemble statistique » est associée à un modèle_fr. Donc l’idée référencée par la « population statistique » et celle de « l’ensemble statistique » forment une paire.

Désambiguïser la « validation statistique ».

Cette « validation statistique » est un processus qui est défini dans une population statistique d’un modèle et sur prédictions d’un événement dans un exemple de ce qu’on a observé à partir de cette population. Depuis ce processus les prédictions de façon collective affirment des assertions réfutables en ce qui concerne les fréquences des résultats dans cet exemple. Un modèle où les assertions ne sont pas réfutés à l’épreuve des faits est « statistiquement vérifié ».

Désambiguïser « l’évaluation statistique »

C’est un processus qui est défini dans un ensemble statistique et dans une série temporelle observée qui lui est propre. On en donne un exemple en12. L’exemple fait intervenir des projections qui montrent la marche vers la température en surface globale moyenne plus qui s’accroche à une température globale moyenne observée en surface et en série temporelle. Les projections appartenant à un ensemble statistique affirment qu’aucune assertion n’est réfutable vis-à-vis de la série temporelle. Donc un modèle n’est pas susceptible d’être réfuté à l’épreuve des faits qui est produite par son évaluation.

La paire « Validation statistique »/« évaluation statistique »

La « Validation statistique » est un processus reposant sur les prédictions d’un modèle. « L’évaluation statistique » est un processus reposant sur les projections d’un modèle_fr. Donc les idées de « validation statistique » et d’« évaluation statistique » forment une paire.

Désambiguïser « la science »

Dans la langue courante, le mot « science » fait une référence ambiguë à deux idées. L’une est une connaissance démontrée, l’autre est un processus sous le contrôle de gens qui s’appellent les « scientifiques ».

Selon la loi Daubert et aux USA, le témoignage n’est pas un témoignage à valeur scientifique dans les cours fédérales si les assertions incluses dans ce témoignage sont non réfutables.13 De cette manière Daubert, associe la Science à une « connaissance démontrée ».

La paire « satisfait Daubert »/« ne satisfait pas Daubert »

Un modèle satisfait Daubert. Un modèle_fr ne la satisfait pas. Donc « satisfait Daubert », et « ne satisfait pas Daubert » forment une paire.

Groupement des éléments d’une paire.

J’ai identifié un nombre de paires. Chaque paire tombe sur modèle ou un modèle_fr.

Donc de gauche à droite :

Modèlemodèle_fr
Inférence prédictiveInférence non prédictive
PredictionsProjections
Population statistiqueEnsemble statistique
Validation statistiqueÉvaluation statistique
Assertions réfutablesAssertions non réfutables
Satisfait DaubertNe le satisfait pas

Une enquête selon la méthodologie logique

Une caractéristique remarquable des deux listes est que chaque membre de la liste de gauche est associé à une inférence prédictive, tandis que chaque membre de la liste de droite est associé au fait de ne PAS faire d’inférence prédictive. Le fait que des déductions prédictives soient faites est une condition nécessaire (mais non suffisante) pour que la logique probabiliste puisse s’appliquer à une enquête. Je conclus donc que les éléments de la liste de gauche sont des caractéristiques d’une enquête menée dans le cadre d’une méthodologie logique, tandis que les éléments de la liste de droite sont des caractéristiques d’une enquête menée dans le cadre d’une méthodologie illogique.

La logique de la première allégation du WG1


Une enquête menée par le WG1 a abouti à l’affirmation suivante : « On est très confiant dans le fait que les modèles de circulation générale atmosphère-océan (MCGA) fournissent des estimations quantitatives crédibles des changements climatiques futurs… ». Un modèle de circulation générale atmosphère-océan est un exemple de modèle_fr. Les caractéristiques de l’enquête associée sont celles de la liste de droite. La méthodologie de cette enquête est donc illogique.

le caractère logique de la deuxième assertion WG1

WG1 définit la sensibilité climatique en équilibre (TECS). C est à dire le changement de température de la surface de l’air en moyenne, par an et dans le monde. Il est expérimenté par le système du climat après avoir atteint un nouvel équilibre en réponse au CO2 qui double dans l’atmosphère.14 En climatologie et dans ce contexte, le mot « équilibre » se réfère à l’idée que pour les ingénieurs le transfert de chaleur est dit « stable ». L’idée étant que les températures ne changent pas.

D’après mes lectures dans la littérature climatologique, je peux dire que TECS est une constante. Cette constante lie un changement dans le niveau de CO2 à un changement dans la température en équilibre. Voici cette relation :

ΔT = TECS *log2 (C/Co) (1)

où ΔT représente le changement dans la température au point d’équilibre et Co représente le niveau de CO2 où le ΔT est nul.

La déclaration WG1 utilise cette équation en disant que pour un doublement de C, ΔT se trouve vraisemblablement entre 2 °C et 4,5 °C. « Vraisemblablement » signifie que le WG1 attribue une valeur dépassant 66 % à la probabilité que ΔT se situe dans cette fourchette. Si l’équation (1) est fausse alors tout s’écroule. Est-ce faux ? Pas de réponse pour cette question, car la température en équilibre à ΔT n’est pas observable. Si ΔT n’est pas observable, on ne peut pas par l’observation déterminer si l’équation (1) est valide ou invalide. Comme les déclarations faites dans l’équation (1) sont non réfutables, cette équation doit être un exemple de modèle_fr.

Comme ΔT n’est pas observable, il ne sera pas possible de déterminer par observation que ΔT se situe entre 2 °C et 4,5 °C. Donc la proposition que ΔT se situe entre 2 °C et 4,5 °C n’est pas observable. Cependant un résultat d’un événement est une entité observable. Donc la proposition « ΔT se situe entre 2 °C et 4,5 °C » n’est pas un résultat. La déclaration de WG1 qu’il est vraisemblable qu’au doublement de C, ΔT se situe entre 2 °C et 4,5 °C ne fait pas référence à un résultat. Comme la déclaration ne fait pas référence à un résultat, elle ne donne aucune information sur un résultat d’une décision administrative à un décideur. Comme le consensus des climatologistes ainsi que les membres des sociétés scientifiques les plus prestigieuses du monde semblent d’accord avec les déclarations du WG1, un décideur peut penser que cette déclaration lui apporte une information sur ce qu’il va advenir après sa décision. Les signataires du protocole de Kyoto semblent avoir atteint cette conclusion. Les responsables de l’Agence de la protection environnementale américaine aussi, sur le sujet de la « mise en danger ». Comme je l’ai démontré, c’est faux.

En avant vers une méthodologie logique

Le coût de la baisse de CO2 serait environ de 40 trillions de $ par an.15 Avant de dépenser cela, les décideurs doivent savoir ce qui doit résulter de leurs choix. Plus il y a d’information et plus la décision deviendra meilleure. Si les climatologistes passent à une méthodologie logique, ils seront à même de transmettre le maximum d’information possible sur ce que donnera une décision d’un scientifique en position. Il peut sembler utile que je trace un chemin pour y arriver. Sous le couvert de la méthodologie logique, une partie de l’enquête serait la population statistique. Les data de Green et Armstrong suggèrent que la majorité des climatologistes du WG1 s’embrouille sur la population statistique et l’ensemble statistique. Cette confusion explique mon échec à découvrir l’idée d’une population dans le rapport WG1. Quand on s’engage vers une méthodologie logique pour une enquête climatologique, on doit créer une population statistique pour cette enquête. Chaque élément de cette population serait un événement statistique indépendant et observé. Une population statistique est un sous-ensemble d’un éventail plus large d’événements statistiques indépendants. Sur le chemin de la méthodologie logique, cela doit être décrit. Quand on le fait, en climatologie, la Terre est le seul objet sous observation. Donc une enquête climatologique doit être longitudinale. Cela veut dire que ses événements statistiques indépendants sont séquentiels dans le temps. Ils ne se superposent pas.

Par conséquent le point d’arrêt d’un événement doit être aussi le départ du prochain événement. J’ai parlé de « condition ». Elle prend place au début de chaque événement. Et le résultat est défini au point d’arrêt.

Je comprends que l’organisation météorologique mondiale approuve la doctrine qui définit un événement météorologique observable comme un élément du temps qu’il fait et qu’on observe, lorsque ce dernier est mis en moyenne sur une période de 30 ans. Je suivrai cette grille en spécifiant que chaque événement statistique indépendant, dans la séquence de ces événements, a une période de 30 ans. Pour illustrer ceci, je stipule que les temps des débuts et des arrêts des événements variés dans la séquence sont à 0 heure GMT, le 1er janvier dans les années du calendrier grégorien qui sont divisibles par 30.et donc qui tombent dans une série de temps, 1980,201 0…

Un modèle a une ou plusieurs variables dépendantes et chacune est observable. À la fin de chaque événement observé, chaque variable reçoit une valeur. Pour illustrer, je stipule que le modèle d’enquête auquel on fait référence a une variable dépendante ; et c’est HADCRUT3, la température globale quand elle est mise en moyenne sur une période de 30 ans d’un événement. Mais il y a un problème avec ce choix. J’en parlerai plus tard.

Pour illustrer, je stipule que le modèle a deux résultats : la moyenne du HADCRUT3 sur une période par-dessus la période d’un événement est moins que la moyenne dans la population statistique du modèle. Le second résultat c’est cette négation de cette proposition que la moyenne du HADCRUT3 sur une période de l’événement est moins que la moyenne dans la population statistique du modèle. Un modèle a une ou plusieurs variables indépendantes. Chacune de ces variables est observable. Au début de chaque événement observé, ces variables reçoivent une valeur. Des considérations pratiques empêchent le modèle d’avoir plus de 100 variables indépendantes. Parmi les 100 on s’attend à des séries temporelles ou des fonctions de plusieurs séries temporelles qui, seules ou en paires, fournissent un maximum d’information à propos du résultat. Parmi elles on peut trouver :

  • le niveau de CO2 à l’observatoire Mouna Loa.
  • le taux de changement du CO2 avec le temps.
  • la température globale HADCRUT3.
  • HADCRUT3 depuis 1 an.
  • HADCET (la température au centre de L’Angleterre)
  • les précipitations à Placerville en Californie.
  • le taux de changement de la température à la surface de la mer évoluant avec le temps à Darwin en Australie.
  • les lieux ensoleillés à Zurich.
  • l’index mesuré dans une coupe de pin Jeffrey à Truckee en Californie.

Si une ou plusieurs AOGCMs devaient être modifiées pour prédire les résultats des événements, cette prédiction pourrait être une variable indépendante.

Les variables internes des AOGCMs comme la température évaluée dans l’espace et en moyenne à la tropopause seraient de possibles variables indépendantes. Si un AOGCM était capable de prédire des résultats, il générerait des événements virtuels ou théoriques. Cette somme s’ajouterait à celle des éléments observés dans l’attribution des valeurs numériques aux probabilités des résultats. Si un espace variable indépendant (qui contient peut-être quelques séquences temporelles en série comme décrites plus haut) devait être identifié alors cet espace pourrait être cherché pour trouver des patterns. Selon la méthodologie logique, cette quête serait restreinte par le principe de la Raison. Si on réussit, la recherche de patterns aurait créé le maximum d’information possible pour les résultats des décisions de doctrine communiquées aux artisans chargés de la rédaction. On peut aussi échouer dans cette recherche. Alors le maximum d’information possible pour ces artisans serait nul. La chance de découvrir des patterns croîtrait en proportion avec la taille de la population statistique.

Le besoin pour plus d’événements observés

Un peu plus tôt, j’avais signalé comme problématique la période de 30 ans pour les événements. Les relevés de température pour 30 ans c’est long et peu d’événements observés figurent dans la séquence. HADCRUT3 remonte seulement à 1850 et seulement 5 événements observés sont présents. Dans les pronostics du temps qu’il fera, une collection de 130 d’entre eux s’approche du minimum pour découvrir des patterns. Pour réussir à avoir 130 événements sur 30 ans, HADCRUT3 devrait plonger 3900 ans en arrière alors qu’il couvre seulement 160 ans au passé. Les thermomètres datent seulement de 400 ans. D’où notre bilan que la température n’est pas une variable indépendante et on doit chercher une substitution.

Logique et météorologie

Une méthodologie logique a été employée dans au moins sept enquêtes météorologiques. L’expérience gagnée dans cette recherche fournit un peu d’aide pour conduire des investigations logiques et météorologiques. Mais on ne doit pas exagérer là-dessus parce que les problèmes de la météorologie et du climat sont différents et en particulier le nombre des événements observés pour trouver des patterns et remplir des cases. Les résultats des sept enquêtes et qui remplissent les critères de méthodologie logique ont été résumés par Christensen.16 C’est un bond en avant qui va faciliter la prédiction des températures de l’air en surface par saison ou par année, et les précipitations dans les lointains états de l’ouest à moyen ou long terme.

Quant au plan au cœur des enquêtes, il s’agissait d’exploiter les forces complémentaires des modèles mécaniques et statistiques des modèles en intégrant un AOGCM avec un modèle possédant un pattern statistique embarqué. L’AOGCM contribuerait des variables indépendantes au modèle et pourrait aussi contribuer à compter les événements statistiques qui étaient la source d’information pour les projets. Mais on a dû renoncer à l’AOGCM, car il était devenu instable numériquement sur la prédiction de périodes supérieures à quelques semaines. Or le but était de prédire en éléments statistiques sur un an.

Dans une des enquêtes,17 18 126 événements statistiques observés étaient disponibles pour la construction et la validation statistique du modèle. Dans la construction 100 000 séries de séquences par rapport au temps furent examinées comme preuves d’information sur les événements spécifiés du temps. D’autres séries se sont ajoutées en faisant passer les 100 000 à travers des filtres. Par exemple l’un d’entre eux calculait la variation de valeur d’un élément observable année après année. Parmi ces data on a sélectionné 43 variables indépendantes du modèle. Le contenu de l’information sur les résultats et le degré d’indépendance statistique étaient meilleurs. On a utilisé un algorithme pour découvrir les patterns. Un procédé cherchait les patterns dans l’espace cartésien des échantillons de valeurs qui étaient enregistrées par les 43 variables indépendantes. On a alors découvert trois patterns. L’un de ces patterns prédisait les précipitations 36 mois à l’avance. Un facteur de 36 améliorations sur le passé météorologique. Voici ce pattern :

  • les températures de surface du Pacifique normales ou plus éloignées des côtes depuis deux étés, dans la portion ouest dans la ligne de l’équateur à + ou – 10° ET :
  • les températures normales ou plus éloignées des côtes de trois printemps passés dans la portion nord-est de la ligne de l’équateur ET :
  • les précipitations modérées ou faibles à Nevada City il y a 2 ans.

La probabilité se chiffrait à 0,59+/-0,11 pour des précipitations un peu au-dessus de la moyenne, dans l’année à venir d’après un index des précipitations de la Sierra Nevada à l’est de Sacramento.

Une conséquence de cette découverte a été ENSO (El Niño Southern Oscillation), pour une prédiction à moyen ou long terme. L’exploitation de la théorie de l’information a permis d’exfiltrer le bruit dans les séries temporelles et de se mettre en phase avec le signal envoyé par ENSO sur les précipitations à venir dans la Sierra Nevada.

CONCLUSION

Deux enquêtes du WG1 ont été examinées afin de déterminer si leurs méthodologies étaient logiques ou non. Il s’est avéré que les caractéristiques qui sont la marque d’une méthodologie logique étaient absentes. Toutefois, cette absence a été masquée par l’ambiguïté de la référence aux idées associées dans le langage de la climatologie. Cette obscurité pourrait avoir pour conséquence de donner l’impression à un décideur politique que le GIEC lui a transmis des informations sur le résultat de ses décisions politiques. Il a été démontré qu’avec la méthodologie illogique du WG1, le GIEC ne transmettait aucune information de ce type.

En passant à une méthodologie logique, il deviendrait concevable pour le GIEC de transmettre des informations aux décideurs politiques sur les résultats de leurs décisions politiques. Une voie vers une telle méthodologie a été esquissée.


Commentaires des pairs de Terry Oldberg

Jim Cripwell

ΔT se situe entre 2 °C et 4,5 °C…

de Roger Amdrews :

« Mais les faiseurs de doctrine pensent que ΔT détermine entre 2 °C et 4,5° de hausse de température…. je ne pense pas aux faiseurs de doctrine, mais aux organisations comme The Toyal Society ou The American Physical Society. Et les scientifiques qui ont de bonnes positions dans le gouvernement. Si cette déclaration tombe sous le sens, ce qui est le cas, pourquoi Dr Curry (l’interlocutrice de Terry Oldberg) s’accroche comme une perdue à l’idée que CAGW a une certaine base scientifique ?

Roger Andrews

Jim, je ne suis pas sûr si vous êtes d’accord avec moi ou bien êtes ironique. Je m’explique : mon commentaire signifiait que même si les scientifiques sont capables d’atteindre un consensus sur des incertitudes la confrontation avec les faiseurs de doctrine doit faire l’objet d’une négociation. Ils mijotent leur propre science dans leur coin malheureusement. Nous savons que le changement climatique est là et peut faire mal à la vie sur terre. Mais je crois que Dr Curry a raison d’essayer d’injecter de la science dans le climat. On peut dire que CAGW n’a pas de base scientifique et j’y crois, mais si c’est le cas alors on doit démontrer cela scientifiquement.

Jim Cripwell

Terry Olberg a démontré ceci. Ce qu’il a écrit doit être projeté sur un écran si on discute CAGW. Si Terry a raison et il a raison alors des organisations comme le RS et l’APS doivent complètement retirer leur allégeance à CAGW.

Roger Amdrews

….La position de plusieurs scientifiques sur CAGW est intenable.

Terry Oldberg

Une fois j’ai constaté dans le passé un support unanime de pseudo-scientifiques dans des positions de pouvoir et avec une méthodologie viciée. En écrasant mon challenge, eux et leurs sponsors financiers ont réussi à imposer ces résultats et à baser leur doctrine dessus. Mais c’est une question de sécurité. Je doute que les faiblesses en logique de la climatologie du GIEC soient corrigées un jour simplement en les exposant au grand jour. Pour ce faire il faudrait un groupe de pression organisé et financièrement robuste. Lui seul pourrait changer la donne.

Rob Starkey

C’est intéressant. Donc pas de consensus sur le changement de climat sauf sur peu de points. Comme les climatologistes et les sociétés scientifiques de renom appuient les conclusions WG1, un administrateur pourrait conclure qu’il y aurait de l’information à glaner. Le protocole de Kyoto va dans ce sens. Les gens derrière l’agence américaine de protection pour l’environnement et leur notion de « risque majeur » sont dans la même optique. Mais ils sont dans l’erreur.

Hector M

Un bon point là-dedans. La confusion entre prédiction (dériver une valeur réfutable pour une situation,) et projection (à partir d’un scénario donné) doit être expliquée. Autre confusion sur un éventail de résultats dans un ensemble de projections et de modèles d’une part, et d’autre part la distribution statistique des probabilités pour les valeurs diverses d’une variable au hasard. Cela a été dit auparavant, mais pas avec une telle rigueur et clarté.

Alex Pope

Bien long, mais bien intéressant… le consensus sur la théorie du climat et les modèles échouent au test de logique.

Ricka

Une question pour Terry… Pourrait-on augmenter le nombre d’événements en changeant la période de 30 ans par un an ? Est-ce trop court et cela ne marcherait pas ? C’est la seule façon pour obtenir 130 événements à partir des data courantes de température. Si on se tourne vers un succédané, cela semble problématique, car tous les succédanés semblent effacer la variabilité naturelle et la réduisent à environ 10 ans. Avez-vous un succédané en tête qu’on puisse l’utiliser au lieu de l’index des températures ? (Si 1 année est trop courte pour faire venir 130 événements)

Terry Oldberg

Bonne question ! Quelle est la période pour les événements et quel succédané utiliser ? On doit identifier la question d’une organisation spéciale qui aurait la réponse. Dans mon article, j’introduis l’idée que les climatologistes en bloc sont ignorants de la modélisation et de l’information qu’elle apporte en théorie et qui doit être optimale. Les climatologistes qui sont confrontés aux problèmes difficiles doivent comprendre ces règles. On doit tous s’atteler à cette tâche.

Ceri

Vous dites que ΔT n’est pas observable. Vous voulez dire pas mesurable directement ? Mais GIEC et le consensus sont d’avis que le changement dans la température globale en moyenne est lié au changement dans l’équilibre de la température. Il y a peut-être des “empreintes” ? Vous semblez vouer presque la Science du climat actuelle aux Gémonies en disant que ΔT n’est pas observable donc que les propositions sur ΔT ne peuvent être restées et sans valeur. Voulez-vous clarifier ? Pourquoi ne pas mesurer le changement dans la température globale moyenne en tant que succédané à ΔT ? On dirait que la température globale moyenne est monotonique avec ΔT. Donc vous pouvez dire que ΔT est supérieur que la température moyenne globale et observée.

Jim Cripwell

Ceri, vous écrivez tombe sous le sens. ΔT n’est qu’une hypothèse. Pas vraiment d’existence.

David Hagen

Quelle base avez-vous Ceri, pour mesurer le changement de température en équilibre ? C’est quoi cet équilibre ?

Arthur Bryant

Vous posez la bonne question. ΔT est probablement monotonique avec la température globale moyenne. Mais il n’en découle pas que le changement arrive dans les températures en équilibre. Dans le contexte de l’équation ΔT est présupposé être lié avec ou — causé par un changement dans le CO2. (Il n’y a pas f’autres facteurs dans l’équation.) C’est une supposition et je pense donc qu’elle est non observable.

Terry Oldberg

Ceri, quand je dis que ΔT n’est pas observable je ne veux pas dire qu’il ne peut être mesuré directement, mais plutôt qu’il ne peut être mesuré. Comment le mesurer ?

Ceri

Votre article a de la valeur. Les gens intéressés par le climat devraient le lire et réfléchir sur leur démarche, ce qu’ils font réellement et pas ce qu’ils se vantent de faire. Les politiciens devraient lire ceci, mais ils ne le feront pas. Pour mesurer ΔT… je ne sais pas trop. Je pense que ΔT c’est le changement dans la température moyenne qui devrait advenir si le niveau de CO2 restait constant avec une valeur connue. On le comparerait au niveau CO2 du passé avec une valeur constante. Ceci dans la période des 30 ans. J’ai pu me tromper, mais si ΔT est ainsi on peut trouver une méthode pour l’estimer même si on ne peut le mesurer directement (parce qu’on ne peut conduire une expérience mondiale à deux différents constants niveaux de CO2 sur 30 ans pour chacun, toutes choses demeurant égales. Par exemple le niveau de CO2 de 1900 à 1930 et l’index de température à la même époque. Après un calcul on estime une valeur de température en équilibre ou bien 1970 à 2000. On peut se servir de techniques statistiques et arriver à un éventail de valeurs pour la température en équilibre. À partir de là on peut estimer ΔT. (Si ma connaissance de ΔT est correcte.) Ce ne serait pas très précis, mais ce serait une estimation et elle peut servir. Si quelque chose n’est pas observable directement cela n’exclut pas qu’on ne puisse en tirer une estimation et même si elle comporte des erreurs décider que l’équation de la sensibilité du climat est in outil utile. Avez-vous dit que même si on observe des changements dans la température globale en moyenne et on essaie d’estimer ΔT avec, en fait ces changements sont amenés par des facteurs multiples non identifiables et non compréhensibles, donc essayer de capter ΔT dans ces conditions est inepte. Si vous croyez cela alors la question est close. Il y a des climatologues qui se vantent de comprendre la question de la température moyenne globale qui change et ils peuvent identifier ΔT en exfiltrant la contamination de la température par d’autres sources naturelles. Si vous affirmez que c’est impossible, alors mettez cela dans l’Article.

Tom Scharf

Les climatologues assignent des probabilités spécifiques à des projections non réfutables. Une absurdité. Les médias nous ont bassiné avec cette histoire en tentant d’accrocher la dernière inondation ou chute de neige à une prédiction vérifiée de la théorie du réchauffement. On lit : » quelques scientifiques ont dit…. un journal devient la position consensuelle du jour au lendemain. On voit aussi des ouragans forts et fréquents. La Science c’est créer la théorie puis la tester. Mais pour être crédible, vous devez prédire les événements spécifiques de votre test avant de le mettre en route. Et vous devez dire comment vous mesurer ces événements pour que d’autres puissent répéter vos tests. La validité des tests est un autre sujet. La Science du climat est mal partie. Ils sont trop sûrs d’eux. Ils dépensent des milliards et toujours pas de prédictions réfutables !

Ils nous ont bassinés avec les prédictions d’ouragans ces jours derniers, mais ils font des prédictions claires, discutent et corrigent les erreurs quand la saison se termine. C’est bien. Ils ne prétendent pas ce qu’ils ne sont pas pour accomplir un agenda.

Tallbloke

L’AOGCM, ils ont confiance en lui…. Peut-être ! Quand un ensemble de plusieurs modèles montre des anomalies similaires. Quand vous voyez les data comme température absolue et une variation de 5 °C dans les différents modèles, je commence à douter !

David Hagen

Donnez des liens pour ces résultats !

Bob Koss

Il y a quelques années Lucia a publié un graphique spaghetti de 2 douzaines de modèles et gistemp.

http://rankexploits.com/musings/2009/fact_6a- model-simulations-dont-match-average-temperature-of-the-earth/

Anander

Selon vous il suffit de regarder l’anomalie de la température globale en surface pour voir comment elle se comporte ?

Bob Koss

Je ne suis qu’un amateur, mais voilà comment je comprends :

La température absolue de la plupart des modèles se situe à deux degrés moins élevés que les mesures sur le terrain. Leur modélisation glace/neige ne peut pas refléter la couverture réelle de chaque année. Cela mènerait à des changements albédo mal modélisés et on s’en sert pour calculer le budget de l’énergie. Donc on ne doit pas utiliser les anomalies comme une jauge d’un modèle de bon aloi.

Bob Droege

Pas de réponse possible. La température à équilibre ΔT n’est pas observable. Montrez-moi vos calculs ! Nous pouvons attendre que la concentration du CO2 double et alors regarder le changement de température.

L’événement Ootong-Java a causé presque un doublement du CO2 et il y en a d’autres donc c’est observable. S’il est difficile de réfuter, cela ne veut pas dire que c’est impossible.

Harold

ΔT n’est pas observable puisque la terre n’atteint jamais une température en équilibre. Si on ne peut le mesurer directement, il n’est pas observable.

Bob Droege

Ce qui signifie que la terre ne peut avoir une température observable. Donc cette discussion est infructueuse et nous revenons au point de départ. Reductio ad absurdum. Rien n’est mesuré directement. On ne mesure pas la température, mais la hauteur du liquide avec une échelle ou bien la résistance d’un circuit. Tout ceci c’est du temps perdu. La terre a une température moyenne que ce soit avec un équilibre ou pas du tout. Si vous mesurez la température d’un kilo de n’importe quoi, vous pouvez mesurer aussi celle de 10 à 24 kg. La température est une moyenne.

Philip Bradb

La température est une variable à forte intensité. Comment mesurer la température de la terre ?

Bob Droege

Ok. Donc la température ne dépend pas du volume mesuré. On mesure la température de la terre comme n’importe quoi d’autre. Envelopper la terre avec du fil de fer et mesurer la résistance puis convertir en température.

Terry Oldberg

Une quantité observable signifie qu’elle peut être mesurée dans le monde réel par un instrument. Les températures de l’air à la surface fluctuent, mais pas celle de la température en équilibre. Donc la température à l’équilibre n’est pas observable.

Bob Droege

La température à l’équilibre ne fluctue pas ? Regardez la définition de Kelvin. C’est conçu en termes de quelque chose en équilibre ce qui est observable comme nous l’observons ou alors chaque fois qu’on mesure en Kelvin on observe du non observable.

Terry Oldberg

Je crois savoir que la « température d’équilibre » est un terme utilisé par les astronomes spécialistes des planètes. On peut obtenir diverses descriptions de ce qu’ils entendent par ce terme en tapant sur Google « température d’équilibre » et « planète ». Ce faisant, je suis parvenu à la conclusion que ce qu’ils entendent par ce terme est que les températures à des points spatiaux référencés (par exemple, à la surface de la Terre) ne changent pas.

Bob Droeg

Votre conclusion est erronée. Les astronomes mesurent la température en utilisant d’autres paramètres qu’ils peuvent mesurer plus directement comme l’albédo et l’irradiation venue d’une étoile la plus proche. Si les paramètres changent alors les températures qui en résultent changent aussi. Allez voir sur un site de première année d’astronomie. Cette température de cette planète est observable, mais on obtient des erreurs sauf pour les planètes qui ont peu gaz à effet de serre.

Terry Oldberg

Vu que le terme température à équilibre est une température sans changement ce n’est pas observable parce que dans la réalité les températures fluctuent. Oui ou non ?

Bob Droege

J’ai trouvé votre erreur ! Le terme de température à l’équilibre ne signifie pas qu’elle ne change pas. Personne n’a dit cela. Êtes-vous en train de dire qu’une valeur constante est inobservable ? L’équilibre comme adjectif ne modifie pas la température. Il se réfère su jeu de balance entre la radiation qui arrive et celle qui repart à la surface de la terre.

Terry Oldberg

Décrivez un instrument par lequel la température à l’équilibre peut être mesurée.

Bob Droege

Regardez ceci. C’est probablement inachevé, mais il contient des images d’un instrument qui peut mesurer la température à une radiation en équilibre. http://www.princeton.edu/~marsland/Junior_Paper.pdf

Êtes-vous en train de soutenir que c’est la température qui est en équilibre alors qu’il y a la preuve que c’est autre chose qui est en équilibre ?

Vous savez que si les axiomes présentés dans une preuve se révèlent faux, la preuve est invalide.

Terry Oldberg

bobdroge :

J’ai parcouru le document que vous avez cité à l’adresse http://www.princeton.edu/~marsland/Junior_Paper.pdf à la recherche d’une description d’un instrument permettant de mesurer la température d’équilibre. Je n’ai pas trouvé de description. En revanche, j’ai trouvé matière à discussion.

Il semble que l’auteur ait eu l’idée d’appuyer les limites de la valeur numérique de TECS sur des séries temporelles provenant de radiomètres embarqués à bord d’un satellite. Lindzen, Spencer et leurs collègues essaient de faire quelque chose de similaire. Si l’on pouvait mesurer le TECS de cette manière, on disposerait d’un instrument de mesure de la température d’équilibre, car le niveau actuel de CO2 déterminerait la température d’équilibre par le biais de l’équation (1) de mon article. Cependant, il y a un problème. En effet, pour mesurer le TECS, il faut partir d’un modèle réfutable. À cette fin, l’auteur utilise l’équation différentielle numérotée (25), page 15. Bien qu’il ne traite pas directement de la non-réfutation de son équation (25), l’auteur aborde cette question. Il déclare (page 15) qu' »il n’y a aucune raison de s’attendre à ce que la dépendance de l’un des effets de rétroaction sur la température soit proche de la linéarité, mais l’obtention d’une plus grande précision dépasserait le cadre de cet article ».

Pour parvenir à l’équation (25), l’auteur a supposé la linéarité. Cette supposition est une technique qui peut être utilisée pour réduire un système complexe à des relations de cause à effet. Cependant, en procédant à cette réduction, on fabrique de l’information. Il s’agit d’une faille logique dans la proposition selon laquelle il est possible de mesurer la température d’équilibre de cette manière particulière.

bobdroege

Ok,

Il y a une photo de l’instrument pour mesurer la température d’équilibre radiatif de la terre à la page trois avec un dessin et une description à la page 30.

Cette température d’équilibre est calculée après avoir mesuré l’albédo de la terre, la radiance solaire, la surface du disque solaire, la température de la surface du soleil, la distance du soleil à la terre et l’émissivité de la terre. Il faut ensuite introduire le tout dans une équation que l’on peut trouver ici.

http://en.wikipedia.org/wiki/Black_body

ce qui conduit à cette équation, que l’on peut trouver à de nombreux endroits.

http://books.google.com/books?id=Bgsy66mJ5mYC&pg=RA3-PA382&dq=black-body+emissivity+greenhouse+intitle:Planetary-Science+inauthor:cole&hl=fr#v=onepage&q=black-body%20emissivity%20greenhouse%20intitle%3APlanetary-Science%20inauthor%3Acole&f=false

Cette source précise ce que l’on entend par « équilibre » et soutient l’idée que la température n’est pas ce qui est en équilibre.

Votre équation (1) ne calcule qu’un changement de température dû à un changement de concentration de CO2, et vous ne pourriez pas calculer une température avec cette équation si vous connaissiez la sensibilité du climat.

Tout votre système de classification de TECS en tant que modèle repose sur le fait que la température d’équilibre est une entité non mesurable, ce qui est manifestement faux.

Et votre concept de réfutabilité, si tant est qu’il s’agisse d’un mot, exige-t-il plus qu’une expérience imaginable qui réfuterait une hypothèse ?

Terry Oldberg

bobdroege :

En ce qui concerne la première de vos deux remarques, l’instrument de la page 30 est un radiomètre. Il ne mesure pas la température (à l’équilibre ou non) mais l’intensité du rayonnement électromagnétique.

En ce qui concerne la deuxième de vos deux remarques, je suppose que cette remarque fait référence à l’équation (X.4) du livre Planetary Science. L’équation X.4 est un modèle d’une planète fictive qui, contrairement à la planète Terre, a une température de surface spatialement invariable.

bobdroege

Vous n’avez toujours pas compris le concept de température d’équilibre et la façon dont elle est mesurée. La température d’équilibre fait référence à la température d’un corps à l’équilibre radiatif, et non pas à la température à l’équilibre. L’incapacité à saisir correctement ce concept vous a conduit sur un long chemin de raisonnement erroné.

Terry Oldberg

bobdroege :

Votre définition de la « température d’équilibre » n’est pas celle qui est à la base de ma conclusion. Comme je l’ai dit plus haut, la mienne fait de la « température d’équilibre » l’équivalent de la température qui, dans le transfert de chaleur en ingénierie, est appelée « température d’équilibre ». J’ai eu l’impression que cette définition était celle des astronomes planétaires en surfant sur leurs sites Web. Par exemple, la page Web http://lasp.colorado.edu/~bagenal/3720/CLASS6/6EquilibriumTemp.html indique, à propos de la « température d’équilibre », que « l’équilibre signifie qu’il n’y a pas de changement dans le temps ». Ainsi définie, la « température d’équilibre » à la surface de la Terre n’est pas une variable observable.

Au lieu d’être une observable, la température d’équilibre à la surface est une abstraction du monde réel. Je ne suis pas exactement sûr de ce que vous entendez par « la température à l’équilibre radiatif », mais il semble qu’il y ait une abstraction supplémentaire selon laquelle le transfert de chaleur est entièrement radiatif.

(…)


Références

⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.