Des mesures sans queue ni tête

[Source : ndt.net]

[Traduction John Hunter (révisée par J. S).]

Par Terry Oldberg et Ronald Christensen.

Publié initialement par l’American Society of Mechanical Engineers. 1995.

RÉSUMÉ

Cet article expose une incohérence dans le domaine du contrôle non destructif (CND) [de structures et de matériaux] et souligne les dangers de la confusion qui en découle. Les objets physiques présents dans une population statistique occupent une partition de l’ensemble des objets physiques considérés. Cependant, de nombreuses procédures de CND testent des objets physiques qui ne figurent pas dans une telle partition. L’incohérence a lieu lorsque les scientifiques CND représentent des objets physiques qui n’occupent pas de partitions comme éléments de populations dans leurs études sur la fiabilité du CND. Les populations fictives invalident la définition de la probabilité en tant que mesure d’un événement dont la valeur pour un cas certain est 1.

La probabilité étant invalidée en tant que mesure de la fiabilité d’un test, les scientifiques du CND ont procédé en représentant une mesure différente d’un événement sous la forme d’une « probabilité ». Le lecteur qui interprète la mesure de l’étude comme une probabilité se trompe donc sur plusieurs points. Par exemple, la certitude apparemment parfaite qui accompagne une valeur de 1 pour la probabilité de détection de l’étude est en fait une ambiguïté parfaite parce que la valeur de cette mesure sur l’événement certain d’un défaut est de 2. Des conséquences graves sont imaginables si un ingénieur de réacteur devait agir sur la base de la représentation de l’USNRC [U. S. Nuclear Regulatory Commission : Commission de réglementation nucléaire des États-Unis].

Les auteurs recommandent d’éviter les conséquences d’une telle confusion et d’autres cas de confusion en revisitant les rapports du passé d’après nos recommandations. Celles-ci emploient un langage qui permet de distinguer les probabilités et les populations correctes de celles qui ne le sont pas. À plus long terme, ils recommandent la refocalisation du CND sur des probabilités et des populations correctes.

Introduction

La probabilité est une mesure d’un événement dont la valeur pour un événement certain est 1. (Halmos, 1950) Cependant, certaines irrégularités dans la conception d’une population statistique d’une étude peuvent donner une probabilité dont la valeur pour un événement certain est susceptible de s’écarter significativement de 1. À l’instar d’un « yard » étalon qui s’écarterait sensiblement du 0,9144 mètre orthodoxe, cette « probabilité » a la capacité d’induire gravement les gens en erreur. Le fait qu’elle ait été la mesure insoupçonnée de la fiabilité du contrôle non destructif (CND) dans des domaines de l’ingénierie sensibles aux erreurs incite à formuler l’avertissement suivant.

Les ingénieurs utilisent le contrôle radiographique, le contrôle par ultrasons et d’autres méthodes de contrôle non destructif pour diagnostiquer des problèmes avec des structures qui fonctionnent sous un stress mécanique. Ils sont particulièrement enclins à l’utiliser dans des situations où la défaillance d’une structure pourrait causer des dommages. Cependant, le CND peut lui-même causer des dommages lorsqu’il est erroné. C’est pourquoi les ingénieurs ont été amenés à établir les probabilités d’erreur dans les différentes méthodes de CND. Ces « probabilités » n’en sont parfois pas.

Notre article comporte trois parties. La première, PROBABILITÉ versus PSEUDOPROBABILITE, établit et oppose deux mesures d’un événement. La probabilité est consistante avec la population. La pseudoprobabilité est consistante avec la pseudopopulation ou bien une population irrégulière. Ces deux mesures sont légitimes, mais différentes. Donc quand la littérature appelle « probabilité » la pseudoprobabilité d’une étude, il y a tromperie.

La seconde partie, UNE CONFUSION NUCLÉAIRE, expose ce type de confusion dans une étude de la Commission de réglementation nucléaire des États-Unis. En ce qui concerne les niveaux dangereux d’endommagement d’un composant de réacteur nucléaire, sa probabilité de détection est une pseudo-probabilité dont la valeur est de 2 pour l’événement certain d’un défaut. Donc la valeur de 1 que l’agence considère comme la probabilité de découvrir une condition dangereuse dans un réacteur suggère une certitude absolue que le test est valide, mais est en fait une ambiguïté parfaite quant à la validité du test.

La troisième partie, CONCLUSION ET RECOMMANDATIONS, avertit le lecteur de s’attendre à des surprises du même genre dans toute la littérature CND. La recommandation étant que la littérature soit transformée dans le langage des pseudoprobabilités et que cesse la confusion. Nous proposons que la littérature CND soit restructurée pour définir des populations réelles et des probabilités.

PROBABILITÉS contre PSEUDOPROBABILITÉS

Dans Sampling Techniques, le statisticien William Cochran propose une règle qui permet d’obtenir une population [statistique] lorsqu’elle est respectée. Avant de chercher un exemple d’étude, sa population doit être divisée en objets physiques qu’on nomme des unités. Ces unités doivent couvrir la population totale et ne doivent pas faire double emploi, dans le sens que chaque élément de la population appartient à une unité et une seule (Cochran 1977). Les unités d’une étude doivent occuper une partition de la population. Dans la suite de l’article, nous nous efforcerons d’expliquer ce que cela signifie.

Figure 1
Une partition. La classe de deux triangles est une partition du rectangle.

On dit qu’une classe {A1, …, An} d’ensembles A1, …, An est une partition de l’ensemble A si chaque élément de A appartient à un ensemble dans {A1, …, An} et si deux ensembles dans {A1, …, An} n’ont pas d’élément en commun. La figure 1 montre une classe de deux triangles qui est une partition d’un rectangle. Dans cet exemple du diagramme de Venn, une classe est représentée par un ensemble d’objets géométriques, un ensemble par un objet géométrique seul et un élément de l’ensemble par un point à l’intérieur d’une limite d’un objet géométrique.

Nous allons référencer une classe {A1 …, An} comme une pseudopartition d’un ensemble A si cela n’est pas une partition de A. La figure 2 montre un exemple de pseudopartition. La classe de deux cercles est une pseudopartition du rectangle. Noter la région de superposition entre les deux cercles et la région du rectangle qui n’est pas couverte par un cercle.

Figure 2
Une pseudopartition. La classe des deux cercles est une pseudopartition du rectangle.

Dans cet article l’entité que Cochran nomme « un élément dans la population » sera appelée un point de données. Dans l’étude du test de confiance, chaque point de données est une paire de nombres représentant les valeurs véritables et vérifiées de la propriété d’un objet physique et qui est mesurée par le test. L’ensemble complet des points de données possibles se nomme espace d’échantillonnage. Un événement est un sous-ensemble d’un espace d’échantillonnage.

Pour caractériser la fiabilité du test, son investigateur sélectionne une partition de l’espace d’échantillonnage. Puis il estime une valeur pour la probabilité de chaque événement dans la partition. Bien qu’il existe une grande variété de partitions, les chercheurs choisissent généralement la plus simple. Ses événements sont appelés un vrai positif, un faux négatif, un vrai négatif et un faux positif.

La figure 3 montre l’espace d’échantillonnage qui se rapporte à l’étude de la fiabilité des tests et cette partition de l’espace.

Figure 3
L’espace-échantillon qui se rapporte à l’étude de la fiabilité des tests et la partition la plus populaire de celle-ci.

La fréquence relative d’un événement est le nombre d’objets physiques qui participent à l’événement divisé par le nombre de points de données dans l’espace d’échantillonnage. La probabilité d’un événement modélise la fréquence relative du même événement. Inversement, la valeur de la fréquence relative d’un événement permet de vérifier empiriquement la valeur qu’une certaine théorie attribue à la probabilité de cet événement. La validation empirique est le sceau de la Science (K. Popper 1959).

De ce point de vue de la validation empirique, un événement certain a une signification particulière, car la valeur de sa probabilité est 1 selon sa définition. La fréquence relative d’un événement certain est le nombre d’objets physiques qui participent à l’événement divisé par le nombre de points de données dans l’événement. Par exemple, dans un test de patients pour le [supposé] virus de l’hépatite B, la fréquence relative d’un événement certain d’un vrai positif est le nombre de patients vrais positifs divisé par le nombre de résultats vrais positifs. Une fréquence relative d’un événement certain et dont la valeur est 1 cadre avec la définition de la probabilité. Une fréquence relative d’un événement certain dont la valeur n’est pas 1 ne cadre pas avec la définition de la probabilité.

La fréquence relative d’un événement certain est une mesure du degré de couverture de cet événement par des objets physiques. Quand la fréquence relative de chaque événement dans une partition d’un espace d’échantillonnage d’une étude est 1, cela signifie que chaque objet physique dans l’ensemble complet qu’ils forment participe dans un et un seul événement. Si cela est vrai, la classe des ensembles d’objets physiques qui participent aux événements variés est une partition de l’ensemble complet des objets physiques.

Il y a deux autres possibilités. Dans la première, il y a des objets physiques qui participent dans plus qu’un seul événement dans une partition d’un espace d’échantillonnage. Dans ce cas, on dit que les ensembles des objets physiques qui correspondent à ces événements se superposent. Dans la seconde, moins d’objets physiques participent dans un événement qu’il y a de point de données. On dit donc que l’ensemble des objets physiques correspondant à cet événement couvre imparfaitement l’événement. Si la classe d’ensembles d’objets physiques correspondant à la partition d’un espace d’échantillonnage présente une sous-couverture ou un chevauchement, il s’agit d’une pseudopartition de l’ensemble complet d’objets physiques. Ceci ne cadre pas avec le processus de vérification empirique d’un modèle de probabilité puisqu’une partition cadre avec le processus de vérification empirique. La vérifiabilité empirique étant la marque de fabrique de la science, la différenciation entre pseudopartition et partition revêt une grande importance scientifique.

Dans les statistiques normales, on appelle « unité » un objet physique qui appartient à une partition, « population » un ensemble d’unités et « sous-population » un sous-ensemble d’une population. Aucune terminologie uniforme n’est apparue dans le domaine des statistiques anormales, c’est pourquoi nous allons en inventer une. Un objet physique qui appartient à une pseudopartition est une « pseudo-unité ». Un ensemble de ces pseudo-unités, une « pseudopopulation » et un sous-ensemble de celles-ci, une « pseudo sous-population ». Pour compléter l’analogie, nous définissons la pseudoprobabilité comme une mesure d’un événement dont la valeur sur un événement certain est égale à la valeur de la fréquence relative de cet événement. La valeur de la pseudoprobabilité d’un événement certain est vérifiée empiriquement par la fréquence relative du même événement. Donc une pseudopartition d’un ensemble complet d’objets physiques cadre avec la vérifiabilité d’un modèle pseudoprobalistique.

Le physicien Lazar Mayant a noté que la discipline qui inclut le concept de probabilité, partition, population, subpopulation et unité est empiriquement vérifiable et donc peut être considéré comme Science (Mayant 1984). Selon lui, c’est la probabilistique. On peut noter que la discipline qui inclut les concepts de pseudoprobabilité, pseudopartition, pseudopopulation, pseudo sous-population et pseudo-unité est aussi empiriquement vérifiable et donc aussi une Science. Nous la nommerons pseudoprobalistique.

Bien que la probabilistique et la pseudoprobabilistique soient toutes deux cohérentes sur le plan interne, leurs concepts ne peuvent pas être mélangés. Il est donc important de séparer les deux concepts d’un point de vue linguistique. La confusion serait de mélanger pseudoprobabilité et probabilité. C’est arrivé avec l’USNCR (US nuclear commission regulation).

La confusion nucléaire

E.R Bradley et ses collègues étudièrent la fiabilité de CND dans des tubes de générateur à la vapeur d’un réacteur nucléaire (Bradley et coll. 1988). Les tubes contiennent l’eau qui refroidit le réacteur et transfèrent la chaleur à l’extérieur. Si les tubes se rompent, le cœur du réacteur concerné fond et la charge radioactive s’échappe dans la biosphère. Mais les tubes peuvent souffrir de corrosion. Un certain nombre de tubes a éclaté pendant l’opération et l’USNRC a depuis lors déclaré des inspections périodiques par CND.

L’étude de Bradley est la seule à compter. Elle est substantielle. L’inspecteur scanne à distance les tubes avec un senseur. Le senseur est inséré dans le tube qui doit passer l’inspection. Il parcourt le tube et émet des données. Celles-ci sont décodées par l’inspecteur. La procédure indique le dommage interne. Chaque indication contient une estimation de la pénétration radiale du tube par la corrosion, l’identité du tube et la position axiale du capteur. Les indications sont enregistrées.

Bradley demanda à l’équipe d’inspecteurs de tester un certain nombre de tubes selon la routine. Ces prescriptions émanent de la ASME (American society of Mechanical engineers) sous la direction de l’USNRC. Puis les tubes furent démontés pour tenter d’établir la fiabilité de leur inspection. En construisant le modèle de fiabilité, Bradley sélectionna la partition de l’espace d’échantillonnage, celle qui contient un vrai positif, un faux négatif, un vrai négatif et un faux positif.

En mécanique comme en statistique, vrai positif et faux négatif sont appelés des défauts. Dans le cas d’un événement vrai négatif ou faux positif, on parle de non-défauts. Les deux événements défaut et non-défaut forment une partition d’un espace d’échantillonnage dans l’étude de la fiabilité du test.

Une simplification se produit quand un défaut et un non-défaut sont certains. Avec le défaut certain, la probabilité ou la pseudoprobabilité d’un vrai positif et la pseudoprobabilité d’un faux négatif sont égales à la fréquence d’un événement certain d’un défaut. Comme probabilité et pseudoprobabilité sont dépendants, la fiabilité d’un texte peut être caractérisée par les termes d’une d’entre elles seulement. Bradley appuie cette caractérisation sur la probabilité ou la pseudoprobabilité d’un vrai positif. Il l’appelle probabilité de la détection.

Même chose avec un non-défaut certain. La probabilité ou pseudoprobabilité d’un vrai négatif et la probabilité ou pseudoprobabilité d’un faux positif sont égales à la fréquence relative d’un événement certain d’un non-défaut. Comme probabilité et pseudoprobabilité sont dépendantes, la fiabilité du test peut être caractérisée dans les termes d’une seule de ces deux catégories.

Quand on lit le rapport de Bradley, on note une incongruité dans l’utilisation de la terminologie, ce qui gêne la compréhension de la question : l’ensemble complet des objets physiques du test ASME/USNRC contient-il des unités ou des pseudo-unités ? Les objets physiques sont identifiés comme « défauts », mais un défaut est le nom d’un événement et pas un objet physique comme plusieurs statisticiens insistent auprès de leurs lecteurs (Bocker et coll. 1972. Juran 1974).

Cependant, pour Perdijon, dans un article récent écrit que dans le CND, le « défaut » désigne souvent un objet qui a une certaine limite dans l’espace. Il suggère que le terme « discontinuité » soit réservé à un objet de ce genre (Perdijon 1993). Dans certains cas, une discontinuité dans la limite entoure le matériau. Alors l’objet physique est défini par sa limite.

Cette conception du « défaut » peine à résoudre la question, car les « defauts » de Bradley sont presque en totalité les vides à l’extérieur du tube que la corrosion attaque. Un vide est une limite définie qui n’entoure aucun matériau et n’est pas physique. Un tel objet ne possède aucune propriété intrinsèque que le CND puisse mesurer.

S’ils n’ont pas de propriétés, alors les « défauts » de Bradley ne font rien pour appuyer l’établissement des valeurs de propriété dont il parle. On imagine que Bradley considère les discontinuités comme dictant les propriétés des objets physiques dans lesquels elles sont inscrites. Cependant notre conclusion est qu’il y a une différence minime entre ces objets physiques et ces discontinuités, si bien que Bradley balaye la distinction. Selon cette théorie, le « défaut » de Bradley est un territoire de discontinuité plus une fine couche de matériau qui adhère à son extérieur. Cette couche est assez mince pour que les dimensions d’un « défaut » soient essentiellement les mêmes que les dimensions de la discontinuité qui y sont enchâssées. Mais ce « défaut » est un objet physique à cause du matériau. Nous adopterons la théorie de Bradley quant au « défaut » en procédant à notre analyse de son étude tout en mettant entre guillemets le mot lui-même pour rappeler au lecteur qu’il désigne un objet physique et pas un événement. Quand le mot désigne un événement, il sera en italiques.

Les « défauts » de Bradley ont été définis par les métallurgistes qui pratiquent des tests de destruction après l’inspection des tubes. Les 108 « défauts » étaient courts, avec dans l’axe une longueur moyenne de 1 pouce. À ±3 pouces, l’incertitude positionnelle axiale de chaque indication était plutôt grande en comparaison. Donc chaque indication répertoriée comme « défaut » pouvait ne pas avoir enregistré ce « défaut ». De la même manière, chaque indication qui n’est pas un « défaut », mais ceci a 3 pouces près, aurait pu être rapportée comme « défaut ». En raison de la grande incertitude positionnelle, la question de savoir si une indication tombant à moins de 3 pouces de l’extrémité d’un « défaut » faisait référence à ce « défaut » ou n’y faisait pas référence avait une réponse totalement ambiguë.

Bradley a résolu ce problème de manière à faire écho au thème de cet article. Si le « défaut » a une indication à l’intérieur de 3 pouces, c’est un vrai positif. Sinon c’est un faux négatif. Ensuite, il a divisé le nombre de « défauts » qui sont vrai positifs par le nombre total de « défauts » et encapsulé le tout dans le ratio de la probabilité de détection. Bradley représente cette méthodologie dans un graphique (figure 4) avec pour ordonnée la probabilité de détection et pour abscisse la perte de la partie métallique. C’est le degré de pénétration de l’épaisseur du tube par un « défaut ».

Figure 4
Graphique de la probabilité de détection en fonction de la perte métallurgique de paroi (Bradley et coll., 1988.)

La figure 4 montre que la probabilité de détection passe de 0, lorsque la perte métallurgique de la paroi est inférieure à 5 %, à 1, lorsque la perte métallurgique de la paroi est supérieure à 75 %. Comme les tubes sont hors service quand la perte de la partie métallique est plus de 80 %, ce graphique représente la certitude qu’un « défaut » sera signalé lorsqu’il atteindra un niveau de corrosion dangereux. Cependant, cette représentation est en contradiction avec notre observation précédente : il est totalement ambigu de savoir si une indication fait référence à un « défaut » particulier ou à quelque chose d’autre. Analysons comment ce conflit survient, dans le cadre de la probabilistique et de la pseudoprobabilistique.

La probabilité de Bradley estime les résultats sur la base d’une méthodologie dans laquelle il assigne un faux négatif à un « défaut » s’il ne l’assigne pas à un vrai positif. Cette méthodologie cadre avec l’assomption que le test ASME USNRC définit une partition de l’ensemble complet des objets physiques sous test. À cet effet Bradley suggère qu’une unité du matériel inspecté tombe toujours dans les catégories suivantes :

  • *vrai positif si l’indication de défaut est rapportée et il y en a un en vérité.
  • *faux positif si une indication de défaut est rapportée, mais il n’y en a aucun.
  • *faux négatif : pas de rapport d’un défaut, mais il existe.
  • *vrai négatif : pas de rapport de défauts et pas de défaut présent.

Ceci est une description de la partition.

Cependant la logique de Bradley implique un conflit avec cette assomption. Chaque « défaut » est vrai positif s’il est à l’intérieur de 3 pouces d’une indication. La même règle attribue aussi chaque « défaut » de ce type à un faux négatif. Examinons les conséquences de cette ambiguïté.

La probabilité de détection de Bradley (voyez la figure 4) est soit la probabilité d’un vrai positif, soit la pseudoprobabilité d’un vrai positif. Il s’agit d’une probabilité si la fréquence relative de l’événement certain d’un défaut est de 1 et d’une pseudoprobabilité dans le cas contraire. On désigne par ntp le nombre de « défauts » que Bradley attribue à un vrai positif et nfn le nombre qu’il attribue à un faux négatif. On désigne par fd la fréquence relative de l’événement certain d’un défaut.

Alors :

(1)

Nous avons doublé ici le nombre de « défauts » que Bradley attribue au vrai positif en calculant le nombre d’objets physiques qui correspondent à un vrai positif ou à un faux négatif parce que Bradley dans sa logique attribue un « defaut » à un faux négatif chaque fois qu’il en attribue un à un vrai positif, mais Bradley ne l’a pas attribué [directement] à un faux négatif. Bradley estime la probabilité de la détection dans la figure 4 à partir de :

Probabilité de détection = (2)

Si on combine les équations (1) et (2) on conclut que la fréquence relative d’un événement certain d’un défaut est donnée par :

Fd = 1 + probabilité de détection.

On voit que la valeur de la fréquence relative d’un événement certain d’un défaut va de 1 (quand la probabilité de détection est à sa valeur minimale de 0) à 2 (quand la probabilité de détection est à sa valeur maximale de 1). Quand la probabilité de détection est 0, c’est une probabilité. Quand la probabilité de détection a une valeur qui n’est pas 0, c’est une pseudoprobabilité.

La condition que la probabilité de détection ait une valeur de 1 est vraiment pertinente, car c’est sa valeur selon la figure 4 et à de dangereux niveaux de dommage. Sous cette condition, la probabilité de détection est une pseudoprobabilité avec valeur de 2 dans l’événement certain d’un défaut. Ainsi, la valeur de 1 pour la probabilité de détection à des niveaux de dommages dangereux doit être considérée comme 50 % de la valeur de la pseudoprobabilité de l’événement certain d’un défaut et non comme 100 % de la valeur de la probabilité de l’événement certain d’un défaut, comme l’implique le choix de langage de la figure 4.

50 % d’une pseudoprobabilité avec une valeur de 2 sur l’événement certain d’un défaut raconte une histoire différente que 100 % d’une probabilité. Et en particulier une valeur de 2 pour la pseudoprobabilité d’un événement certain d’un défaut indique une superposition complète des pseudopopulations qui correspondent à un vrai positif et à un faux négatif. La valeur de 1 pour la probabilité de détection à des niveaux dangereux de dommages n’indique rien d’autre que le fait que 50 % des pseudo-unités correspondant à un défaut sont attribuées par le test ASME-USNRC à un vrai positif. L’ambiguïté est totale. Ce test est-il valide pour diagnostiquer de dangereux niveaux de dommage ? Mais l’usage du langage certifie que le test est valide. Un ingénieur nucléaire qui prend l’ambiguïté de la figure 4 comme une certitude pourrait commettre une erreur désastreuse.

La partie restante de la méthodologie de Bradley concerne l’événement certain d’un non-défaut, c’est-à-dire un vrai négatif ou un faux positif. Bradley trouve qu’il y a de nombreuses indications sans « defauts » à l’intérieur de 3 pouces et les met dans le faux positif. Il n’attribue aucun objet à un vrai négatif. Il ne suggère aucune valeur pour une probabilité d’un faux positif ou un faux négatif, mais ceci n’a pas d’importance, car… « … la question de la sécurité liée à la fiabilité du CND ne dépend pas de la quantité de matériau non défectueux constatée, mais de l’identification du matériau défectueux ».

Analysons ceci du point de vue de la probabilité et de la pseudoprobabilité. Même si Bradley n’attribue aucune valeur à la probabilité ou la pseudoprobabilité d’un vrai négatif ou d’un faux positif, ses données fournissent la base pour établir des valeurs exactes pour elles. L’analyse qui conduit à ces résultats commence avec le calcul de la fréquence relative d’un événement certain d’un non-défaut.

L’attribution par Bradley de son nombre d’indications au-delà de 3 pouces d’un « défaut » à un faux positif signifie qu’il y a des points de données dénombrables dans une zone non-défaut. Alors qu’il y a des points de données, il n’y a pas d’objets physiques. La fréquence relative est toutefois donnée par le rapport entre les objets physiques et les points de données. Il s’ensuit que la valeur de la fréquence relative d’un événement certain d’un non-défaut est de 0.

Comme la valeur de cette fréquence relative n’est pas 1, toute mesure d’un sous-ensemble d’un non-défaut doit être une pseudoprobabilité et non une probabilité. Il s’en suit qu’un vrai négatif et un faux positif ont des pseudoprobabilités. La somme des valeurs de ces pseudoprobabilités est égale à 0.

On sait depuis la définition d’une mesure (Halmos 1950) que les 2 pseudoprobabilités ont des valeurs plus grandes que 0 ou égales à 0. Donc les pseudoprobabilités d’un vrai négatif et d’un faux positif ont une valeur de 0.

Si Bradley considère que l’absence de probabilité d’un vrai négatif ou d’un faux positif dans son rapport n’a pas d’importance dans une étude de sûreté, il exprime l’opinion selon laquelle il n’y a absolument aucun intérêt à maintenir en état de fonctionnement les équipements de production d’énergie nucléaire, car il est bien connu que la probabilité d’un vrai positif dans un test peut être améliorée arbitrairement, au prix d’une augmentation de la probabilité d’un faux positif [puisque la probabilité du vrai positif serait alors réduite]. On peut faire cela en produisant des indications dans des parties d’un tube de générateur à vapeur choisies au hasard. Une explication moins forte de cette absence serait que le test ASME USNRC ne cadre pas avec la définition de la probabilité.

Conclusions et recommandations.

Les irrégularités dans la pseudopopulation de Bradley peuvent être représentées dans le diagramme de Venn à la figure 2. Les deux cercles représentent les « défauts » qui correspondent à un défaut. Un de ces deux cercles représente ces « défauts » qui sont attribués à un vrai positif par le test ASME USNRC. L’autre cercle représente ces « défauts » qui sont attribués à un faux négatif par le test. L’aire du rectangle qui n’est pas couvert par un cercle représente l’événement d’un non-défaut. Il n’est pas couvert par des objets physiques. La région de superposition entre les deux cercles est nulle quand le niveau de dommage au tube qui envoie la vapeur est nul. Quand le niveau de dommage devient dangereux, les deux cercles se superposent complètement.

Les « defauts » du test ASME USNRC forment une « population » qui combine un manque de couverture totale et une superposition parfaite. Cependant cette population extrêmement irrégulière supporte les estimations des « probabilités » qui ont été publiées pour instruire les ingénieurs des réacteurs nucléaires par ASME USNRC !!!!! Cet incident nous incite à nous intéresser aux autres endroits où ce type de confusion peut se cacher.

Il y a des raisons de penser qu’il ne s’agit pas d’un cas isolé d’une population très irrégulière. Il y a un potentiel dangereux dans la définition de CND comme un champ qui détecte les « défauts » dans les matériaux. (Weissmantel 1975). Sommés d’établir la fiabilité de CND, les scientifiques ont fait en sorte que ces « défauts » occupent les populations de leurs études. Par exemple, les auteurs de « La fiabilité de l’inspection non destructive » ont simplement dit que les « défauts » occupent les populations (Silk et coll. 1987). D’autres ont eu une position équivalente : les irrégularités occupent les populations. Les directeurs de l’ASME et de l’USNRC sont d’accord (Beckjord 1991, Fernandez 1994). Un conseiller de l’USNRC sur la fiabilité de CND dans les réacteurs nucléaires (Bush 1991) opine pareillement. Il en va de même pour les auteurs d’une étude sur la fiabilité de la NDE dans un réacteur nucléaire britannique (Cartwright et coll., 1988). Toutefois, ces points de vue se sont révélés erronés en ce qui concerne le type de test qui attribue des « défauts » à des points de données en fonction de la proximité des « défauts » par rapport à des indications. C’est devenu une habitude maintenant pour les tests non destructifs des composants des réacteurs nucléaires. Le test ASME-USNRC des tubes de générateurs de vapeur nucléaires en est un exemple.

Chacun de ces tests attribue un « défaut » à un faux négatif quand il l’attribue aussi à un vrai positif ou bien n’attribue pas d’objet physique à un non-défaut. Le degré de sous-estimation d’un non-défaut peut être amoindri si on assouplit la loi de la preuve qui lie une indication au « défaut » avec la conséquence qu’on accroît le degré de superposition entre les ensembles des objets physiques qui correspondent à un vrai positif et à un faux négatif. Qu’il y ait sous-couverture, chevauchement ou les deux, les « populations » de ces « défauts » sont des pseudo-populations.

Les architectes de ces tests ont peut-être répondu aux besoins d’établir la fiabilité du CND en abandonnant ces tests ou en écrivant les rapports des études de fiabilité dans le langage des pseudoprobabilités. Mais cette réponse-là est bancale. Ils ont mixé la probabilistique avec la pseudoprobabilistique.

Le résultat de cette confusion peut être dangereusement trompeur. C’est pourquoi nous recommandons de l’éliminer en traduisant les rapports des études passées en pseudoprobabilistique dans le langage de la pseudoprobabilistique. Cette traduction devrait être effectuée rapidement, compte tenu des dangers évidents d’une confusion persistante.

On ne doit pas confondre probabilistique et pseudoprobabilistique. Leur langage est différent. Mais cette réforme espérée ne suffira pas. La pseudoprobabilistique n’est pas le substitut de la probabilistique. La probabilité mesure le risque, au contraire de la pseudoprobabilité. Quand la valeur de la probabilité d’un événement certain tombe sous 1, il y a manque de preuve pour établir un niveau de risque. Quand la valeur de la pseudoprobabilité d’un événement certain est supérieure à 1, on obtient une ambiguïté sur le niveau du risque. Seule la probabilité mesure les risques du CND.

Remerciements à

Jean Perdijon du Commissariat à l’énergie atomique pour sa correspondance qui a éclairé mon article.
Barbara von Haunalter pour ses graphiques.

Références :

1. Beckjord, E., Letter to Terry Oldberg, Jan. 9, 1992.

2. Bowker, A. H. and G. J. Lieberman, Engineering Statistics, Second Edition, 1972. Prentice-Hall, Englewood Cliffs, NJ.

3. Bush, S., Letter to L. Shao, U. S. Nuclear Regulatory Commission, Feb. 18, 1992.

4. Bradley, E. R., P. G. Doctor, R. H. Ferris and J. A. Buchanan, “Steam Generator Group Project. Task 13 Final Report: Nondestructive Examination Validation. », NUREG/CR-5185, 1988. U. S. Nuclear Regulatory Commission, Washington, DC.

5. Cartwright, D. K. and K. S. Leyland, “The Validation of Sizewell ‘B’ Ultrasonic Inspections at the Inspection Validation Laboratory, Risley Laboratory,” Non-Destructive Testing, 1988, p 57, 1988.

6. Cochran, W. G., Sampling Techniques, Third Edition, 1977. John Wiley & Sons, Inc, New York, NY.

7. Fernandes, J., Letter to Terry Oldberg, March 16, 1994.

8. Halmos, P., Measure Theory, 1950. Springer-Verlag New York Inc., New York, NY.

9. Juran, J. M., Quality Control Handbook, 1974, p 23-1. McGraw-Hill Book Company, New York, NY.

10. Mayants, L., The Enigma of Probability and Physics, 1984. D. Reidel Publishing Co., Dordrecht, Netherlands; c/o Kluwer Academic Publishers, Norwell, MA.

11. Perdijon, J., “Specification and Acceptance in Nondestructive Testing,” Materials Evaluation, July 1993, pp 805-807.

12. Popper, K. R., The Logic of Scientific Discovery, 1959. Basic Books, Inc., New York, NY.

13. Silk, M. G., A. M. Stoneham and J. A. G. Temple, The Reliability of Non-Destructive Inspection, 1987, p 36. Adam Hilger, Bristol, UK.

14. Weismantel, E. E., “Glossary of Terms Frequently Used in Nondestructive Testing,” Materials Evaluation, Vol. 33, No. 4 Apr. 1975, pp 23 A-46A.




L’inutilité des modèles climatiques actuels du GIEC

Par Terry Oldberg
Ingénieur/scientifique/chercheur en politiques publiques
Los Altos Hills, Californie, États-Unis
Courriel : terry_oldberg@yahoo.com

Résumé

Dans le texte de l’argument présenté par un modèle climatique du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations unies, la signification des termes statistiques diffère de leur signification technique dans les littératures de la théorie des probabilités et de la statistique mathématique. Cette différence s’avère désastreuse pour le bien-être de l’humanité.

Introduction

Je (Terry Oldberg) suis ingénieur et j’ai une formation et une expérience dans la construction de systèmes de contrôle pour les systèmes non linéaires. Le système climatique de la Terre est un exemple de système non linéaire1 ; ma formation et mon expérience sont donc pertinentes pour la construction d’un modèle du système climatique de la Terre.

Si l’on construisait un modèle du système climatique de la Terre, dont les exécutions fourniraient à un régulateur de ce système un gain d’information non nul sur les résultats conditionnels des événements futurs de ce système, il deviendrait alors possible d’atteindre un certain degré de contrôle sur ces résultats.

Se libérer d’une idée fausse

Il y a vingt ans, par curiosité, j’ai lancé une recherche sur Internet pour trouver les données générées lors de la validation croisée des modèles climatiques du GIEC, que je supposais alors avoir eu lieu. Au bout d’une demi-heure, j’ai appris que la validation croisée n’avait pas eu lieu en lisant les mémoires du climatologue Vincent Gray (docteur en chimie physique de l’université de Cambridge). Pour que la validation ait lieu, ces modèles devaient faire des prédictions, mais ils n’ont fait que des projections et les projections n’ont généré aucun gain d’information sur les résultats conditionnels des événements futurs pour le système climatique de la Terre. Ainsi, les dépenses considérables consacrées à la recherche climatologique n’ont abouti à rien de valable pour les personnes qui ont payé pour cette recherche. Cependant, ni les climatologues ni les personnes qui ont financé leurs recherches n’ont compris qu’il en était ainsi. Ils semblaient penser que les « projections » équivalaient à des « prédictions », mais ce n’était pas le cas ! Cette découverte m’a fait passer d’une ignorance totale de la climatologie à une connaissance experte d’une lacune désastreuse dans la conception de ses études et dans les modèles climatiques qui en résultent. Comme il n’y avait pas de financement pour un chercheur climatologue apostat comme moi, j’ai commencé à ce moment-là un travail non rémunéré pour essayer de renverser la situation, par devoir civique. Cependant, mes efforts pro bono ont été totalement infructueux jusqu’à aujourd’hui.

En jouant ce rôle, j’en suis venu à comprendre dans une certaine mesure pourquoi j’ai échoué jusqu’à présent. C’est le résultat d’un problème sémantique dans lequel les climatologues attachent des significations inhabituelles et trompeuses aux termes statistiques. Ils codent ainsi le message qu’ils se transmettent à eux-mêmes et aux autres sur les résultats conditionnels des événements futurs pour le système climatique de la Terre dans un langage qui implique un gain d’information non nul sur les résultats des événements futurs générés par les modèles climatiques du GIEC, alors que ce n’est pas le cas. Le fait que le terme « prédiction » ressemble au terme « projection » joue un rôle dans cette tromperie.

Établir une relation avec un climatologue

Judith Curry, titulaire de la chaire des sciences de la terre à l’université Georgia Tech, faisait partie de ces climatologues qui sentaient que quelque chose n’allait pas dans la manière dont la recherche climatologique était menée. En 1995, Mme Curry m’a demandé de rédiger un article sur les recherches climatologiques que j’avais menées, en vue de le publier sur son blog. Le titre de l’article est « Les principes du raisonnement : Logic and Climatology ». Le lien vers cette version de l’article est le suivant : https://judithcurry.com/2011/02/15/the-principles-of-reasoning-part-iii-logic-and-climatology/

Une version légèrement différente du même article est publiée en français dans un autre blog. Le lien vers cette version de l’article est le suivant : Les principes du raisonnement. Partie 3. Logique et climatologie

L’objet de mon article

Mon article se concentre sur la signification des termes statistiques dans l’argumentation de chacun des modèles climatiques référencés par le GIEC dans ses influents rapports d’évaluation du climat. L’enquête révèle que ces significations diffèrent de leurs significations techniques. L’une des conséquences de cette différence de signification est que l’axiome de la théorie des probabilités appelé mesure de l’unité [en anglais2] est violé par l’argument avancé par un modèle climatique du GIEC, mais que l’on donne l’impression que mesure de l’unité est satisfaite par cet argument. Cette tromperie a pour effet de créer l’illusion que les exécutions d’un modèle climatique du GIEC fournissent à un régulateur potentiel du système climatique de la Terre un gain d’informations sur les résultats conditionnels des événements futurs pour le système climatique de la Terre, alors que ce n’est pas le cas.

Se concentrer sur le contenu de l’article de Wikipédia sur le système climatique de la Terre

Cela m’amène à parler du contenu de l’article de Wikipédia sur le système climatique de la Terre. Tel qu’il est actuellement formulé, cet article implique que les exécutions des modèles climatiques du GIEC génèrent un gain d’information non nul sur les résultats conditionnels des événements futurs pour le système climatique de la Terre, mais cette implication est inexacte. Ainsi, par souci d’exactitude, cette implication doit être modifiée pour refléter la vérité sur l’inutilité des modèles climatiques du GIEC d’aujourd’hui.

CQFD


1 Note de Joseph : Dans le livre Climat de peur (présenté ici), l’auteur cite un extrait d’un rapport officiel du GIEC selon lequel le climat est un système mathématique chaotique qui ne peut être prédit. Le GIEC serait donc au courant du fait que le climat est non linéaire, modélisé par des équations différentielles impossibles à résoudre autrement que par des logiciels, comme dans le cas des attracteurs étranges. Cependant, comme l’a déjà mentionné Terry Oldeberg, il semble que malgré le fait que le système climatique de la Terre soit un système « complexe », il pourrait être modélisé avec succès en sélectionnant l’ensemble des déductions qui sont faites par ce modèle à partir d’un ensemble plus large de possibilités par l’optimisation de la théorie de l’information, comme décrit par le regretté physicien théorique Ronald Christensen dans le livre intitulé « Multivariate Statistical Modelling » (ISBN 0-938-8764-7, 1983). Cette méthode de sélection de ces déductions est une généralisation de la thermodynamique statistique qui résout l’ancien problème non résolu de l’induction. Le problème est de savoir comment, d’une manière logiquement admissible, sélectionner cet ensemble de déductions à partir d’un ensemble plus large de possibilités. L’utilisation de cette méthode a produit le premier modèle permettant de prédire les résultats météorologiques à moyen et long terme, de manière statistiquement significative. (Ronald Christensen, éditeur, Entropy Minimax Sourcebook, Volume IV : Applications, pp-495-544. ISBN-0-938-87607-4, 1981) L’étude de Christensen présente un modèle pour la façon dont la climatologie du réchauffement climatique peut progresser, en dépit du fait que le système climatique de la Terre est un système complexe.

2 NDLR Traduction littérale de « unit measure ». « Unit measure » est un axiome de la théorie des probabilités qui stipule que la probabilité de l’ensemble de l’espace d’échantillonnage est égale à un (unité), c’est-à-dire que P(S)=1 où S représente l’ensemble de l’espace d’échantillonnage, et le terme « mesure » fait référence à la « mesure » de la théorie mathématique de la mesure d’un ensemble. alias « théorie de la mesure ».




L’origine du mythe du réchauffement climatique catastrophique d’origine anthropique dans la pensée mécaniste

Par Terry Oldberg

La pensée mécaniste est l’une des deux façons de penser un système physique ; elle est appropriée à condition que ce système soit « non complexe ». La pensée holistique est l’autre façon de penser un tel système ; elle est appropriée à condition que ce système soit « complexe ». Un système « complexe » diffère d’un système « non complexe » en ce qu’il présente des « propriétés émergentes » qui sont des propriétés de l’ensemble du système et non de ses différentes parties. La pensée « mécaniste » s’oppose à la pensée « holistique ». Lorsqu’on réfléchit à un système physique, la pensée mécaniste est appropriée lorsque ce système est « non complexe », tandis que la pensée holistique est appropriée lorsque ce système est « complexe ».

Bonjour ! Je m’appelle Terry Oldberg. Je suis ingénieur, scientifique et chercheur en politiques publiques. À la retraite, je fais de la recherche sur les politiques publiques à titre bénévole. Ces recherches portent sur l’origine des mythes qui deviennent des politiques publiques et selon lesquels il n’existe pas de systèmes physiques complexes. À condition qu’un système physique soit complexe, ce mythe est à l’origine d’une politique publique fondée sur ce mythe plutôt que sur la réalité.

Dans ses recherches scientifiques, le professeur de psychologie clinique Mattias Desmet a découvert que le totalitarisme est un produit de ce mythe. Il expose ses conclusions dans un livre intitulé The Psychology of Totalitarianism (La psychologie du totalitarisme). En résumé, le totalitarisme naît d’une pensée de groupe dans laquelle les membres d’un groupe en viennent à croire à un mythe du type susmentionné. Cette croyance les amène à désirer un pouvoir totalitaire sur eux-mêmes par des technocrates supposés avoir la capacité de faire de ce mythe une réalité. Ainsi, par exemple, les membres de ce groupe en viennent à croire que ces technocrates ont la capacité de faire du mythe selon lequel le système climatique de la Terre est un système non complexe une réalité.

L’exemple du système climatique de la Terre est un exemple avec lequel j’ai de nombreuses années d’expérience. Dans ce cas, le mythe s’appelle « Réchauffement climatique anthropique catastrophique ». La croyance en ce mythe conduit les personnes qui y croient à craindre leur mort et celle de leurs proches si l’économie mondiale n’est pas « décarbonisée ». Cette peur naît lorsque les climatologues attribuent des valeurs numériques à la sensibilité climatique à l’équilibre (TECS), un paramètre d’un modèle mécaniste du système climatique de la Terre. Ils procèdent à cette attribution en appliquant le théorème des probabilités inverses de Bayes. L’application de ce théorème est cependant inappropriée, car cette « probabilité » n’en est pas vraiment une, car elle viole le second axiome de la théorie des probabilités, appelé « unit measure » en anglais1. Cette violation est observable par l’absence, dans l’argument avancé par un modèle climatique moderne, d’une partition2 du temps dont chaque élément est l’emplacement dans le temps d’un événement futur qui est certain de se produire pour le système climatique de la Terre3. Au lieu d’un tel événement, il y en a zéro, ce qui fausse l’unité de mesure. Cette lacune des modèles climatiques actuels serait corrigée si les climatologues fournissaient les événements futurs manquants qui sont certains de se produire4. Il en résulterait toutefois la disparition du mythe du réchauffement climatique catastrophique d’origine anthropique, ce qui provoquerait un chômage massif parmi ces climatologues.


Notes ajoutées par Joseph

1 « unit measure » peut se traduire littéralement par « mesure de l’unité » aussi bien que par « unité de mesure » ou encore « mesure unitaire », mais aucune de ces expressions ne semble satisfaisante par rapport à l’énoncé de cet axiome.

Celui-ci énonce que la probabilité de l’événement certain ou d’obtenir un quelconque résultat (expérimental) de l’univers probabiliste considéré est 1 (voir https://fr.wikipedia.org/wiki/Axiomes_des_probabilit%C3%A9s ou https://www.techno-science.net/glossaire-definition/Axiomes-des-probabilites.html). Par exemple, la probabilité d’obtenir 1, 2, 3, 4, 5 ou 6 à un lancé de dé cubique classique (ayant six faces numérotées de 1 à 6) est 1. Autrement dit, avec un tel dé nous sommes certains d’obtenir l’un ou l’autre de ces résultats, du moins lorsque les seuls événements considérés comme possibles dans cet univers probabiliste sont ceux pour lesquels le dé tombe effectivement sur une face (mais ne resterait pas malencontreusement en équilibre sur une arête ou sur une pointe du cube)

2 https://fr.wikipedia.org/wiki/Partition_d%27un_ensemble

3 En termes plus profanes, il s’agirait d’établir la liste des tous les événements climatiques possibles. Ainsi, la probabilité d’obtenir l’un d’eux serait certaine, à chaque étape temporelle (ou de partition du temps — par exemple un découpage en jours ou en siècles) considérée.

4 Certains événements de cette liste seraient notamment liés à l’extinction du Soleil et le fait qu’il finira par ne plus envoyer d’énergie à la Terre. D’autres événements climatiques terrestres pourraient être liés au fait que la Terre sortirait de son orbite actuelle, soit pour s’éloigner indéfiniment du Soleil, soit au contraire pour s’en rapprocher pour finir par y plonger et se faire vaporiser. Dans la pratique, il est quasiment impossible de déterminer exhaustivement une telle liste des événements climatiques. Autrement dit, l’univers probabiliste sur lequel travaillent les climatologues avec leurs modèles est tronqué et faussé.




Les principes du raisonnement. Partie 3. Logique et climatologie

[Source : The Principles of Reasoning. Part III: Logic and climatology | Climate Etc. (judithcurry.com) ]

[Traduction : John Hunter 2023]

Par Terry Oldberg. Copyright 2011.

[Voir aussi, du même auteur :
Les accords de Paris sur le climat ont une base fausse]

À l’origine j’avais prévu que cet essai finirait avec la partie 2. Cependant, M. Curry m’a demandé d’aborder le sujet de la logique et de la climatologie dans une troisième partie. Par les remarques suivantes, je réponds à sa demande.

Je me concentre sur les méthodologies d’une paire de questions qui étaient posées par le groupe de travail GIEC 1. [WG1 — Working Group 1], en aboutissant aux conclusions du rapport de 2007. À savoir :

  • il y a une certitude considérable sur le fait que les modèles de circulation générale océan/atmosphère (AOGCMs) [Atmosphere Ocean General Circulation Models] fournissent des estimations quantitatives crédibles pour le changement climatique du futur.1 Et :
  • la sensibilité du climat à l’équilibre (TECS) est « probablement » comprise entre 2 °C à 4,5 °C2.

Ma question est la suivante : ces méthodologies sont elles logiques ?

CONTEXTE

Ce travail est une continuation des parties 1 et 2. Pour une compréhension du sujet, voici un résumé de 1 et 2 :

Un modèle, une théorie est une procédure pour faire des inférences [NDLR Une inférence est une opération logique qui consiste à admettre une vérité en vertu de sa liaison avec d’autres vérités déjà admises]. À chaque fois qu’une inférence est faite, il y en a plusieurs et parfois un nombre infini, une seule convient. Donc celui qui construit le modèle est aux prises en permanence avec l’identification de l’inférence correcte. Comment faire cela ?

La logique est la science des principes par lesquels une inférence correcte peut être identifiée. Ces principes se nomment « Les principes du raisonnement ».

Si Aristote nous a laissé les principes du raisonnement en logique déductive, en revanche il n’y a rien sur les principes du raisonnement en logique inductive. Pendant des siècles les constructeurs de modèles se sont débrouillés avec le manque de principes du raisonnement en logique inductive en utilisant une règle intuitive « à tâtons » que j’ai appelée heuristique pour trouver l’inférence correcte. Parmi ces heuristiques, on a la parcimonie maximum (le rasoir d’Occam) et la beauté maximum. Cependant à chaque fois qu’un élément heuristique particulier identifiait une inférence différente comme la bonne, une heuristique différente identifiait une inférence différente comme aussi la bonne. De cette façon la méthode heuristique violait la loi de non-contradiction. La non-contradiction définit le principe de la logique.

Le problème de l’extension de la logique à partir de sa branche déductive et à travers sa branche inductive était connu sous le nom de « problème de l’induction ». Il y a 400 ans les logiciens ont commencé à avancer sur ce problème. Peu à peu ils ont appris qu’une inférence a une mesure unique. La mesure d’une inférence était l’information qui manquait dedans pour une conclusion déductive par l’événement. C’est ce qu’on appelle l’entropie ou bien l’entropie conditionnelle. Au vu de l’existence et de de la valeur unique, le problème de l’induction pouvait être résolu par le biais de l’optimisation. En particulier l’inférence était correcte si elle minimisait l’entropie conditionnelle ou bien augmentait l’entropie sous des contraintes exprimant l’information disponible.

En 1963 le problème de l’induction était résolu. Ce faisant trois principes du raisonnement apparurent :

1. Le principe de la maximisation de l’entropie.

2. Le principe de l’attente d’une entropie maximale.

3. Le principe de la mimimalisation de l’entropie conditionnelle.

Peu de scientifiques, de philosophes ou de statisticiens ont remarqué ce qui s’était passé. La grande majorité des concepteurs de modèles ont poursuivi la tradition consistant à identifier la seule déduction correcte par la méthode heuristique.

Des méthodologies dépourvues de logique

Quand une enquête est menée d’après les principes du raisonnement, le modèle qui en résulte exprime toute l’information disponible et rien d’autre. Mais quand les gens construisent un modèle, ils se conforment rarement aux principes du raisonnement. Ils construisent un modèle rationnel avec des limites.3

Une conséquence d’une méthodologie illogique peut être que le modèle construit exprime plus que les informations disponibles ou bien moins. Lorsqu’il exprime plus que les informations disponibles, le modèle échoue en raison de sa réfutation par la preuve. Lorsqu’il exprime moins que les informations disponibles, le modèle prive son utilisateur d’informations.

Quand les gens construisent un modèle, ils fabriquent de l’information qui n’est pas disponible pour eux. La pénalité pour cette fabrication c’est d’invalider le modèle et quand le modèle est testé s’il l’est un jour, on peut observer son échec. Il y a disparité entre les fréquences qu’on prédit et les fréquences relatives observées sur le terrain. En particulier, les fréquences relatives observées sont plus proches de la ligne de base que la prédiction que fait le modèle lui-même : la ligne de base de l’événement sur le terrain est la probabilité sans condition de cet événement. Si on assigne des valeurs numériques de façon intuitive aux probabilités des événements, ces gens fabriquent de manière routinière de l’information en ignorant la ligne de base.4 Les joueurs au casino fabriquent de l’information en pensant qu’ils ont découvert des patterns dans les data basées sur l’observation alors que les propriétaires des casinos les ont éliminées dans la construction de leurs systèmes.5 Les médecins les fabriquent en négligeant la ligne de base d’une maladie et en estimant la probabilité qu’un patient souffre de cette maladie s’il teste positif.6 Les physiciens fabriquent de l’information en supposant qu’un système complexe peut être réduit à une relation de cause à effet. C’est ce qu’on nomme « reductionisme ».7 8 Les statisticiens le fabriquent en supposant dans la nature des fonctions de densité de probabilité alors qu’elles sont introuvables dans la nature. Des chercheurs malhonnêtes fabriquent de l’information en créant des événements observables alors qu’ils n’ont rien observé de tel. C’est une expérience de labo à froid. Aucune valeur.

Quand ils construisent des modèles, ces gens gaspillent l’information disponible pour eux en ne découvrant pas les patterns présents dans leurs données. Les statisticiens font la même chose en supposant les catégories sur lesquelles leurs probabilités reposent plutôt que de découvrir ces catégories d’après la minimisation de l’entropie conditionnelle. Ce gaspillage de l’information est caractéristique de la méthode Bayesienne pour construire un modèle.

Enquête et Logique

Si une enquête est conduite comment savoir si la méthodologie est logique ? Si on reprend les outils de la partie 2 et 3, on pourra dire que la méthode logique laissera son empreinte si :

  • les assertions qui émanent de l’enquête sont basées sur des modèles ou des théories et :
  • les processus qui usent de ces modèles comme procédures font des inférences et :
  • chaque inférence devra avoir une mesure unique.
  • Et ainsi de suite.

De cette manière et en suivant cette ligne de raisonnement jusqu’au bout, on peut compiler une liste des traits d’une enquête qui était conduite selon une méthode logique.

Un besoin de clarté

La tâche n’est pas si simple qu’il y paraît. Le langage de la climatologie souffre d’une grande ambiguïté dans ses termes.

Ma méthodologie

J’ai trois buts en vue. D’abord en finir avec l’ambiguïté. Ensuite je me servirai des outils qui éclaircissent pour identifier les traits d’une enquête selon une méthodologie logique. Et enfin je comparerai ces traits aux enquêtes VG1. Après cette comparaison, je donnerai une conclusion sur le caractère logique de chaque enquête.

Une fois que j’aurai jugé du caractère logique de chaque enquête, je ferai connaître ma conclusion sur les assertions des deux enquêtes. La base de mon jugement inclura le texte du rapport WG1 de 2007 et les rapports de plusieurs chercheurs qui ont écrit sur l’ambiguïté des références dans les termes de climatologie.

Éclaircissement du sens ambigu du « modèle »

En climatologie ce mot a deux sens : a) la procédure d’un processus qui fait une inférence prédictive ; et b) la procédure d’un processus qui ne fait pas de référence prédictive. Le principe du raisonnement fait un jugement sur la validité des inférences. Cette ambiguïté dans les termes trouble notre compréhension et le caractère logique de la méthodologie.

Pour résoudre cette ambiguïté et conserver la sémantique du mot modèle que j’ai établi dans la partie 1, j’appellerai « modèle » mon terme de référence à la procédure du processus qui fait une inférence prédictive, et « modèle_fr » la procédure du processus qui ne fait pas de référence prédictive.

[NDLR En anglais, l’auteur utilise les termes anglais (model) et français (modèle), traduits ici respectivement par « modèle » et « modèle_fr ».]

Selon ma définition un modèle fournit la procédure pour faire des prédictions, mais pas des projections. Un modèle_fr fournit la procédure pour faire des projections, mais pas des prédictions. Après je démêlerai les termes « inférence prédictive » et « projection » puis « prediction ».

Les études existantes

Résumé des études passées. Voici sur le terrain linguistique ceux qui m’ont précédé :

  • Gray
  • Green et Armstrong
  • Trenberth

Le langage dans lequel on aborde ces études n’a pas cherché à dissiper le sens ambigu du mot « modèle ». Donc ces études en souffrent. J’ai expliqué plus haut la nécessité de distinguer entre les deux modèles. On va voir que les assertions WG1 étaient uniquement basées sur les modèles_fret non sur les modèles de climat. Ces derniers n’existent pas pour eux.

Au cours de sa prestation comme expert auprès du GIEC, Vincent Gray a soulevé la question de comment les modèles_fr pouvaient être validés.9 On ne peut valider des modèles_fr, mais au moment où Gray posait sa question il y avait encore beaucoup d’ambiguïté. La climatologie n’avait pas encore évalué notamment les confusions entre modèles et modèle_fr.

Selon Gray, le GIEC a débloqué la situation en établissant une politique éditoriale pour les rapports d’évaluation ultérieurs. C’est à dire que le mot « prédiction » s’est mué en « projection » et « validation » est devenu « evaluation ». La distinction entre « prediction » et « projection » faite par le GIEC sous ce régime spécial est identique à la distinction que j’ai faite dans cet article.

Le GIEC a échoué de façon constante à appliquer son propre régime. En conséquence les mots « prédiction », « prévision » et leurs dérivés sont mélangés avec « projection » dans les rapports produits par le GIEC. Dans le chapitre 8 du rapport de 2007 de WG1, Green et Armstrong10 trouvèrent 37 occurrences du mot « prévision » et ses dérivés et 90 occurrences du mot « prévoir » ou ses dérivés. Parmi les 240 climatologistes dénombrés par Green et Armstrong dont 70 % travaillent pour le GIEC, une majorité élisent le rapport du GIEC de 2007 comme la meilleure source crédible pour la prédiction/prévision (mais pas la projection), même si les modèles_fr de climat du GIEC ne font ni prédiction ni prévision.

Pour le lecteur qui supposait le GIEC crédible, la prédiction, la prévision et la projection étaient synonymes. C’était ajouter une forte dose d’ambiguïté partout. Le GIEC avec son régime éditorial non appliqué se tirait une balle dans le pied.

Dans le fait que le GIEC avait changé la « validation » en « évaluation », cette instance admettait tacitement que les modèles_fréchappaient à la validation statistique. Cela signifiait que les assurances que conféraient les modèles n’étaient pas réfutables. Ce concept signifiant encore que la disparité entre la relative fréquence d’un événement prédit ou observé qui proviendrait d’une fabrication de l’information laquelle ne serait pas observable.

Vu de loin, il apparaît qu’aucun modèle_fr n’aurait pu être validé statistiquement parce qu’aucun modèle_fr ne fournissait un manuel d’instructions pour faire des prédictions. Chaque modèle_fr pouvait être évalué statistiquement, mais même si « Validation statistique » et « évaluation statistique » sonnent pareil, elles font référence à des idées qui sont logiquement contradictoires. La contradiction étant que les assertions du modèle pouvaient être réfutés par la preuve tandis que les assertions du modèle_fr ne le pouvaient pas.

Sur le fait avéré que la plupart des climatologistes ont compris que les modèles_fr de climat font des prédictions, Green et Armstrong en ont conclu (en se trompant) que ces modèles_fr étaient des exemples de modèles. Ils ont fait un audit des méthodes de construction des modèles_fr d’après les règles de construction des modèles. Les modèles_fr enfreignaient 72 règles sur 89. Au vu de ces désordres, Gteen et Armstrong conclurent que les modèles_fr n’étaient pas des modèles, donc ne convenaient pas pour en faire une doctrine.

En réponse aux chercheurs cités, le climatologiste Kevin Trenberth11 a souligné (et il avait raison) que les modèles_fr du GIEC ne faisaient pas de prédictions. Simplement des « projections ».

Désambiguïser la « prédiction »

Dans la prédiction, on assigne une valeur numérique à la probabilité de chacune des directions possibles et nombreuses d’un événement statistique. Chaque direction est un exemple de l’état de nature et est une variable observable du monde réel.

Désambiguïser « l’inférence prédictive »

C’est une prédiction conditionnelle. Comme une éventualité ou un résultat, la condition est un état de nature et une variable observable du monde réel.

Dans l’inférence prédictive, une valeur numérique est assignée à la probabilité de chaque condition et à la probabilité de chaque résultat ET condition. Ce ET signifie pour moi l’opérateur logique du même nom. Ces assignations font qu’une valeur numérique est donnée à l’entropie conditionnelle de l’inférence prédictive. L’entropie conditionnelle de cette inférence est son unique mesure dans la logique de la probabilité.

La paire « inférence prédictive »/« inférence non prédictive »

Après une clarification du langage, un modèle est une procédure pour faire des inférences dont une est une inférence prédictive. Mais bien qu’un modèle soit une procédure, il ne s’agit pas d’une procédure permettant de faire une déduction prédictive. Donc l’idée que ce modèle_fr fait l’objet d’une inférence prédictive et l’idée qu’il n’est pas référencé par une inférence prédictive forment une paire.

Désambiguïser la « projection »

C’est une fonction de la réponse qui enregistre le temps de la valeur d’une variable dépendante du modèle_fr.

La paire « prédictions » et « projections »

Si on utilise un modèle comme procédure, un processus fait des « prédictions ». Si on utilise un modèle_fr comme procédure, un processus fait des « projections ». Donc l’idée que c’est référencé par des « predictions » et l’idée que c’est référencé par « projections » font une paire.

Désambiguïser la population statistique.

L’idée d’une inférence statistique réfère à une séquence temporelle d’événements statistiques indépendants : la description de chacun des événements renvoie à une condition avec un résultat. Un événement dont la condition et le résultat sont observés se nomme un « événement observable ». Une population ou une série statistique est un agrégat d’événements observables.

Désambiguïser un « ensemble statistique »

C’est une collection de « projections ». Cette collection est formée par la variation des valeurs qui sont assignées aux paramètres du modèle_fr qui lui sont assignés et dans les limites de ces paramètres.

La paire « population statistique » et « ensemble statistique ».

L’idée d’une « population statistique » est associée à l’idée d’un modèle. L’idée d’un « ensemble statistique » est associée à un modèle_fr. Donc l’idée référencée par la « population statistique » et celle de « l’ensemble statistique » forment une paire.

Désambiguïser la « validation statistique ».

Cette « validation statistique » est un processus qui est défini dans une population statistique d’un modèle et sur prédictions d’un événement dans un exemple de ce qu’on a observé à partir de cette population. Depuis ce processus les prédictions de façon collective affirment des assertions réfutables en ce qui concerne les fréquences des résultats dans cet exemple. Un modèle où les assertions ne sont pas réfutés à l’épreuve des faits est « statistiquement vérifié ».

Désambiguïser « l’évaluation statistique »

C’est un processus qui est défini dans un ensemble statistique et dans une série temporelle observée qui lui est propre. On en donne un exemple en12. L’exemple fait intervenir des projections qui montrent la marche vers la température en surface globale moyenne plus qui s’accroche à une température globale moyenne observée en surface et en série temporelle. Les projections appartenant à un ensemble statistique affirment qu’aucune assertion n’est réfutable vis-à-vis de la série temporelle. Donc un modèle n’est pas susceptible d’être réfuté à l’épreuve des faits qui est produite par son évaluation.

La paire « Validation statistique »/« évaluation statistique »

La « Validation statistique » est un processus reposant sur les prédictions d’un modèle. « L’évaluation statistique » est un processus reposant sur les projections d’un modèle_fr. Donc les idées de « validation statistique » et d’« évaluation statistique » forment une paire.

Désambiguïser « la science »

Dans la langue courante, le mot « science » fait une référence ambiguë à deux idées. L’une est une connaissance démontrée, l’autre est un processus sous le contrôle de gens qui s’appellent les « scientifiques ».

Selon la loi Daubert et aux USA, le témoignage n’est pas un témoignage à valeur scientifique dans les cours fédérales si les assertions incluses dans ce témoignage sont non réfutables.13 De cette manière Daubert, associe la Science à une « connaissance démontrée ».

La paire « satisfait Daubert »/« ne satisfait pas Daubert »

Un modèle satisfait Daubert. Un modèle_fr ne la satisfait pas. Donc « satisfait Daubert », et « ne satisfait pas Daubert » forment une paire.

Groupement des éléments d’une paire.

J’ai identifié un nombre de paires. Chaque paire tombe sur modèle ou un modèle_fr.

Donc de gauche à droite :

Modèle modèle_fr
Inférence prédictive Inférence non prédictive
Predictions Projections
Population statistique Ensemble statistique
Validation statistique Évaluation statistique
Assertions réfutables Assertions non réfutables
Satisfait Daubert Ne le satisfait pas

Une enquête selon la méthodologie logique

Une caractéristique remarquable des deux listes est que chaque membre de la liste de gauche est associé à une inférence prédictive, tandis que chaque membre de la liste de droite est associé au fait de ne PAS faire d’inférence prédictive. Le fait que des déductions prédictives soient faites est une condition nécessaire (mais non suffisante) pour que la logique probabiliste puisse s’appliquer à une enquête. Je conclus donc que les éléments de la liste de gauche sont des caractéristiques d’une enquête menée dans le cadre d’une méthodologie logique, tandis que les éléments de la liste de droite sont des caractéristiques d’une enquête menée dans le cadre d’une méthodologie illogique.

La logique de la première allégation du WG1

Une enquête menée par le WG1 a abouti à l’affirmation suivante : « On est très confiant dans le fait que les modèles de circulation générale atmosphère-océan (MCGA) fournissent des estimations quantitatives crédibles des changements climatiques futurs… ». Un modèle de circulation générale atmosphère-océan est un exemple de modèle_fr. Les caractéristiques de l’enquête associée sont celles de la liste de droite. La méthodologie de cette enquête est donc illogique.

le caractère logique de la deuxième assertion WG1

WG1 définit la sensibilité climatique en équilibre (TECS). C est à dire le changement de température de la surface de l’air en moyenne, par an et dans le monde. Il est expérimenté par le système du climat après avoir atteint un nouvel équilibre en réponse au CO2 qui double dans l’atmosphère.14 En climatologie et dans ce contexte, le mot « équilibre » se réfère à l’idée que pour les ingénieurs le transfert de chaleur est dit « stable ». L’idée étant que les températures ne changent pas.

D’après mes lectures dans la littérature climatologique, je peux dire que TECS est une constante. Cette constante lie un changement dans le niveau de CO2 à un changement dans la température en équilibre. Voici cette relation :

ΔT = TECS *log2 (C/Co) (1)

où ΔT représente le changement dans la température au point d’équilibre et Co représente le niveau de CO2 où le ΔT est nul.

La déclaration WG1 utilise cette équation en disant que pour un doublement de C, ΔT se trouve vraisemblablement entre 2 °C et 4,5 °C. « Vraisemblablement » signifie que le WG1 attribue une valeur dépassant 66 % à la probabilité que ΔT se situe dans cette fourchette. Si l’équation (1) est fausse alors tout s’écroule. Est-ce faux ? Pas de réponse pour cette question, car la température en équilibre à ΔT n’est pas observable. Si ΔT n’est pas observable, on ne peut pas par l’observation déterminer si l’équation (1) est valide ou invalide. Comme les déclarations faites dans l’équation (1) sont non réfutables, cette équation doit être un exemple de modèle_fr.

Comme ΔT n’est pas observable, il ne sera pas possible de déterminer par observation que ΔT se situe entre 2 °C et 4,5 °C. Donc la proposition que ΔT se situe entre 2 °C et 4,5 °C n’est pas observable. Cependant un résultat d’un événement est une entité observable. Donc la proposition « ΔT se situe entre 2 °C et 4,5 °C » n’est pas un résultat. La déclaration de WG1 qu’il est vraisemblable qu’au doublement de C, ΔT se situe entre 2 °C et 4,5 °C ne fait pas référence à un résultat. Comme la déclaration ne fait pas référence à un résultat, elle ne donne aucune information sur un résultat d’une décision administrative à un décideur. Comme le consensus des climatologistes ainsi que les membres des sociétés scientifiques les plus prestigieuses du monde semblent d’accord avec les déclarations du WG1, un décideur peut penser que cette déclaration lui apporte une information sur ce qu’il va advenir après sa décision. Les signataires du protocole de Kyoto semblent avoir atteint cette conclusion. Les responsables de l’Agence de la protection environnementale américaine aussi, sur le sujet de la « mise en danger ». Comme je l’ai démontré, c’est faux.

En avant vers une méthodologie logique

Le coût de la baisse de CO2 serait environ de 40 trillions de $ par an.15 Avant de dépenser cela, les décideurs doivent savoir ce qui doit résulter de leurs choix. Plus il y a d’information et plus la décision deviendra meilleure. Si les climatologistes passent à une méthodologie logique, ils seront à même de transmettre le maximum d’information possible sur ce que donnera une décision d’un scientifique en position. Il peut sembler utile que je trace un chemin pour y arriver. Sous le couvert de la méthodologie logique, une partie de l’enquête serait la population statistique. Les data de Green et Armstrong suggèrent que la majorité des climatologistes du WG1 s’embrouille sur la population statistique et l’ensemble statistique. Cette confusion explique mon échec à découvrir l’idée d’une population dans le rapport WG1. Quand on s’engage vers une méthodologie logique pour une enquête climatologique, on doit créer une population statistique pour cette enquête. Chaque élément de cette population serait un événement statistique indépendant et observé. Une population statistique est un sous-ensemble d’un éventail plus large d’événements statistiques indépendants. Sur le chemin de la méthodologie logique, cela doit être décrit. Quand on le fait, en climatologie, la Terre est le seul objet sous observation. Donc une enquête climatologique doit être longitudinale. Cela veut dire que ses événements statistiques indépendants sont séquentiels dans le temps. Ils ne se superposent pas.

Par conséquent le point d’arrêt d’un événement doit être aussi le départ du prochain événement. J’ai parlé de « condition ». Elle prend place au début de chaque événement. Et le résultat est défini au point d’arrêt.

Je comprends que l’organisation météorologique mondiale approuve la doctrine qui définit un événement météorologique observable comme un élément du temps qu’il fait et qu’on observe, lorsque ce dernier est mis en moyenne sur une période de 30 ans. Je suivrai cette grille en spécifiant que chaque événement statistique indépendant, dans la séquence de ces événements, a une période de 30 ans. Pour illustrer ceci, je stipule que les temps des débuts et des arrêts des événements variés dans la séquence sont à 0 heure GMT, le 1er janvier dans les années du calendrier grégorien qui sont divisibles par 30.et donc qui tombent dans une série de temps, 1980,201 0…

Un modèle a une ou plusieurs variables dépendantes et chacune est observable. À la fin de chaque événement observé, chaque variable reçoit une valeur. Pour illustrer, je stipule que le modèle d’enquête auquel on fait référence a une variable dépendante ; et c’est HADCRUT3, la température globale quand elle est mise en moyenne sur une période de 30 ans d’un événement. Mais il y a un problème avec ce choix. J’en parlerai plus tard.

Pour illustrer, je stipule que le modèle a deux résultats : la moyenne du HADCRUT3 sur une période par-dessus la période d’un événement est moins que la moyenne dans la population statistique du modèle. Le second résultat c’est cette négation de cette proposition que la moyenne du HADCRUT3 sur une période de l’événement est moins que la moyenne dans la population statistique du modèle. Un modèle a une ou plusieurs variables indépendantes. Chacune de ces variables est observable. Au début de chaque événement observé, ces variables reçoivent une valeur. Des considérations pratiques empêchent le modèle d’avoir plus de 100 variables indépendantes. Parmi les 100 on s’attend à des séries temporelles ou des fonctions de plusieurs séries temporelles qui, seules ou en paires, fournissent un maximum d’information à propos du résultat. Parmi elles on peut trouver :

  • le niveau de CO2 à l’observatoire Mouna Loa.
  • le taux de changement du CO2 avec le temps.
  • la température globale HADCRUT3.
  • HADCRUT3 depuis 1 an.
  • HADCET (la température au centre de L’Angleterre)
  • les précipitations à Placerville en Californie.
  • le taux de changement de la température à la surface de la mer évoluant avec le temps à Darwin en Australie.
  • les lieux ensoleillés à Zurich.
  • l’index mesuré dans une coupe de pin Jeffrey à Truckee en Californie.

Si une ou plusieurs AOGCMs devaient être modifiées pour prédire les résultats des événements, cette prédiction pourrait être une variable indépendante.

Les variables internes des AOGCMs comme la température évaluée dans l’espace et en moyenne à la tropopause seraient de possibles variables indépendantes. Si un AOGCM était capable de prédire des résultats, il générerait des événements virtuels ou théoriques. Cette somme s’ajouterait à celle des éléments observés dans l’attribution des valeurs numériques aux probabilités des résultats. Si un espace variable indépendant (qui contient peut-être quelques séquences temporelles en série comme décrites plus haut) devait être identifié alors cet espace pourrait être cherché pour trouver des patterns. Selon la méthodologie logique, cette quête serait restreinte par le principe de la Raison. Si on réussit, la recherche de patterns aurait créé le maximum d’information possible pour les résultats des décisions de doctrine communiquées aux artisans chargés de la rédaction. On peut aussi échouer dans cette recherche. Alors le maximum d’information possible pour ces artisans serait nul. La chance de découvrir des patterns croîtrait en proportion avec la taille de la population statistique.

Le besoin pour plus d’événements observés

Un peu plus tôt, j’avais signalé comme problématique la période de 30 ans pour les événements. Les relevés de température pour 30 ans c’est long et peu d’événements observés figurent dans la séquence. HADCRUT3 remonte seulement à 1850 et seulement 5 événements observés sont présents. Dans les pronostics du temps qu’il fera, une collection de 130 d’entre eux s’approche du minimum pour découvrir des patterns. Pour réussir à avoir 130 événements sur 30 ans, HADCRUT3 devrait plonger 3900 ans en arrière alors qu’il couvre seulement 160 ans au passé. Les thermomètres datent seulement de 400 ans. D’où notre bilan que la température n’est pas une variable indépendante et on doit chercher une substitution.

Logique et météorologie

Une méthodologie logique a été employée dans au moins sept enquêtes météorologiques. L’expérience gagnée dans cette recherche fournit un peu d’aide pour conduire des investigations logiques et météorologiques. Mais on ne doit pas exagérer là-dessus parce que les problèmes de la météorologie et du climat sont différents et en particulier le nombre des événements observés pour trouver des patterns et remplir des cases. Les résultats des sept enquêtes et qui remplissent les critères de méthodologie logique ont été résumés par Christensen.16 C’est un bond en avant qui va faciliter la prédiction des températures de l’air en surface par saison ou par année, et les précipitations dans les lointains états de l’ouest à moyen ou long terme.

Quant au plan au cœur des enquêtes, il s’agissait d’exploiter les forces complémentaires des modèles mécaniques et statistiques des modèles en intégrant un AOGCM avec un modèle possédant un pattern statistique embarqué. L’AOGCM contribuerait des variables indépendantes au modèle et pourrait aussi contribuer à compter les événements statistiques qui étaient la source d’information pour les projets. Mais on a dû renoncer à l’AOGCM, car il était devenu instable numériquement sur la prédiction de périodes supérieures à quelques semaines. Or le but était de prédire en éléments statistiques sur un an.

Dans une des enquêtes,17 18 126 événements statistiques observés étaient disponibles pour la construction et la validation statistique du modèle. Dans la construction 100 000 séries de séquences par rapport au temps furent examinées comme preuves d’information sur les événements spécifiés du temps. D’autres séries se sont ajoutées en faisant passer les 100 000 à travers des filtres. Par exemple l’un d’entre eux calculait la variation de valeur d’un élément observable année après année. Parmi ces data on a sélectionné 43 variables indépendantes du modèle. Le contenu de l’information sur les résultats et le degré d’indépendance statistique étaient meilleurs. On a utilisé un algorithme pour découvrir les patterns. Un procédé cherchait les patterns dans l’espace cartésien des échantillons de valeurs qui étaient enregistrées par les 43 variables indépendantes. On a alors découvert trois patterns. L’un de ces patterns prédisait les précipitations 36 mois à l’avance. Un facteur de 36 améliorations sur le passé météorologique. Voici ce pattern :

  • les températures de surface du Pacifique normales ou plus éloignées des côtes depuis deux étés, dans la portion ouest dans la ligne de l’équateur à + ou – 10° ET :
  • les températures normales ou plus éloignées des côtes de trois printemps passés dans la portion nord-est de la ligne de l’équateur ET :
  • les précipitations modérées ou faibles à Nevada City il y a 2 ans.

La probabilité se chiffrait à 0,59+/-0,11 pour des précipitations un peu au-dessus de la moyenne, dans l’année à venir d’après un index des précipitations de la Sierra Nevada à l’est de Sacramento.

Une conséquence de cette découverte a été ENSO (El Niño Southern Oscillation), pour une prédiction à moyen ou long terme. L’exploitation de la théorie de l’information a permis d’exfiltrer le bruit dans les séries temporelles et de se mettre en phase avec le signal envoyé par ENSO sur les précipitations à venir dans la Sierra Nevada.

CONCLUSION

Deux enquêtes du WG1 ont été examinées afin de déterminer si leurs méthodologies étaient logiques ou non. Il s’est avéré que les caractéristiques qui sont la marque d’une méthodologie logique étaient absentes. Toutefois, cette absence a été masquée par l’ambiguïté de la référence aux idées associées dans le langage de la climatologie. Cette obscurité pourrait avoir pour conséquence de donner l’impression à un décideur politique que le GIEC lui a transmis des informations sur le résultat de ses décisions politiques. Il a été démontré qu’avec la méthodologie illogique du WG1, le GIEC ne transmettait aucune information de ce type.

En passant à une méthodologie logique, il deviendrait concevable pour le GIEC de transmettre des informations aux décideurs politiques sur les résultats de leurs décisions politiques. Une voie vers une telle méthodologie a été esquissée.


Commentaires des pairs de Terry Oldberg

Jim Cripwell

ΔT se situe entre 2 °C et 4,5 °C…

de Roger Amdrews :

« Mais les faiseurs de doctrine pensent que ΔT détermine entre 2 °C et 4,5° de hausse de température…. je ne pense pas aux faiseurs de doctrine, mais aux organisations comme The Toyal Society ou The American Physical Society. Et les scientifiques qui ont de bonnes positions dans le gouvernement. Si cette déclaration tombe sous le sens, ce qui est le cas, pourquoi Dr Curry (l’interlocutrice de Terry Oldberg) s’accroche comme une perdue à l’idée que CAGW a une certaine base scientifique ?

Roger Andrews

Jim, je ne suis pas sûr si vous êtes d’accord avec moi ou bien êtes ironique. Je m’explique : mon commentaire signifiait que même si les scientifiques sont capables d’atteindre un consensus sur des incertitudes la confrontation avec les faiseurs de doctrine doit faire l’objet d’une négociation. Ils mijotent leur propre science dans leur coin malheureusement. Nous savons que le changement climatique est là et peut faire mal à la vie sur terre. Mais je crois que Dr Curry a raison d’essayer d’injecter de la science dans le climat. On peut dire que CAGW n’a pas de base scientifique et j’y crois, mais si c’est le cas alors on doit démontrer cela scientifiquement.

Jim Cripwell

Terry Olberg a démontré ceci. Ce qu’il a écrit doit être projeté sur un écran si on discute CAGW. Si Terry a raison et il a raison alors des organisations comme le RS et l’APS doivent complètement retirer leur allégeance à CAGW.

Roger Amdrews

….La position de plusieurs scientifiques sur CAGW est intenable.

Terry Oldberg

Une fois j’ai constaté dans le passé un support unanime de pseudo-scientifiques dans des positions de pouvoir et avec une méthodologie viciée. En écrasant mon challenge, eux et leurs sponsors financiers ont réussi à imposer ces résultats et à baser leur doctrine dessus. Mais c’est une question de sécurité. Je doute que les faiblesses en logique de la climatologie du GIEC soient corrigées un jour simplement en les exposant au grand jour. Pour ce faire il faudrait un groupe de pression organisé et financièrement robuste. Lui seul pourrait changer la donne.

Rob Starkey

C’est intéressant. Donc pas de consensus sur le changement de climat sauf sur peu de points. Comme les climatologistes et les sociétés scientifiques de renom appuient les conclusions WG1, un administrateur pourrait conclure qu’il y aurait de l’information à glaner. Le protocole de Kyoto va dans ce sens. Les gens derrière l’agence américaine de protection pour l’environnement et leur notion de « risque majeur » sont dans la même optique. Mais ils sont dans l’erreur.

Hector M

Un bon point là-dedans. La confusion entre prédiction (dériver une valeur réfutable pour une situation,) et projection (à partir d’un scénario donné) doit être expliquée. Autre confusion sur un éventail de résultats dans un ensemble de projections et de modèles d’une part, et d’autre part la distribution statistique des probabilités pour les valeurs diverses d’une variable au hasard. Cela a été dit auparavant, mais pas avec une telle rigueur et clarté.

Alex Pope

Bien long, mais bien intéressant… le consensus sur la théorie du climat et les modèles échouent au test de logique.

Ricka

Une question pour Terry… Pourrait-on augmenter le nombre d’événements en changeant la période de 30 ans par un an ? Est-ce trop court et cela ne marcherait pas ? C’est la seule façon pour obtenir 130 événements à partir des data courantes de température. Si on se tourne vers un succédané, cela semble problématique, car tous les succédanés semblent effacer la variabilité naturelle et la réduisent à environ 10 ans. Avez-vous un succédané en tête qu’on puisse l’utiliser au lieu de l’index des températures ? (Si 1 année est trop courte pour faire venir 130 événements)

Terry Oldberg

Bonne question ! Quelle est la période pour les événements et quel succédané utiliser ? On doit identifier la question d’une organisation spéciale qui aurait la réponse. Dans mon article, j’introduis l’idée que les climatologistes en bloc sont ignorants de la modélisation et de l’information qu’elle apporte en théorie et qui doit être optimale. Les climatologistes qui sont confrontés aux problèmes difficiles doivent comprendre ces règles. On doit tous s’atteler à cette tâche.

Ceri

Vous dites que ΔT n’est pas observable. Vous voulez dire pas mesurable directement ? Mais GIEC et le consensus sont d’avis que le changement dans la température globale en moyenne est lié au changement dans l’équilibre de la température. Il y a peut-être des “empreintes” ? Vous semblez vouer presque la Science du climat actuelle aux Gémonies en disant que ΔT n’est pas observable donc que les propositions sur ΔT ne peuvent être restées et sans valeur. Voulez-vous clarifier ? Pourquoi ne pas mesurer le changement dans la température globale moyenne en tant que succédané à ΔT ? On dirait que la température globale moyenne est monotonique avec ΔT. Donc vous pouvez dire que ΔT est supérieur que la température moyenne globale et observée.

Jim Cripwell

Ceri, vous écrivez tombe sous le sens. ΔT n’est qu’une hypothèse. Pas vraiment d’existence.

David Hagen

Quelle base avez-vous Ceri, pour mesurer le changement de température en équilibre ? C’est quoi cet équilibre ?

Arthur Bryant

Vous posez la bonne question. ΔT est probablement monotonique avec la température globale moyenne. Mais il n’en découle pas que le changement arrive dans les températures en équilibre. Dans le contexte de l’équation ΔT est présupposé être lié avec ou — causé par un changement dans le CO2. (Il n’y a pas f’autres facteurs dans l’équation.) C’est une supposition et je pense donc qu’elle est non observable.

Terry Oldberg

Ceri, quand je dis que ΔT n’est pas observable je ne veux pas dire qu’il ne peut être mesuré directement, mais plutôt qu’il ne peut être mesuré. Comment le mesurer ?

Ceri

Votre article a de la valeur. Les gens intéressés par le climat devraient le lire et réfléchir sur leur démarche, ce qu’ils font réellement et pas ce qu’ils se vantent de faire. Les politiciens devraient lire ceci, mais ils ne le feront pas. Pour mesurer ΔT… je ne sais pas trop. Je pense que ΔT c’est le changement dans la température moyenne qui devrait advenir si le niveau de CO2 restait constant avec une valeur connue. On le comparerait au niveau CO2 du passé avec une valeur constante. Ceci dans la période des 30 ans. J’ai pu me tromper, mais si ΔT est ainsi on peut trouver une méthode pour l’estimer même si on ne peut le mesurer directement (parce qu’on ne peut conduire une expérience mondiale à deux différents constants niveaux de CO2 sur 30 ans pour chacun, toutes choses demeurant égales. Par exemple le niveau de CO2 de 1900 à 1930 et l’index de température à la même époque. Après un calcul on estime une valeur de température en équilibre ou bien 1970 à 2000. On peut se servir de techniques statistiques et arriver à un éventail de valeurs pour la température en équilibre. À partir de là on peut estimer ΔT. (Si ma connaissance de ΔT est correcte.) Ce ne serait pas très précis, mais ce serait une estimation et elle peut servir. Si quelque chose n’est pas observable directement cela n’exclut pas qu’on ne puisse en tirer une estimation et même si elle comporte des erreurs décider que l’équation de la sensibilité du climat est in outil utile. Avez-vous dit que même si on observe des changements dans la température globale en moyenne et on essaie d’estimer ΔT avec, en fait ces changements sont amenés par des facteurs multiples non identifiables et non compréhensibles, donc essayer de capter ΔT dans ces conditions est inepte. Si vous croyez cela alors la question est close. Il y a des climatologues qui se vantent de comprendre la question de la température moyenne globale qui change et ils peuvent identifier ΔT en exfiltrant la contamination de la température par d’autres sources naturelles. Si vous affirmez que c’est impossible, alors mettez cela dans l’Article.

Tom Scharf

Les climatologues assignent des probabilités spécifiques à des projections non réfutables. Une absurdité. Les médias nous ont bassiné avec cette histoire en tentant d’accrocher la dernière inondation ou chute de neige à une prédiction vérifiée de la théorie du réchauffement. On lit : » quelques scientifiques ont dit…. un journal devient la position consensuelle du jour au lendemain. On voit aussi des ouragans forts et fréquents. La Science c’est créer la théorie puis la tester. Mais pour être crédible, vous devez prédire les événements spécifiques de votre test avant de le mettre en route. Et vous devez dire comment vous mesurer ces événements pour que d’autres puissent répéter vos tests. La validité des tests est un autre sujet. La Science du climat est mal partie. Ils sont trop sûrs d’eux. Ils dépensent des milliards et toujours pas de prédictions réfutables !

Ils nous ont bassinés avec les prédictions d’ouragans ces jours derniers, mais ils font des prédictions claires, discutent et corrigent les erreurs quand la saison se termine. C’est bien. Ils ne prétendent pas ce qu’ils ne sont pas pour accomplir un agenda.

Tallbloke

L’AOGCM, ils ont confiance en lui…. Peut-être ! Quand un ensemble de plusieurs modèles montre des anomalies similaires. Quand vous voyez les data comme température absolue et une variation de 5 °C dans les différents modèles, je commence à douter !

David Hagen

Donnez des liens pour ces résultats !

Bob Koss

Il y a quelques années Lucia a publié un graphique spaghetti de 2 douzaines de modèles et gistemp.

http://rankexploits.com/musings/2009/fact_6a- model-simulations-dont-match-average-temperature-of-the-earth/

Anander

Selon vous il suffit de regarder l’anomalie de la température globale en surface pour voir comment elle se comporte ?

Bob Koss

Je ne suis qu’un amateur, mais voilà comment je comprends :

La température absolue de la plupart des modèles se situe à deux degrés moins élevés que les mesures sur le terrain. Leur modélisation glace/neige ne peut pas refléter la couverture réelle de chaque année. Cela mènerait à des changements albédo mal modélisés et on s’en sert pour calculer le budget de l’énergie. Donc on ne doit pas utiliser les anomalies comme une jauge d’un modèle de bon aloi.

Bob Droege

Pas de réponse possible. La température à équilibre ΔT n’est pas observable. Montrez-moi vos calculs ! Nous pouvons attendre que la concentration du CO2 double et alors regarder le changement de température.

L’événement Ootong-Java a causé presque un doublement du CO2 et il y en a d’autres donc c’est observable. S’il est difficile de réfuter, cela ne veut pas dire que c’est impossible.

Harold

ΔT n’est pas observable puisque la terre n’atteint jamais une température en équilibre. Si on ne peut le mesurer directement, il n’est pas observable.

Bob Droege

Ce qui signifie que la terre ne peut avoir une température observable. Donc cette discussion est infructueuse et nous revenons au point de départ. Reductio ad absurdum. Rien n’est mesuré directement. On ne mesure pas la température, mais la hauteur du liquide avec une échelle ou bien la résistance d’un circuit. Tout ceci c’est du temps perdu. La terre a une température moyenne que ce soit avec un équilibre ou pas du tout. Si vous mesurez la température d’un kilo de n’importe quoi, vous pouvez mesurer aussi celle de 10 à 24 kg. La température est une moyenne.

Philip Bradb

La température est une variable à forte intensité. Comment mesurer la température de la terre ?

Bob Droege

Ok. Donc la température ne dépend pas du volume mesuré. On mesure la température de la terre comme n’importe quoi d’autre. Envelopper la terre avec du fil de fer et mesurer la résistance puis convertir en température.

Terry Oldberg

Une quantité observable signifie qu’elle peut être mesurée dans le monde réel par un instrument. Les températures de l’air à la surface fluctuent, mais pas celle de la température en équilibre. Donc la température à l’équilibre n’est pas observable.

Bob Droege

La température à l’équilibre ne fluctue pas ? Regardez la définition de Kelvin. C’est conçu en termes de quelque chose en équilibre ce qui est observable comme nous l’observons ou alors chaque fois qu’on mesure en Kelvin on observe du non observable.

Terry Oldberg

Je crois savoir que la « température d’équilibre » est un terme utilisé par les astronomes spécialistes des planètes. On peut obtenir diverses descriptions de ce qu’ils entendent par ce terme en tapant sur Google « température d’équilibre » et « planète ». Ce faisant, je suis parvenu à la conclusion que ce qu’ils entendent par ce terme est que les températures à des points spatiaux référencés (par exemple, à la surface de la Terre) ne changent pas.

Bob Droeg

Votre conclusion est erronée. Les astronomes mesurent la température en utilisant d’autres paramètres qu’ils peuvent mesurer plus directement comme l’albédo et l’irradiation venue d’une étoile la plus proche. Si les paramètres changent alors les températures qui en résultent changent aussi. Allez voir sur un site de première année d’astronomie. Cette température de cette planète est observable, mais on obtient des erreurs sauf pour les planètes qui ont peu gaz à effet de serre.

Terry Oldberg

Vu que le terme température à équilibre est une température sans changement ce n’est pas observable parce que dans la réalité les températures fluctuent. Oui ou non ?

Bob Droege

J’ai trouvé votre erreur ! Le terme de température à l’équilibre ne signifie pas qu’elle ne change pas. Personne n’a dit cela. Êtes-vous en train de dire qu’une valeur constante est inobservable ? L’équilibre comme adjectif ne modifie pas la température. Il se réfère su jeu de balance entre la radiation qui arrive et celle qui repart à la surface de la terre.

Terry Oldberg

Décrivez un instrument par lequel la température à l’équilibre peut être mesurée.

Bob Droege

Regardez ceci. C’est probablement inachevé, mais il contient des images d’un instrument qui peut mesurer la température à une radiation en équilibre. http://www.princeton.edu/~marsland/Junior_Paper.pdf

Êtes-vous en train de soutenir que c’est la température qui est en équilibre alors qu’il y a la preuve que c’est autre chose qui est en équilibre ?

Vous savez que si les axiomes présentés dans une preuve se révèlent faux, la preuve est invalide.

Terry Oldberg

bobdroge :

J’ai parcouru le document que vous avez cité à l’adresse http://www.princeton.edu/~marsland/Junior_Paper.pdf à la recherche d’une description d’un instrument permettant de mesurer la température d’équilibre. Je n’ai pas trouvé de description. En revanche, j’ai trouvé matière à discussion.

Il semble que l’auteur ait eu l’idée d’appuyer les limites de la valeur numérique de TECS sur des séries temporelles provenant de radiomètres embarqués à bord d’un satellite. Lindzen, Spencer et leurs collègues essaient de faire quelque chose de similaire. Si l’on pouvait mesurer le TECS de cette manière, on disposerait d’un instrument de mesure de la température d’équilibre, car le niveau actuel de CO2 déterminerait la température d’équilibre par le biais de l’équation (1) de mon article. Cependant, il y a un problème. En effet, pour mesurer le TECS, il faut partir d’un modèle réfutable. À cette fin, l’auteur utilise l’équation différentielle numérotée (25), page 15. Bien qu’il ne traite pas directement de la non-réfutation de son équation (25), l’auteur aborde cette question. Il déclare (page 15) qu' »il n’y a aucune raison de s’attendre à ce que la dépendance de l’un des effets de rétroaction sur la température soit proche de la linéarité, mais l’obtention d’une plus grande précision dépasserait le cadre de cet article ».

Pour parvenir à l’équation (25), l’auteur a supposé la linéarité. Cette supposition est une technique qui peut être utilisée pour réduire un système complexe à des relations de cause à effet. Cependant, en procédant à cette réduction, on fabrique de l’information. Il s’agit d’une faille logique dans la proposition selon laquelle il est possible de mesurer la température d’équilibre de cette manière particulière.

bobdroege

Ok,

Il y a une photo de l’instrument pour mesurer la température d’équilibre radiatif de la terre à la page trois avec un dessin et une description à la page 30.

Cette température d’équilibre est calculée après avoir mesuré l’albédo de la terre, la radiance solaire, la surface du disque solaire, la température de la surface du soleil, la distance du soleil à la terre et l’émissivité de la terre. Il faut ensuite introduire le tout dans une équation que l’on peut trouver ici.

http://en.wikipedia.org/wiki/Black_body

ce qui conduit à cette équation, que l’on peut trouver à de nombreux endroits.

http://books.google.com/books?id=Bgsy66mJ5mYC&pg=RA3-PA382&dq=black-body+emissivity+greenhouse+intitle:Planetary-Science+inauthor:cole&hl=fr#v=onepage&q=black-body%20emissivity%20greenhouse%20intitle%3APlanetary-Science%20inauthor%3Acole&f=false

Cette source précise ce que l’on entend par « équilibre » et soutient l’idée que la température n’est pas ce qui est en équilibre.

Votre équation (1) ne calcule qu’un changement de température dû à un changement de concentration de CO2, et vous ne pourriez pas calculer une température avec cette équation si vous connaissiez la sensibilité du climat.

Tout votre système de classification de TECS en tant que modèle repose sur le fait que la température d’équilibre est une entité non mesurable, ce qui est manifestement faux.

Et votre concept de réfutabilité, si tant est qu’il s’agisse d’un mot, exige-t-il plus qu’une expérience imaginable qui réfuterait une hypothèse ?

Terry Oldberg

bobdroege :

En ce qui concerne la première de vos deux remarques, l’instrument de la page 30 est un radiomètre. Il ne mesure pas la température (à l’équilibre ou non) mais l’intensité du rayonnement électromagnétique.

En ce qui concerne la deuxième de vos deux remarques, je suppose que cette remarque fait référence à l’équation (X.4) du livre Planetary Science. L’équation X.4 est un modèle d’une planète fictive qui, contrairement à la planète Terre, a une température de surface spatialement invariable.

bobdroege

Vous n’avez toujours pas compris le concept de température d’équilibre et la façon dont elle est mesurée. La température d’équilibre fait référence à la température d’un corps à l’équilibre radiatif, et non pas à la température à l’équilibre. L’incapacité à saisir correctement ce concept vous a conduit sur un long chemin de raisonnement erroné.

Terry Oldberg

bobdroege :

Votre définition de la « température d’équilibre » n’est pas celle qui est à la base de ma conclusion. Comme je l’ai dit plus haut, la mienne fait de la « température d’équilibre » l’équivalent de la température qui, dans le transfert de chaleur en ingénierie, est appelée « température d’équilibre ». J’ai eu l’impression que cette définition était celle des astronomes planétaires en surfant sur leurs sites Web. Par exemple, la page Web http://lasp.colorado.edu/~bagenal/3720/CLASS6/6EquilibriumTemp.html indique, à propos de la « température d’équilibre », que « l’équilibre signifie qu’il n’y a pas de changement dans le temps ». Ainsi définie, la « température d’équilibre » à la surface de la Terre n’est pas une variable observable.

Au lieu d’être une observable, la température d’équilibre à la surface est une abstraction du monde réel. Je ne suis pas exactement sûr de ce que vous entendez par « la température à l’équilibre radiatif », mais il semble qu’il y ait une abstraction supplémentaire selon laquelle le transfert de chaleur est entièrement radiatif.

(…)


Références




Les accords de Paris sur le climat ont une base fausse

[https://www.consilium.europa.eu/fr/policies/climate-change/paris-agreement/]

Par Terry Oldberg

[Mise à jour : révision du premier paragraphe]

Sur la base des axiomes de la théorie des probabilités1, le professeur de statistique mathématique C. Wang avertit que si un modèle d’un système physique argumente que 1 est la valeur de la mesure d’un évènement certain même si 1 n’est pas cette valeur, alors il s’agit tout simplement d’un détournement des statistiques. Cela vaut pour les modèles climatiques. Si l’on adopte la position des accords de Paris basés sur de tels modèles, on tombe ainsi dans un mauvais traitement des statistiques.

Une conséquence de ce mauvais traitement est de créer l’illusion que les conséquences conditionnelles des événements du futur pour le climat terrestre peuvent être régulées en déroulant des séquences des modèles de climat faits par l’IPCC (Internatjonal Panel of Climate Change — le GIEC en français) interprété par les Nations Unies.

Dans son mémoire « SPINNING THE CLIMATE: AN ANATOMY OF THE INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE »2, le regretté Vincent Gray, PhD en chimie de l’université de Cambridge, expert et vérificateur depuis plusieurs années des manuscrits pour le UNIPCC — les successifs Climate assessment reports (les Rapports et études sur le climat) —, réfute la proposition que les conséquences sous condition des événements du futur pour le système du climat terrestre puissent être réglées, en observant ce qui suit :

Le premier jet du rapport de 1995 possédait le chapitre 5 : Validation des modèles de climat comme dans le premier rapport. J’ai signalé que c’était faux puisqu’aucun modèle de climat n’a été validé et ils n’ont jamais essayé de le faire. Donc ils ont changé le mot Validation pour Évaluation pas moins de 50 fois et cela n’a plus bougé depuis.

Et Gray continue : Depuis le rapport de 1995, l’IPCC fait des projections, mais pas des prédictions. Ils reconnaissent de ce fait que leurs modèles ne s’appliquent pas du tout pour la prédiction. Comme tout est évalué, mais non validé, il ne peut jamais y avoir des modèles préférés ou des scénarios. Ils ne peuvent choisir entre eux.

D’après le témoignage de Gray, on peut conclure que le modèle de climat IPCC fait des projections plutôt que des prédictions et est évalué plutôt que validé. Ce sont des prédictions qui ont été validées et non des projections qui ont été évaluées qu’il faut avoir pour la régulation des conséquences conditionnelles des événements du futur pour le système climatique terrestre. En l’absence des prédictions validées, les conséquences conditionnelles des événements du futur pour le système du climat terrestre ne peuvent pas être régulées.

Dans l’article revu par des pairs, « Les violations de la mesure de l’unité »3, Ron Christensen et Tom Reichert, deux de mes amis, prouvent que la mesure de l’unité n’est pas nécessairement satisfaite par l’argument qu’elle est faite par un modèle d’un système physique [comme les modèles proposés par le GIEC pour le climat].

[NDLR Autrement dit, ce n’est notamment pas parce qu’un modèle prévoit un résultat comme certain d’arriver selon sa modélisation qu’il arrivera en réalité.]

Il y a trois façons pour falsifier la mesure de l’unité dans l’argument d’un modèle du système physique. Il suffit de ne pas respecter au moins l’un des trois axiomes d’Aristote suivants4 :

  • 1)- Le principe d’identité affirme la permanence et la cohérence de l’être (A est A),
    ce qui correspond à A = A en mathématiques.
  • 2)- Le principe de non-contradiction pose que deux propositions incompatibles (A et non-A) ne peuvent pas être vraies en même temps. « Il est impossible, écrit Aristote, que deux jugements opposés soient vrais de la même chose en même temps » (Métaphysique). Par exemple, un homme ne peut pas être à la fois barbu et glabre.
    En mathématiques, on ne peut pas avoir à la fois A et non-A (le contraire de A).
  • 3)- Le principe du tiers exclu. Elle signifie qu’une proposition est soit vraie, soit fausse : un homme est soit barbu, soit glabre. [Un homme ne peut pas être un mélange de barbu et de glabre ou la moyenne du barbu et du glabre.]
    En mathématiques, il n’y a pas une moyenne ou un intermédiaire entre A et non-A, une proposition donnée ne peut pas être à la fois vraie et fausse.

Les accords de Paris sont le résultat de la confusion qui consiste à croire que les trois lois d’Aristote sont nécessairement satisfaites par l’argument déployé par un modèle climatique du GIEC.
En réalité, ces trois lois sont falsifiées par cet argument. Donc la position des théoriciens des accords de Paris est indéfendable. Peu de gens le savent. Une des barrières à la compréhension est que peu de personnes sont familières de la notion mathématique de la mesure d’un échantillon ou de la mesure d’un événement ou du fait que la mesure d’un événement n’est pas nécessairement une probabilité, parce que « la mesure de l’unité » n’est pas nécessairement satisfaite par l’argument fait par un modèle du système physique. C’est le cas par exemple des modèles du GIEC. Cette ignorance des concepts mathématiques élémentaires conduit rapidement les Occidentaux à leur perte.

[NDLR Un modèle du GIEC prétend notamment représenter la réalité et donc satisfaire au principe d’identité d’Aristote, alors que la carte n’est pas le territoire, le mot n’est pas la chose qu’il représente, le modèle n’est pas ce qu’il modélise.]