1

Quand la science devient pseudo-science

[Source : strategika.fr]

Urmie Ray est mathématicienne, diplômée de l’université de Cambridge. Elle a eu une carrière de 25 ans en tant que qu’universitaire, entre autres, à l’Institut des Hautes Études Scientifiques, à l’Institut Max Planck pour les mathématiques, au Centre de Recerca Matemàtica, à l’université de Californie à Santa Cruz. Elle a ensuite démissionné de son poste de professeur des universités en France pour se consacrer à l’étude de questions culturelles et historiques. Elle est l’auteur de plusieurs articles et son dernier livre s’intitule “On Science:  Concepts, Cultures, and Limits” (Routledge 2021).

[Voir aussi, avec Urmi Ray :
Dr. Andrew Kaufman – La théorie virale mise à mal
L’effondrement de l’hypothèse virale
Dr Valentina Kiseleva  Le virus et autres mythes]

Par Urmi Ray (Basé sur mon livre : « On Science :  Concepts, Cultures, and Limits » – Routledge 2021)

1.  Qu’est-ce que la science ?

Une grande confusion règne sur ce qu’est ou plutôt n’est pas la science.  Donc commençons par discuter de ce qu’est la science.

Comprendre la réalité dans laquelle on vit

Pour survivre, il est essentiel de comprendre la réalité physique dans laquelle nous vivons.  Donc dès ses débuts, partout dans le monde, notre espèce a tenté de s’en faire une idée.

Comprendre signifie pouvoir décrire, expliquer et prédire. Une description tend à répondre à la question “comment ?” et peut prendre la forme d’une formulation mathématique, mais c’est loin d’être nécessaire.   Une explication tend à répondre modestement à la question beaucoup plus difficile du “pourquoi ?”.  Ces trois aspects sont étroitement liés.  La qualité des prédictions dépend de la qualité des descriptions et des explications.  Et inversement, plus une description est de qualité, plus elle mènera à des explications et des prédictions de qualité.

La différence entre une approche scientifique et une approche religieuse réside essentiellement dans la nature des explications.  Il est probable que très rapidement nos ancêtres ou au bon vouloir d’un Dieu, ne permettait pas trop de prévoir, et donc de se prémunir contre les aléas du climat.  Parallèlement, la domestication croissante du feu va de pair avec une compréhension de plus en plus grande de ce phénomène.

Donc, il y a bien longtemps qu’une approche du monde qu’on perçoit à travers nos sens et notre esprit s’est distinguée d’autres approches.  Il fallait que la connaissance obtenue soit communicable à d’autres, pour qu’ils puissent eux aussi vérifier, notamment pour pouvoir prédire aussi systématiquement que possible. 

Je conçois que certains soient convaincus de la force de la prière, mais la connaissance spirituelle, même si elle est basée sur des expériences, celles-ci restent personnelles et non-communicables.

Donc l’approche qui s’est peu à peu développée en ce qu’on appelle depuis le 19e siècle la science est fondée sur deux outils : l’observation et le raisonnement.
Mais comme nos premières écoles de philosophie naturelle se sont rendues compte bien avant l’ère chrétienne, la question de la fiabilité est au coeur de cette approche.  À quel point notre interprétation correspond-elle à la réalité physique donnée ?

Observation reproductible

Une observation qui reste limitée peut ne pas être fiable.  Par exemple, ce n’est pas parce tous les cygnes qu’on observerait sont blancs, qu’on peut en conclure qu’ils sont tous blancs.  Il y a des cygnes noirs. Donc l’observation doit être reproductible à volonté, en particulier pour être vérifiable.

En conséquence, le domaine d’investigations scientifiques est limité aux caractéristiques descriptibles, c’est à dire qu’on puisse comparer.  Les concepts absolus tels que la chaleur ou la hauteur font certainement partie de notre expérience de la vie.  Mais ils n’ont pas leur place en science.  Car il n’existe aucun moyen de vérifier comment deux individus différents les perçoivent.   Ce qui peut être communiqué et convenu, c’est qu’un objet est plus chaud ou plus froid, plus grand ou plus petit qu’un autre. En d’autres termes, seuls les attributs qui peuvent être comparés à une référence externe peuvent faire l’objet d’un examen scientifique.   Donc les concepts absolus tels que Dieu sont hors limites car ils ne peuvent pas être décrits par la comparaison.

C’est aussi là que réside le problème avec la physique Newtonienne.  Elle est fondée sur une notion du temps et de l’espace qui est absolue.  D’ailleurs Newton en était conscient.  Mais c’est le physicien Ernst Mach qui a le premier vraiment compris la signification de cette lacune à la fin du 19ème siècle.  C’est notamment basé sur ses travaux qu’Albert Einstein en est venu à sa théorie de la relativité.

Ajoutons une remarque importante : il ne suffit pas de connaître les propriétés intrinsèques d’un phénomène.  Il faut aussi se faire une idée de ses interactions avec l’environnement.  D’où la nécessité de l’étudier à la fois isolément dans un laboratoire et dans dans son environnement naturel, dans le temps et dans l’espace. Certains effets et leur portée peuvent ne pas être immédiatement perceptibles.

Raisonnement

Par ailleurs, si nous restons liés à notre expérience immédiate limitée, il faudrait sans cesse collecter des faits et on ne pourrait prédire. Donc la science vise à obtenir des descriptions et des explications unifiées de phénomènes disparates. 

Le raisonnement est ce qui nous permet de ne pas rester liés à ce processus d’essais et d’erreurs constants.

Il doit lui aussi être communicable.  Donc il doit être basé sur des méthodes consensuelles qui ont varié au cours du temps ou même d’école à école.

Concepts

Trouver des explications unifiant divers phénomènes nous oblige à fonder nos théories sur des concepts – forces, atomes, gènes, etc.  Nous n’avons aucun moyen de déterminer s’il s’agit de caractéristiques de notre réalité ou s’il s’agit de constructions de l’esprit humain pour rendre compte d’expériences communes à nous tous. Ils sont indéfinissables scientifiquement, sauf en utilisant d’autres concepts.  Cependant, et c’est fondamental, la pertinence des concepts doit être confirmée par des effets qu’on peut percevoir et décrire.  Ils doivent être remplacés par des concepts plus appropriés si l’observation et le raisonnement l’exigent.

En résumé

La science est l’étude raisonnée basée sur l’observation reproductible et suffisamment reproduite de propriétés descriptibles par comparaison du monde perceptible et des effets perceptibles attribués aux concepts évolutifs et changeants ainsi déduits – une étude qui englobe les interactions avec l’environnement naturel.

Nous avons tous un esprit scientifique.  La différence entre une approche scientifique et une approche usuelle est une différence de degré plutôt que de nature. Elle apporte précision et systématisation là où elles faisaient défaut. Par exemple, on a tous une idée de la différence entre fruits et  légumes, basée sur de vagues raisons et de vagues comparaison, parfois culturelles. La définition scientifique d’un fruit est celle d’un organe qui contient des graines, qui les protège lors de leur développement et aide à leur dispersion. Par conséquent, les tomates et les concombres sont des fruits, contrairement à l’idée reçue selon laquelle ce sont des légumes.

En d’autres termes, la science précise les similitudes et les différences entre des objets comparables en poussant l’observation au-delà du superficiel.  Ainsi les ambiguïtés sont réduites.

Il est essentiel d’insister sur le fait que nos conclusions ne peuvent être des déductions fantaisistes et inexpliquées.  Elles ne peuvent être considérées comme scientifiques tant qu’elles ne sont pas étayées par des arguments raisonnés. L’obtention de résultats satisfaisants pourrait être une pure coïncidence. À l’inverse, un raisonnement qui ne repose pas sur des bases empiriques solides n’est pas une science.

Mathématiques

Voilà pourquoi les mathématiques ne sont pas une science.  La science a émergé de la faculté humaine de donner un sens à une réalité autrement chaotique en lui attribuant des schémas. Les mathématiques sont nées de l’étude des schémas qui sont quantifiables.
Pour maîtriser les notions interdépendantes de quantité et d’espace,  nos ancêtres ont élaboré les concepts des nombres entiers et des objets géométriques ont été élaborés en excluant la nature particulière des objets en question pour ne garder que leur quantité ou leur forme.  Ils ont dû se rendre compte que si notre seul intérêt est la quantité et non les autres qualités des objets concernés, alors il n’y a aucune différence entre deux doigts et deux longueurs égales, mais que ceux-ci diffèrent de cinq doigts. En d’autres termes, les nombres sont nés de notre reconnaissance de schémas concernant la quantité en rendant aussi efficace que possible notre outil de raisonnement le plus fondamental, à savoir la comparaison. 
Sans entrer dans des discussions plus détaillées, je dirai que les mathématiques sont l’étude logique des relations entre des concepts abstraits, basée sur la notion de nombres.

 2.  Des faiblesses intrinsèques à la science

Ces caractéristiques de la science rend notre connaissance scientifique très précaire.

Simplification et approximation

Même l’approche la plus holistique est une simplification. L’esprit humain est incapable d’englober la totalité d’une nature complexe insondable.  Toutes nos déductions, toutes nos observations, toutes nos mesures ne sont qu’une approximation de la réalité.

Ces problèmes sont exacerbés dans les théories mathématiques.  Une hypothèse doit d’abord être exprimée dans un langage banal. Le processus de traduction en symbolisme mathématique s’accompagne d’une grande perte d’informations.  Elle élimine d’emblée tout ce qui n’est pas quantifiable.   Donc plus on s’éloigne du monde inanimé,  moins une description mathématique est appropriée. Même parmi les caractéristiques quantitatives, on doit faire un choix. Les mathématiques ne peuvent traiter qu’un nombre très limité de paramètres, et seulement une version très simplifiée de leurs relations.  Donc un modèle mathématique ne reflète que très imparfaitement la réalité.
Le processus d’approximation va encore plus loin. Bien que les équations aient des solutions exactes en théorie, dans tous les cas, sauf les plus simples, nous ne pouvons les résoudre qu’approximativement.  C’est généralement le cas des équations différentielles, c’est-à-dire des équations indiquant l’évolution d’un système dans le temps et l’espace et sur lesquelles reposent donc les prédictions.  Toute une série d’approximations se produit à nouveau lors de la retraduction de notre théorie mathématique en langage courant, c’est-à-dire de son application dans la réalité concrète, notamment parce ce qu’elle est susceptible d’impliquer des nombres non exacts tels que √2 ou π. 

Par ailleurs, la partie mathématique peut, comme en physique quantique avoir plus d’une interprétation scientifique.

En conclusion, la parfaite exactitude inhérente au formalisme mathématique nous permet un plus grand contrôle sur certaines caractéristiques quantifiables, mais, précisément à cause de cette exactitude, elle est très éloignée de la réalité.

Pour citer Einstein, “Dans la mesure où les propositions des mathématiques se réfèrent à la réalité, elles sont incertaines ; et dans la mesure où elles sont certaines, elles ne se réfèrent pas à la réalité”.  

Imprévisibilité

Il n’est donc pas surprenant que l’imprévisibilité s’ensuit même dans la théorie déterministe la plus simple :

Considérons l’exemple suivant construit par le physicien Max Born. Une particule se déplace sans friction le long d’une ligne droite de longueur l entre deux murs.  Lorsqu’elle atteint l’extrémité de la ligne, elle rebondit. Supposons que sa position initiale est donnée par le point x0 sur la ligne et sa vitesse initiale est vet que l’imprécision de nos mesures initiales est de Δx0 et Δv0. Selon la première loi de Newton, à un instant t, il devrait se trouver au point x = x0 + tv0. Cependant, selon la même loi, notre prédiction de sa position à l’instant t s’écartera de cette valeur de Δx = Δx 0 + t Δv0. Ainsi notre erreur va continuer à augmenter avec le temps. Après un temps critique tc = l/ Δv0, cet écart sera supérieur à la longueur l de la ligne. En d’autres termes, pour tout instant t > tc, nous ne pourrons plus du tout prédire la position de la particule.  Elle pourrait se trouver n’importe où sur la ligne.
Nous pouvons perfectionner nos instruments de mesure et réduire l’imprécision initiale, mais nous ne pourrons jamais nous en débarrasser complètement. Tout ce que nous ferons, c’est étendre l’intervalle de temps dans lequel la prédiction est possible.

Cet exemple concerne un système fermé simple et idéal. Dans le réél, d’innombrables facteurs sont impliqués, aggravant l’imprévisibilité. En gros, à cause d’erreurs inévitables, notre capacité à savoir ce qui se passe au-delà d’un certain temps peut être limitée d’une manière qu’aucun progrès technique ne peut surmonter.
Dans nos calculs effectués par ordinateur, il peut arriver que de minuscules erreurs se propagent et s’accroient.  En effet, la manière codée dont un ordinateur aborde les calculs internes implique une erreur d’arrondi. L’erreur survient également lorsque le résultat en langage codé est retraduit sous la forme imprimée sur l’écran.

Observation à l’âge informatique

L’informatisation ajoute également de nouvelles problématiques à l’acte d’observation. On sait depuis bien avant l’ère chrétienne que l’observation, résultat d’une collaboration complexe entre nos sens et notre esprit, est loin d’être neutre et peut être trompeuse.

Depuis, les instruments d’observation ont introduit toute une série de nouvelles complications, en dépit des possibilités insoupçonnées qu’ils ont ouvertes. Outre l’introduction d’erreurs, l’étude des événements de notre espace-temps quadridimensionnel à partir de représentations symboliques unidimensionnelles ou bidimensionnelles soulève la question de la perte d’informations. Plus important encore, les ordinateurs sont constitués de processus algorithmiques représentés par des 0 et des 1, et sont donc sévèrement limités par des prémisses trop simplifiées. Ils ne peuvent pas aller au-delà de celles-ci, ils ne peuvent pas inférer.  On peut donc se demander s’ils ne peuvent détecter que ce qui correspond à nos idées préconçues.

En fait, le problème s’aggrave à mesure que le processus d’observation est de plus en plus automatisé, éliminant ainsi l’observateur humain : la machine observe et interprète. C’est encore pire lorsque l’observation est supprimée et que les conclusions sont basées sur des simulations et non sur des expériences réelles, comme c’est de plus en plus le cas. Ces problèmes soulèvent bien des question en ce qui concerne notre connaissance du monde microscopique.   Elle dépend entièrement des instruments.  Nous n’avons pour ainsi dire aucune représentation non filtrée pour comparer l’image qu’ils nous donnent.  En plus pour l’observer, le plus souvent non seulement les échantillons sont retirés de leur environnement, mais il faut le plus souvent les préparer, notamment par une technique de coloration.  Il y a donc adultération.

Généralisation                                                                                         

Tout cela remet en cause le processus de généralisation, c’est-à-dire de déduction de principes, à partir de données qui ne peuvent être que limitées. Le problème de généralisation est encore plus sérieux car l’observation peut être reproduite, mais ne sera jamais similaire.  Donc, dans quelle mesure les résultats doivent-ils être similaires pour être acceptés comme justification d’une conclusion donnée ? La question se pose d’autant plus que nous n’essayons pas simplement de déduire la couleur des cygnes à partir d’observations répétitives, mais de déduire des principes de base à partir de l’observation d’une grande variété de cas dissemblables.  Trop peu de données peuvent nous conduire à des modèles erronés, et donc à des prédictions erronées.

Plus le nombre de paramètres est élevé, plus la sensibilité des résultats aux conditions initiales est grande, moins on peut s’attendre à ce que les résultats de nos expériences restent proches. Qui plus est, les résultats peuvent dépendre de l’interprétation et du protocole appliqué. Obtenir des résultats cohérents pourrait donc s’avérer difficile. Donc combien de fois une expérience doit-elle être reproduite avant que ses résultats puissent être acceptés ?

Fondamentalement, la question de savoir quand la vérification expérimentale peut être considérée comme satisfaisante n’a pas de réponse claire. On ne peut pas nécessairement affirmer qu’elle doit dépendre du succès de ses applications, car leur inconvénient peut prendre un certain temps avant d’être remarqués. Même lorsqu’une hypothèse est élaborée dans le meilleur esprit scientifique, des failles sérieuses peuvent rester non identifiées pendant des décennies, précisémment car notre observation reste limitée, ne serait-ce que pour des raisons techniques.

Quand est-il alors raisonnable d’appliquer une hypothèse, c’est-à-dire de construire de nouvelles hypothèses reposant sur elle ou de l’utiliser technologiquement ?

Hypothèses

Il ne peut y avoir de science sans hypothèses.  On doit d’abord avoir établi une relation à l’univers avant que nous puissions même penser scientifiquement.  En d’autres termes, la métaphysique précède toujours la science.  Plus généralement,  la science reste fondée sur des hypothèses qu’on oublie car elles sont cachées et devenues trop familières.   Celles-ci peuvent fortement influencer les théories que nous élaborons.

Par exemple, les prédictions mathématiques impliquent l’intégration. Derrière ce concept se cache l’hypothèse de l’uniformité selon lequel les processus seraient restés les mêmes à travers le temps et l’espace. Cette hypothèse est à la base de toute généralisation. L’uniformité était présumée très limitée par le Bouddha. C’est Démocrite qui a introduit sa version la plus extrême comme principe scientifique de base. Galilée est resté prudent. Il a été réaffirmé d’abord par les physiciens au  XVIIe siècle, puis par les géologues, pour qui les taux des processus géologiques sont restés les mêmes au fil du temps.

Cependant, à cause de l’imprévisibilité, nous n’avons aucune idée dans quelle mesure l’uniformité tient.  Il vaut donc mieux rester prudent en ce qui concerne les phénomènes lointains.

D’ailleurs l’uniformité dans le temps a été remise en question par des découvertes géologiques depuis les années 1960 qui suggèrent que des cataclysmes uniques ont modifié de façon critique les conditions existantes dans l’histoire de notre planète.

Les Limites de la science

Pour toutes ces raisons, bien qu’étant la forme de connaissance la moins fantaisiste, nous ne pouvons pas savoir si la science peut nous conduire à des vérités. Notre compréhension scientifique est constamment approfondie.  Elle nous éloigne donc des contre-vérités.  En effet, la science ne peut pas sciemment nous dire des contre-vérités.  À tout moment, elle doit se conformer à toutes les données connues.  On améliore nos approximation certes.  Mais dans l’infinitude du monde, cela nous rapproche-t-il d’une quelconque vérité ? 

Le doute est donc caractéristique d’une approche scientifique. La science remet en question les idées reçues. L’importance du doute a été souligné par les penseurs scientifiques de toutes les époques et traditions. Les théories ne doivent pas être rejetées, mais leur acceptation ne doit pas être passive.

Procéder scientifiquement, c’est reconnaître que la science est une “philosophie de la nature”, même si elle se distingue des autres philosophies en “interrogeant la nature elle-même pour obtenir des réponses à ce qu’est la nature”. Procéder scientifiquement, c’est espérer que nos pensées scientifiques sont en harmonie avec la nature, car sinon nous serions incompatibles avec les conditions de vie données, mais c’est aussi reconnaître que la science est loin d’être objective. Elle présuppose toujours l’existence de l’homme et nous devons prendre conscience que nous ne sommes pas de simples observateurs mais aussi des acteurs sur la scène de la vie.

 3.  De la science au dogme

Rester sur la voie scientifique demande prudence. Il est facile de s’en écarter. 
Il ne faut cependant pas confondre des erreurs sincères avec une quelconque dogmatisation.  C’est par l’erreur qu’on avance d’autant plus qu’à chaque époque, dans chaque culture, la science est tributaire par les pensées et les techniques d’observation existante.  Ainsi, c’est interpréter la physique newtonienne de manière anachronique que de lui appliquer notre compréhension actuelle et de la considérer comme faussée.  Elle reste suffisamment satisfaisante pour certains phénomènes courants du moment que les vitesses impliquées sont bien inférieures à celle de la lumière.  

Cela dit, la nature de la science a été très bien estimée depuis des millénaires, par exemple par certaines écoles de pensées dans l’Inde ancienne.  Elle a aussi fait l’objet de discussions passionnées au tournant du 20e siècle lorsque les problématiques du positivisme étaient devenues claires.  Donc, la déformation de la science moderne en dogme est facilitée par ses faiblesses intrinsèques, mais pour la comprendre, il faut la placer dans le contexte économique.

Or au 19ème siècle, on a transformé le capitalisme marchand en capitalisme financier.  La  perspective de maximisation du profit qui s’est peu à peu mise en place exige une croissance matérielle incessante, et donc une production toujours plus efficace.

Par conséquent, la technologie doit s’appuyer sur des recherches avancées pour accroître l’efficacité, générant des modifications incessantes et croissantes de notre environnement.  Celui-ci devient de moins en moins adapté à la vie humaine.  Le fait qu’une chose semble temporairement réalisable ne garantit pas sa compatibilité avec le maintien des conditions nécessaires à la vie humaine à moyen et long terme, ni même à court terme : les problèmes de santé et d’environnement ont rapidement suivi et n’ont cessé d’augmenter.  Puis, un stade a été atteint où, pour maintenir le cap, la recherche a perdu de plus en plus sa nature scientifique et en est venue à trahir la science elle-même.  

En d’autres termes, la science s’est transformée en pseudo-science.  Il s’agit d’un ensemble de principes qui se réclament de la science, mais qui n’en présentent pas les caractéristiques, en particulier qui ne reposent pas sur un raisonnement fondé sur l’observation, reproduite et reproductible.  Il s’agit donc d’une croyance.  

Les recherches actuelles peuvent trop souvent être qualifiées de telles. L’ampleur des dérives est difficile à mesurer car une condition de base – la transparence – sans laquelle il ne peut y avoir de science, car les conclusions restent invérifiables, est aujourd’hui communément ignorée, sous couvert de concurrence ou de secret d’État.

Selon Richard Horton, rédacteur en chef du prestigieux Lancet, “une grande partie de la littérature scientifique, peut-être la moitié, pourrait être tout simplement fausse. Affligée par des études portant sur des échantillons de petite taille, des effets minuscules, des analyses exploratoires invalides et des conflits d’intérêts flagrants, ainsi que par l’obsession de suivre des tendances à la mode d’importance douteuse, la science a pris un virage vers l’obscurité “.

 Des conclusions infondées

 Prenons deux exemples.

1) Sur la base d’hypothèses et d’une théorie purement mathématique, il avait été extrapolé à partir d’expériences menées avec des rayonnements électromagnétiques (REM) “dans les bandes visibles, ultraviolettes et des rayons X”, c’est-à-dire avec des “fréquences supérieures à la limite inférieure de l’infrarouge”, que tous les REM sont quantifiés, c’est-à-dire constitués de photons.  Ce n’est qu’en 2015, qu’on a expérimentalement vérifié cette affirmation et trouvé qu’elle était erronée pour les REM inférieurs à la limite inférieure de l’infrarouge, ce qui inclut tous les REM dûs à nos antennes –  une raison pour laquelle ces rayonnements sont préjudiciables à la santé humaine.

2)  La thèse virale est aussi une hypothèse.  Contrairement au cas de la quantisation du REM venant des antennes, elle n’a pas été prouvée fausse. [NDLR En fait, les travaux de Stefan Lanka — qui a notamment eu recours à des expériences de contrôle — tendent à nettement démontrer (depuis quelques années) la fausseté de la théorie virale. Voir le dossier Vaccins et virus.]  Mais aucune particule n’a jamais été observée d’abord dans l’air, puis entrant dans le corps, et devenant la source d’une maladie.  Le virus demeure donc de l’ordre du concept.  Est-ce une hypothèse utile ? Peut-être les unicornes ou les fantômes seraient des hypothèses utiles pour expliquer  certains phénomènes.  Mais une conclusion scientifique doit être fondée sur l’observation reproductible, et ce n’est certes pas le cas.  Et donc on peut développer le concept d’un anti-virus, tel un vaccin.  Mais on ne peut en aucun cas fabriquer matériellement un vaccin contre quelque chose dont l’existence matérielle n’est pas prouvée.  Et on ne peut élaborer des politiques sur des hypothèses qui demeurent invérifiées à ce jour.  Le débat sur la pertinence de telle ou telle hypothèse doit rester interne au monde scientifique, et c’est ainsi que nous évoluons dans notre compréhension.

Les tentations financières

La recherche est désormais pleinement ancrée dans le capitalisme de marché, qu’elle a d’abord rendu possible et continue de rendre possible. Les gains financiers sont devenus un motif principal dans une culture où de plus en plus de chercheurs créent eux-mêmes des entreprises privées pour exploiter financièrement leurs résultats.

Suite à des politiques délibérées visant à transférer le financement de la recherche des organismes publics aux organismes privés, de nombreux membres de la hiérarchie de la nouvelle Église du scientisme sont des bénéficiaires personnels des largesses de divers groupes d’intérêt. La corruption est désormais endémique et les conflits d’intérêts compromettent sérieusement les activités de recherche. Seuls les conflits directement liés à un travail donné doivent être divulgués, à savoir tout financement direct qui pourrait influencer ses conclusions. Cette obligation est facilement contournée : les faveurs peuvent prendre de nombreuses formes, de la nomination en tant que consultant à la participation à des conseils d’administration d’entreprises. Lorsque les généreux donateurs des universités, des laboratoires de recherche et des sociétés scientifiques incluent certains des conglomérats multinationaux les plus puissants, tout travail effectué dans leur enceinte peut-il être vraiment désintéressé ?

De la connaissance à la production

Cette corruption va de pair avec la transformation des objectifs de la science depuis le tournant du 20e siècle afin de se plier aux exigences d’un capitalisme financiers : de comprendre, l’objectif est devenu produire.  Le début du 20e siècle a vu l’émergence du chercheur-technologue, tout d’abord en chimie, puis en physique, et depuis en biologie.

Cet asservissement de la recherche à l’idéal économique est notamment entretenu par une culture de prix.  Celle-ci a été initiée par un industriel de premier plan du complexe militaro-industriel naissant, Alfred Nobel, précisément au moment où le contrôle de la recherche devenait indispensable. Elle contribue à mettre en avant les individus et les sujets qui se consacrent à cet idéal.  La forte subjectivité qui sous-tend les décisions est occultée puisque, contrairement à la science, le nouveau credo de la pseudo-science professe une objectivité dépourvue de valeurs.

Cela ne veut pas dire que des œuvres d’exception ne sont jamais reconnues à leur juste valeur.  Mais il est préférable qu’elles contribuent au maintien des objectifs économiques. Einstein n’a reçu le prix Nobel que pour ses travaux sur les effets photoélectriques.

Mais les prix ont contribué à l’ascendant qu’a pris la pseudo-science puisque c’est elle qui peut soutenir la production.

Par exemple, l’un des premiers prix Nobel (en chimie) a été attribué à Fritz Haber pour la synthèse de l’ammoniac.  Or la méthode de production des molécules artificielles ne reproduit pas le processus naturel et donc leur géométrie diffèrent de leurs équivalents naturels.  L’approche scientifique correcte aurait donc été d’étudier leur impact sur l’environnement et la santé humaine.

Marie Curie a eu le prix deux fois et donc il serait normal de croire selon le critère du prix que ses travaux sont plus importants que ceux d’Einstein.  Ils le sont certes du point du vue du profit.   Son objectif était circulaire : étudier les propriétés de la radioactivité pour accroître incessamment la production.  Toutes les tragédies liées à ces travaux étaient pour développer la radiothérapie comme traitement du cancer.  Or ici aussi nous avons un schéma circulaire : l’application de radiations pour soulager une maladie qui était  relativement rare comparée à d’autres maladies et dont elle a contribué à augmenter la prévalence.

De plus en plus, la recherche est devenue une affaire de machines colossales exigeant un financement colossal dans une poignée de sites colossaux.  Donc elle est basée sur des expériences ponctuelles qui ne sont pas reproductibles à volonté, ne serait-ce qu’en raison de l’infrastructure nécessaire.  Cette dépendance excessive à l’égard de la technologie nous fait oublier que les processus créés artificiellement dans les laboratoires peuvent très bien ne pas correspondre à leurs équivalents réels.

Par exemple, dans les années 1950, on a découvert dans des conditions créées en laboratoire que de la matière organique pouvait émerger de ce que l’on pourrait décrire grossièrement comme une soupe de méthane.   En raison de ce succès, on a oublié que cela n’implique pas que c’est ainsi que les choses se sont passées.  Et en effet, la première étude expérimentale visant à reconstituer cette atmosphère primitive sur la base de preuves empiriques réelles, réalisée en 2011, indique qu’au contraire, elle ne pouvait pas être aussi pauvre en oxygène qu’on le pensait.

Une inversion de la relation entre les mathématiques et la science

La prise de contrôle progressive de la science par la pseudo-science se reflète dans le renversement progressif de la relation entre la science et les mathématiques.

Avec l’importance croissante de la production industrielle, les mathématiques ont acquis une plus grande primauté au sein de la science car c’est par le mesurable que la science peut-être convertie en technologie.

La première grande étape a été la naissance de l’informatique dûes aux exigences de la technologie lorsque la physique et les mathématiques et la technologie ont été amalgamés en un seul domaine.  Cette synthèse s’est certes avérée très constructive, mais comme elle a été réalisée dans une perspective de profit, elle a également contribué à maintenir sa maximisation.  Dans ce processus, les mathématiques ont discrètement pris la place du conducteur.

Les applications mathématiques dépendent de notre objectif et ne sont pas limitées par la nécessité de se conformer à la réalité, contrairement à la science.  Ainsi, le fait de céder le leadership aux mathématiques a largement contribué à l’émergence de la pseudo-science. Ce renversement est aussi la consécration de la perspective matérialiste puisque les mathématiques ne peuvent pas prendre en compte le facteur de la vie. 

La seconde étape a été la création de la bio-ingénierie, un des secteurs dont la croissance est des plus rapides.  On en est venu à considérer la vie comme un immense ordinateur dont les programmes sous-jacents peuvent être transformés à volonté. Ainsi, la vision mécaniste de la nature a été adaptée à la nouvelle phase technologique dans laquelle nous sommes entrés. 

Les mathématiques via l’informatique mène maintenant son processus au stade final, où l’intelligence y est réduite à une quantité mesurable et la connaissance à des flux d’informations, c’est-à-dire à  l’intelligence artificielle qui au final doit nous conduire au transhumanisme – la fusion totale de la vie avec la machine au poste de pilote.

Il y a cependant une erreur de base avec une virtualité fabriquée par une machine qui nie notre réalité donnée. Les “réalités” n’étant pas des “fantômes”, l’écrivain Charles Dickens a prévenu qu’il y avait “un plus grand danger de les voir s’engouffrer” tôt ou tard.

4.  Science et avenir

Donc, le problème auquel nous sommes confrontés est la déformation de la science en une pseudo-science responsable des périls causés par l’homme.  En revanche, malgré toutes ses faiblesses, une approche fondée sur l’observation et la raison est certainement la mieux adaptée à l’étude de la réalité perceptible. Rejeter la science, c’est renoncer à la formidable possibilité de percer certains des mystères de la nature, même si ce n’est que superficiellement, même si nous finissons toujours par trouver que nos conclusions précédentes n’étaient pas tout à fait correctes.   Rejeter la science, c’est rejeter notre principal outil de survie.

Éducation

Il est donc d’abord essentiel de distinguer la science de sa déformation.  Pour cela, il faut développer une certaine appréciation non seulement de la technique de la science, mais aussi de sa nature.  La science n’est pas l’affaire des experts.  L’amateur doit réclamer son droit non seulement de comprendre, mais aussi de juger selon ses propres lumières. Tout le monde est capable de comprendre les idées qui se cachent derrière la partie technique.  Pour apprendre à le faire, le meilleur moyen est de lire les œuvres des esprits scientifiques pionniers. Qui mieux qu’eux pour expliquer le pourquoi et le comment des idées qu’ils ont contribué à élaborer.

Cependant, la seule véritable façon de dissiper la confusion entre science et pseudo-science est de veiller à ce que l’éducation dispensée aux générations futures nourrisse l’intuition scientifique qui nous est innée.  Assimiler l’esprit de la science revient à apprendre à penser par soi-même en se basant non pas sur des dogmes, mais sur une évaluation correcte de la gamme d’informations disponibles.  Il faut pour cela que  l’instruction de la technique soit mise dans le contexte d’une discussion sur la nature de la science.

Il existe plusieurs façons d’y parvenir et toutes ne conviennent pas à chaque élève.  C’est pourquoi le pluralisme est indispensable dans le type d’enseignement proposé, tant à l’école qu’à l’université.

Réduire la portée des recherches nuisibles

La question d’éthique

Jusqu’à présent, le débat s’est concentré sur les questions d’éthique.  Pourtant, les problèmes n’ont pas été résolus. Au contraire, ils continuent de s’aggraver. 

L’éthique influence assurément la science. Fonder la science sur des valeurs propices à un avenir plus serein peut sembler la meilleure voie à suivre. Mais est-ce vraiment le cas ? Quelles devraient être ces valeurs ?

Les débats éthique restent inefficaces.  D’autre part, restreindre la recherche dans un quelconque cadre éthique est préjudiciable à la science.  Fixer des limites à l’esprit humain érode le dynamisme créatif essentiel aux civilisations. La forme que prend la créativité est imprévisible, et il faut donc lui donner libre cours. 

Le débat doit être déplacé sur un plan moins controversé.

Les périls créés par l’homme sont le résultat d’une recherche clairement non scientifique.  Le débat devrait donc porter sur la nature scientifique d’une recherche. Il est vrai que l’on ne peut s’attendre à ce que la science soit définie de manière précise ou à ce qu’elle fasse l’objet d’un consensus suffisant.  Cependant, il est possible d’identifier clairement ce qui n’est pas scientifique.  Ce sont des recherches contredites par des études fondées sur des bases empiriques solides, des recherches fondées sur des observations non reproductibles à volonté, ou dont les conclusions découlent d’un raisonnement non corrélé aux données fournies.   Cela permettrait notamment de réduire considérablement les expériences controversées, voire d’y mettre fin.

Par exemple, le domaine de la médecine continue à être basé sur l’expérimentation animale bien que celle-ci soit sans cesse dénoncée pour des raisons éthiques depuis plus d’un siècle.  Aujourd’hui comme hier, la réponse est que des vies humaines sont sauvées en conséquence.  Or, en raison des dissemblances biologiques entre les autres espèces et nous, l’extrapolation aux humains est rarement justifiée et peut même s’avérer préjudiciable. En d’autres termes, ces expériences sont superflues et la science n’est certainement pas une question d’effectuer des expériences pour le plaisir de le faire.

Parallèlement, la transparence de toutes les recherches devrait être légalement imposée.  C’est loin d’être le cas aujourd’hui.

Recherches et argent

Cela dit, la raison d’être de la pseudo-science est la recherche du profit.  Le lien entre l’argent et la recherche doit donc être rompu.  Pour cela, il faut bien sûr empêcher toute personne ayant des intérêts particuliers d’exercer une influence fâcheuse sur la recherche.  L’anonymat empêcherait le donateur de choisir le bénéficiaire. Car l’objectif de la science a été transformé en un moyen pour faire du profit.  Mais cela va plus loin : l’activité scientifique elle-même a été transformée en une activité génératrice de richesse, grâce à l’élaboration de la notion de propriété intellectuelle et de brevets.  Par conséquent, la valeur d’un travail scientifique dépend désormais de la quantité d’argent qu’il génère. Or, ce n’est pas que la science soit au-dessus ou au-dessous de l’argent, elle n’a simplement aucun rapport avec lui. Ainsi, le choix d’un critère inapproprié pour la science a contribué à sa déformation.  Donc il serait utile de discuter de la suppression des lois sur les brevets et de la manière d’y parvenir.

Spécialisation à outrance

Une trop grande surspécialisation empêche non seulement l’étude correcte des questions les plus fondamentales et les plus urgentes, car elles chevauchent généralement plusieurs domaines, mais aussi l’identification de ces questions.

Pour remédier à ce problème, on pourrait transformer les universités en petites communautés savantes sans aucune barrière de domaines et de rendre les études de universitaires moins spécialisées. Certes le nombre d’années d’étude augmentera. Mais la rapidité de la formation actuelle résulte de l’état d’esprit des siècles derniers. Elle a perdu de sa pertinence avec une durée de vie plus grande et des technologies qui nous libèrent de diverses corvées en les mécanisant.

Quelle science pour l’avenir ?

En ce qui concerne la science elle-même, la question est de savoir quelle forme elle doit prendre.  L’objectif devrait être de réduire ses faiblesses.

Les images de Maurits Escher montrent à quel point nous sommes peu capables d’appréhender la complexité de la réalité.  Même dans le cas de deux motifs entrelacés, le cerveau humain ne peut en observer qu’un seul à la fois. En d’autres termes, toute lumière provenant d’une seule perspective n’éclaire que certains aspects.  Ces aspects peuvent même apparaître différents selon différentes perspectives. 

Or chaque forme que prend la science est fondée sur des hypothèses.   Par conséquent, chacune d’entre elles peut passer à côté d’aspects critiques.  La science doit donc être rétablie dans toute sa diversité. 

Commencer par une synthèse des différentes formes que la science a prise au cours de l’histoire pourrait s’avérer utile et aboutir à des modes de pensée radicalement nouveaux.   Il serait stupide de rejeter d’emblée le vaste réservoir de connaissances déjà développé dans les différentes cultures à différentes époques et de tâtonner dans l’obscurité.

La pertinence des approches anciennes dans le contexte moderne est soulignée par l’exemple du mathématicien Srinivas Ramanujan : les résultats qu’il a obtenus en suivant une tradition qui remonte aux âges védiques se sont avérés essentiels dans la physique moderne la plus sophistiquée.

Bien sûr les méthodes éprouvées ne doivent pas être abandonnées, mais complétées par d’autres, en tenant compte des nombreuses évolutions de notre perception de la réalité induites par la science elle-même. 

Bref, tout comme avec l’éducation, ce n’est que par le retour d’un véritable pluralisme que nous pouvons tenter de surmonter quelques unes des lacunes de la compréhension humaine. 

Applications scientifiques

Ce n’est qu’après avoir atteint une compréhension théorique étendue et approfondie que l’on peut commencer à penser aux applications technologiques.  Comme l’ont proposé Ralph et Mildred Buchsbaum il y a un demi-siècle, “la charge de la preuve … de [l’absence] de préjudice marqué pour l’homme” devrait être légalement “placée sur l’homme qui veut introduire un changement”. Aujourd’hui, la preuve d’un préjudice réel doit être apportée par les victimes. Mais il n’est pas réaliste de compter sur la science pour identifier la cause exacte d’un dommage.  En effet, la science est dans l’ensemble incapable de démêler l’écheveau de plus en plus complexe des causes et de désigner un coupable. Ou, lorsqu’elle y parvient, c’est un processus de longue haleine ; entre-temps, des dommages sont créés, parfois irréversibles.  Trop souvent, il subsiste un doute raisonnable. Cela met les populations à la merci de jugements juridiques qui reposent sur des détails techniques et sur l’opinion de ceux qui les rendent.

Une fois que le public a donné son assentiment à un type particulier d’applications, des expériences encore plus minutieuses doivent être menées pour s’assurer que les effets collatéraux n’auront pas d’impact négatif sur nous. En d’autres termes, nous devons nous donner du temps avant d’introduire des éléments nouveaux dans la nature ; seules des expériences soigneusement menées dans des environnements naturels et sur des périodes de temps suffisamment longues peuvent nous aider à faire la différence entre les applications dont le principal problème est l’utilisation excessive, et qui peuvent donc être utilisées dans certaines limites, et les applications qui posent d’autres problèmes. 

5. Conclusion 

Revenons à la question initiale :  qu’est-ce que la science si elle est dans un flux constant ?

C’est la tentative désordonnée, mais héroïque, de l’esprit humain de comprendre le fonctionnement de l’univers en s’obstinant face à des obstacles insurmontables, face à une compréhension insaisissable, malgré d’innombrables échecs et erreurs.  Ces erreurs à leur tour donnent lieu à de nouveaux questionnements auxquels il faut répondre. La connaissance scientifique est ce qui se rapproche le plus des certitudes, mais elle est incapable d’offrir des certitudes parce que les certitudes sont incompatibles avec notre condition humaine.

Malgré l’emprise de la pseudo-science, cette vraie science a continué de faire son chemin.  Au cours des deux derniers siècles, la science que nous avons développée a ébranlé la croyance en une réalité manifeste composée de substances matérielles interagissant selon des règles mécaniquement rigides.  D’une réalité de substances isolées, elle en est venue à considérer chaque chose comme faisant partie d’un tout.  Ce tout ne peut être réduit à la somme de ses parties.  Inversement, aucune partie ne peut être expliquée indépendamment de ce tout.  Et pourtant chaque partie individuelle a sa propre importance et reflète le tout de différentes manières.  Bref, notre compréhension scientifique prend de plus en plus en compte la complexité de notre réalité.

Il ne tient qu’à nous de rétablir la science à sa juste place dans un environnement favorable où les scientifiques seront enfin libres de se concentrer sur des sujets constructifs de leur choix.  Aujourd’hui, trop doivent gaspiller leurs talents et leurs efforts à contrer les mensonges élaborés et propagés au nom de la science.

Dans ce contexte, les activités industrielles aussi ne seront pas nécessairement nuisibles, mais bénéfiques à l’humanité.




Opération Ukraine : « Biff ! Allez jouer à colin-maillard au bord de la falaise ! »*

Par DJERRAD Amar

[* : citation extraite du film Retour vers le futur 2, de Robert Zemeckis, lorsque Lorraine s’adresse à Biff Tannen.]

Ces « journalistes » et « analystes » occidentaux, en particulier français, sont arrivés au plus haut degré d’abrutissement et d’aliénation, jusqu’à ne rien voir des dangers. Ils croient encore que les gens écoutent leurs excentricités intentionnelles ou dictées. La pire corruption d’un journaliste ou d’un analyste est de distordre la vérité pour tromper les gens ! Ils sont ainsi plus dans le gangstérisme avec des malfaiteurs des crimes organisés. Le comble, est qu’ils ne le cachent plus ! La guerre, dans cette Ukraine, avec la Russie a mis tout à nu !

Avec la guerre en Ukraine on voit bien que les atlantistes impérialistes ont perdu — non pas le nord et/ou le sud — mais carrément la boussole et la vue ! Ce sont des signes effrayants et implacables qui prouvent la déchéance de l’ordre impérialiste occidental qui n’a que trop duré avec ses injustices, ses prédations et ses agressions ! Ils n’ont plus de morale et d’intelligence.

Leurs « plans et actions » ne sont que des réactions instinctives ; tels des sangliers blessés. Leur arrogance et leur faux sentiment d’invulnérabilité les poussent à agresser d’abord, puis à réfléchir aux conséquences ensuite ; pour répliquer avec plus d’insanités et ainsi de suite pour se retrouver face à des situations inextricables et dévastatrices qui leur font dire, par effronterie et inconscience, que c’est parce qu’ils n’en ont pas assez fait !

En fait, c’est de bonne guerre ! Plus ils en font avec leur « système » diabolique de pensée, de menterie et de propagande, plus ils sombrent dans la déchéance, plus ils perdent du terrain, plus ils touchent le fond et bizarrement… plus ils continuent à creuser ce fond !

Il ne leur reste plus qu’à enjamber la falaise ou admettre les changements irréversibles dans le monde et s’y accrocher !
Gageons qu’ils vont poursuivre cette voie jusqu’à la limite du précipice !

Cette aliénation touche encore plus les intellectuels et les responsables qui décident ou veulent décider de l’avenir de leur pays et celui des autres pays (par esprit néocolonialiste) ! L’exemple de F. Bayrou avec son intervention « cosmique » (comme disait Asselineau) est typique : « Si Vladimir Poutine ne livre plus de gaz à l’Europe c’est justement la preuve que les sanctions européennes lui font du mal… ». À ce point ? Il nous rappelle cet autre titre de dingue sur « Libération » : « Derrière la chute de Marioupol, une défaite russe ». Ils s’offusquent (tout en condamnant) des ripostes russes à leurs sanctions, même de l’arrêt du gaz qu’ils ont décidé pourtant de proscrire ; se voyant les maîtres qui sanctionnent et non l’élève ! Mieux, la Ursula va jusqu’à menacer les Italiens « nous avons des outils » s’ils votent dans le « mauvais sens » (lors des prochaines élections italiennes !). Les responsables non élus sont souvent enclins à plus de culot pour imposer les choses par la menace et le dictat sans risquer une sanction populaire. C’est l’avantage des bureaucrates. C’est le cas aussi de Borrell et de ses collègues de l’Union Européenne. Quelle dégénérescence !

Vu ainsi, les pays anciennement colonisés, dits du tiers-monde, sous-développés, sans culture, apparaissent, avec cette affaire ukrainienne (que dénude la Russie), plus raisonnables, plus sages, plus habiles, plus moraux et plus humains que cet occident qu’un léger vent ouralien a mis à nu, laissant se manifester ses tares, ses travers, ses manques de principes et ses maléfices ! 

Malgré leur position de victime, les Russes sont plus méthodiques et raisonnables. Tout ce qui est perçu par les atlantistes comme une faiblesse de l’armée russe, cette dernière semble les laisser le croire pour mieux les impliquer et se découvrir afin de les réduire. Quand c’est le cas, ils les laissent encore dans leur doute et leurs narratifs débiles pour qu’ils en fassent davantage ! Curieusement, à tous les coups ça marche, car les leçons de l’Histoire ne sont pas du niveau de l’incompétence des dirigeants occidentaux ! Elles ne sont pas dans leur activité intellectuelle préférée, prioritaire et compréhensible ! Pour eux, l’objectif de « dénazifier et démilitariser » l’Ukraine n’est qu’une vue de l’esprit de Poutine, une propagande, pour échapper à une débandade militaire et économique assurée face à une coalition d’une « communauté internationale » composée des États-Unis (le chef de file), l’Union européenne, le Royaume-Uni, le Canada et le Japon ! Leur « vérité » et leur puissance, croient-ils, ne peut que triompher face à un seul pays !

Ces six premiers mois nous ont donné plus qu’un aperçu, malgré l’engagement de 10 % seulement des capacités russes semble-t-il.

En effet, pour l’Armée russe, pourquoi faire dans la précipitation en lançant de fortes forces terrestres de la coalition russo-donbassienne, et perdre inutilement des soldats, quand la tactique de se retirer, en laissant les champs libres à être occupés par les ukro-nazis, a fait ses preuves du fait de l’incompétence crasse des Otaniens. Laisser les forces otano-ukro-nazies essaimer les terrains à découvert puis permettre à la redoutable artillerie et à l’aviation d’accomplir leur mission à distance. Un ennemi est plus vulnérable étant visible qu’en défensive bunkérisé. Cela a réussi et ça réussit encore ! Alors, « n’interrompez jamais un ennemi qui est en train de faire une erreur. » (Napoléon Bonaparte)

Contrairement aux atlantistes qui feignent, par arrogance, tout savoir sur la Russie, cette dernière feint aussi leur faire croire qu’ils sont dans le vrai tout en leur distillant habilement ce qu’ils veulent savoir pour élaborer leurs tactiques. Ils doivent bien se demander, in fine, quelle est cette « main » mystérieuse qui met en échec toutes leurs actions. Disons que c’est la « main » qui veut prendre en même temps la Russie et l’Europe pour dominer le Monde. Cette main qui veut, comme dit un proverbe perse, porter « deux pastèques dans une seule main. »

Pendant que les atlantistes – ayant épuisé leurs ressources disponibles, leurs idées saugrenues et leurs boîtes à mensonges – voient leur échec imminent devant les coups de boutoir de l’armée alliée russo-donbassienne, ils s’évertuent encore à faire, dans la diversion, de ce qu’ils nomment « mobilisation » partielle en Russie. Une occasion pour détourner l’attention des médias internationaux d’Ukraine vers les manifestations anti-guerre en Russie, sans envergure, pour les présenter comme une « révolution Russe »; au même moment où le monde voit des populations entières russophones (de l’est et du sud) des régions du Donbass, de Zaporijia et de Kherson (Odessa suivra), martyrisées depuis au moins 2014 par le régime de Kiev, organisent des référendums d’intégration à la Fédération de Russie. Ironie du sort, ils répondent, d’une certaine manière, à Zelensky qui a demandé à tous les prorusses d’Ukraine (qui sont des millions) de quitter le pays pour la Russie ! Ils l’ont fait collectivement tout en restant sur leur terre, dans leur ville, dans leur maison !

En voulant tout avoir par insolence, dédain et complexe de supériorité, ils se voient par leur abrutissement perdre irréversiblement l’essentiel de « leurs » territoires, suivi d’une recomposition du monde en leur défaveur !

Quand on observe l’ONU et ses satellites, les organisations dites ONG devenir des structures entièrement contrôlées par les États-Unis…

Quand on entend un Macron reprocher aux pays « non alignés » – ayant plus la plupart subit la colonisation, l’agression atlantiste, la néocolonisation, l’impérialisme occidental, l’ingérence, la ‘‘printanisation’’ en vue d’un « regime change » pour les pays réfractaires à leur hégémonie, les coups d’État – leur ‘neutralité’ et de ne pas avoir condamné « l’hégémonie et l’impérialisme russe » (rien que ça !), ‘‘oubliant’’ les génocides de la France en Afrique, ses ingérences, taisant qu’il a cédé la souveraineté de son pays la France aux Américains en jouant leur partition, c’est que le bonhomme est, soit inapte à gouverner, soit il est « gazé », soit habité par un « djinn » anglo-américain, soit venu d’une autre planète !

Quand on voit toute leur philosophie « humaniste », tous leurs « principes », toutes leurs « valeurs » tomber comme peau de chagrin pour devenir instruments de tromperie et d’escroquerie des nations, le reste du monde est bien en droit de les réfuter, dans le fond et la forme, quand cela vient précisément d’eux ! Des valeurs qui ne valent d’ailleurs que par le bon usage qu’on en fait dans la vie et non que l’on prétend avoir ; dans ce cas on rabâche des mots !

Quand il n’y a de modèle de civilisation et de règles dans le monde que les leurs qu’ils veulent imposer pas la contrainte sans possibilité de faire admettre les différences naturelles, historiques, culturelles, religieuses, coutumières, géographiques, climatiques — tout y entre !

Quand toutes les relations internationales dans tous les domaines, régies par des lois et des règles concertées, sont bafouées par une minorité se sentant puissante, au point où vos biens sont séquestrés, volés, où l’on se ligue pour vous bloquer, par chantage, tous les moyens d’échange, de transport, de communication et de paiements dans le but de vous contraindre à vous soumettre à ses désidératas sinon vous détruire, la situation devient grave, car on touche à l’existentiel. Ce qui pousse à réfléchir à d’autres issues et moyens.

… Alors, il y a bien de quoi choisir rapidement un autre camp plus sécurisé, sans plus de réflexion. Le camp de la diversité, de la souveraineté, du vrai respect des valeurs humaines, de la non-ingérence, du respect des droits des conventions et des contrats, de la coopération véritable, sincère et équitable ! 

Certainement celui d’un « nouvel ordre mondial multipolaire » qui laisse les peuples et les États souverains vivres leur volonté, dans leurs libres choix des voies pour leur développement dans tous les domaines et ce, sans veto, sans ingérence, sans dictat ou tutelle d’une puissance hégémonique quelconque !




Le plan américain pour démanteler la Russie

[Source : Dialogue Franco-Russe]




Le Tétralogue — Roman — Chapitre 4

[Voir :
Le Tétralogue — Roman — Prologue & Chapitre 1
Le Tétralogue — Roman — Chapitre 2
Le Tétralogue — Roman — Chapitre 3]

Par Joseph Stroberg

​4 — Visite impromptue

Tulvarn émergea du sommeil en pleine nuit. Alors qu’il se trouvait sur le dos, il ressentit immédiatement le contact d’une masse tiède sur son côté gauche, avec un prolongement au-dessus de son torse. Ouvrant les yeux au maximum et cherchant à discerner dans l’obscurité ce qui pouvait bien le coller ainsi, il réalisa qu’il se trouvait sur le lit de Jiliern. Elle avait dû se coucher à côté de lui, car après tout c’était son lit et elle n’en avait pas d’autres. N’osant bouger par crainte de la réveiller prématurément, il poursuivit sa tentative de percer la noirceur environnante. Matronix et Dévonia étaient manifestement absents des cieux. Pendant combien de temps avait-il bien pu dormir ? Pendant qu’il essayait de l’estimer, il tressaillit légèrement sous l’effet de la fraîcheur nocturne ressentie sur les parties de son corps restées libres du contact de la Vélienne. Maintenant qu’il commençait à y voir légèrement plus clair et qu’il apercevait vaguement les formes du corps féminin qui semblait se lover sur le sien, ses autres sens étaient aussi en éveil. Les bruits extérieurs lui parvenaient, issus des divers animaux qui animaient les nuits de Veguil. Parmi eux il en perçut un plus insolite dont la provenance semblait en fait nettement plus proche. Y prêtant davantage attention, il réalisa rapidement que son origine se situait dans la maison même !

Quelque chose émettait des bruits feutrés et de légers cliquetis dans la pièce qui servait notamment de cuisine et de coin repas. En état d’alerte, Tulvarn prit le risque de soulever le bras de Jiliern pour sortir du lit, puis se glisser hors de la chambre. Par chance, elle ne se réveilla pas, probablement terrassée par la fatigue due à sa blessure récente. Elle avait besoin de récupérer beaucoup d’énergie vitale et seul le sommeil pouvait la lui offrir.

Tulvarn marcha si doucement sur le sol froid que le tissu noir recouvrant ses pieds ne déclencha pas le moindre bruit audible. Il conserva son sabre dans son fourreau pour éviter de provoquer le son caractéristique qui ne manquait pas alors de se produire. Celui-ci ressemblait à un genre de doux sifflement ondulé probablement produit par une vibration particulière de la lame sous l’effet du frottement et du déplacement d’air. Ce n’était pas le moment de le produire si par hasard un intrus était responsable de ces bruits anormaux.

Après plusieurs pas particulièrement silencieux, Tulvarn parvint enfin à la porte entrouverte de la chambre. Dans le même temps, il entendait de manière croissante les sons insolites dont il situait de plus en plus précisément la provenance dans la pièce voisine. Il distinguait mieux maintenant de légers chocs étouffés qui semblaient provenir d’objets tombant au fond d’un sac. Cependant, il percevait à peine le sol à seulement quelques pas devant lui et ne pouvait donc toujours pas confirmer visuellement son impression. Il n’en poursuivit pas moins sa lente et silencieuse progression pour espérer surprendre l’intrus. Il devenait presque évident que quelqu’un s’était introduit dans la maison de Jiliern. Comment d’ailleurs celui-ci pouvait-il y voir suffisamment pour effectuer ce que Tulvarn soupçonnait de plus en plus être un vol ? Aucune source de lumière n’était visible. Alors qu’il s’interrogeait et se trouvait une fois de plus entraîné par le flux de ses pensées, son attention se trouva diminuée d’autant. Ce fut ce moment que choisit l’inconnu pour lui asséner un magistral coup de pied dans l’entrejambe, le faisant lâcher un cri et se plier en deux sous l’effet de la douleur. Cependant, ses cours au temple l’avaient habitué à de tels traitements et il surmonta rapidement le handicap. Se fiant aux bruits, il réagit trop vite au gré de l’assaillant. Il lui sauta dessus à l’aveuglette, l’écrasant de sa masse. L’intrus se révélait frêle en comparaison du moine. Le choc semblait même l’avoir assommé.

Tulvarn vérifia à tâtons l’état du visiteur inconnu. Lorsqu’il fut suffisamment convaincu de son inconscience, il se releva en prenant soin d’aller vers la porte pour en bloquer l’accès. Une lumière inonda alors subitement la pièce, le faisant grimacer alors qu’il fermait les yeux sous l’effet de l’éblouissement soudain.

— Que se passe-t-il ? interrogea alors Jiliern, réveillée par le bruit de la chute récente des deux corps mâles.

— Ceci ! répondit Tulvarn en pointant du doigt gauche le corps inanimé d’un Vélien de petit gabarit revêtu d’une toge gris sombre.

— Oh ! Que fait-il ici ?

— Il tentait de vous voler, répondit le moine en montrant un sac à terre près de l’intrus.

— Par le Grand Satchan ! Mais pourquoi ? Personne ne m’a jamais rien volé.

— Il y a un début à tout. Vos cristaux peuvent attirer certaines convoitises, je suppose, poursuivit Tulvarn en s’approchant du sac pour l’ouvrir avant d’en disperser le contenu au sol. Celui-ci révéla un ensemble de cristaux manifestement pris dans le meuble de la pièce.

— Ça alors ! Heureusement que vous étiez là ! Sans vous, il aurait été déjà loin lorsque j’aurais constaté les dégâts à mon réveil.

— Probablement, oui. Mais effectivement, il est tombé sur un imprévu, ou plus exactement, un imprévu de trop grosse taille lui est tombé dessus.

— Ha ! Ha ! Oui, ça en a bien l’air. Mais d’où sort-il ! Et qui est-il ? Est-il mort ?

— Non, il n’est pas mort. Et pour le reste, nous allons le lui demander lorsqu’il se réveillera.

— Pour le réveiller, j’ai ce qu’il faut, déclara Jiliern avant de se précipiter sur un des cristaux qui gisaient par terre. Elle le dirigea alors sur le front de l’évanoui et l’y déplaça circulairement une poignée de fois à un doigt de distance du cuir bleu foncé. À peine avait-elle achevé sa passe, les yeux de l’intrus s’animèrent avant de s’ouvrir tout d’un coup. Semblant réaliser où il se trouvait, son premier réflexe fut alors de bondir sur ses pieds pour s’enfuir. Mais Tulvarn bloquait l’entrée et il n’eut guère de mal à le saisir au collet avant de le soulever de terre.

— Pas si vie, mon lascar ! Tu nous dois d’abord quelques explications !

— Pitié, je n’ai rien fait !

— Ah oui ? Et ça c’est quoi ? demanda Tulvarn en désignant le sac sur la gauche du voleur.

— Un sac, on dirait, répondit celui-ci d’un ton feignant la surprise.

— J’ai l’impression qu’il se fout de nous, mentionna le moine à l’adresse de la Vélienne.

— C’est aussi mon impression. Mais j’ai aussi ce qu’il faut contre cette maladie, poursuivit-elle en saisissant un autre cristal. Laissez-moi faire ! Dans quelques instants, il en sera guéri.

— Quoi ? Qu’allez-vous me faire ? cria le voleur en se débattant vainement pour essayer de fuir. Laissez-moi !

— Pas question, jeune insouciant, poursuivit la cristallière. Tu vas par la même occasion me servir de guilimiu. Je n’ai encore trouvé personne qui veuille bien tenir ce rôle.

— Pitié ! Laissez-moi partir ! Je ne veux pas mourir !

— Allons ! Tu ne crois pas que tu en fais un peu trop ? Intervint Tulvarn ? Elle veut juste expérimenter sur toi ses cristaux guérisseurs. Et puis, tu ne vois pas qu’elle s’amuse ?

— Mais, je ne veux pas qu’on s’amuse à mes dépens !

— Penses-tu qu’elle voulait que tu la voles à ses dépens ?

— Mais voler, c’est mon métier !

— Ah oui ? Et c’est un beau métier ? Et amuseur cristallier, ça n’en est pas un beau ?

— Non, je ne connais pas ce métier. Et je ne veux pas servir de guilimiu !

— Alors comment penses-tu réparer ta tentative de vol ? demanda Jiliern. Crois-tu que je vais te laisser partir comme ça, pour que tu puisses facilement recommencer plus tard ?

— Mais, c’est mon métier ! Je ne sais rien faire d’autre. Il faut que je vole pour vivre !

— Eh bien, il va peut-être falloir songer maintenant à te reconvertir, car nous allons te signaler partout dans la région. Tu ne pourras plus rien y voler, car tout le monde sera sur ses gardes en ce qui te concerne.

— Pitié ! Pas ça ! Plutôt mourir !

— Ah, mais pas de problème, Tulvarn ici présent à ce qu’il faut pour ça, répondit la Vélienne amusée en pointant sa main droite vers le sabre du moine.

— Non, pardon ! Pitié, je ne voulais pas dire ça ! Je ne veux pas mourir non plus !

— Il faudrait savoir, poursuivit la femme. Bon ! alors tu vas me servir de guilimiu !

— Vous ne pourriez pas plutôt chasser les vrais ? Il y en a plein dehors !

— Eux ne sont pas en mauvaise santé.

— Mais, je ne le suis pas non plus !

— Si ! tu voles les gens. C’est une grave maladie, ça !

— Non ! C’est mon métier ! Ce n’est pas une maladie, s’offusqua l’intrus en geignant.

— Les métiers ne font pas de tort aux gens. Voler leur nuit au contraire fortement.

— Et vous servir de guilimiu, vous croyez que ça ne va pas me faire de tort ?

— Bon ! Assez joué maintenant ! intervint Tulvarn qui commençait à trouver l’échange stérile. Que comptes-tu faire pour éviter de nous nuire à l’avenir ?

— Voler pour vous ?

— Tu trouves ça intelligent, alors qu’on vient de te parler de la nocivité du vol ?

— Pourquoi nocif, puisque ça me permet de vivre ?

— Et les autres ? Ceux que tu voles ? Ce n’est pas nocif pour eux ? D’où sors-tu ?

— Comment ça, sieur Tulvarn, d’où je sors ?

— D’où viens-tu pour ne pas connaître les torts causés par le vol ? Ou bien tu le fais exprès et tu te fous vraiment de nous ? Penses-tu que la patience d’un moine est à toute épreuve ?

— Non, sieur Tulvarn, je n’oserais pas.

— Ouais, j’ai du mal à te croire, vois-tu ? Un voleur est souvent quelqu’un de rusé, de roublard… et tu pourrais très bien t’efforcer de sauver ta peau en te jouant de nous. Trêve de bavardages ! Je vais t’offrir une occasion de te racheter. Jiliern et moi-même allons bientôt partir à la recherche d’une mystérieuse relique et tes aptitudes spéciales pourraient nous être utiles.

— Une relique ? interrogea le voleur avec une étincelle d’intérêt dans les yeux. Quelle relique ?

— Tu as peu de chances de la connaître. Même mon maître n’en sait presque rien.

— Dites toujours !

— Le Tétralogue.

— Hum, jamais entendu parler, répondit le voleur quelque peu déçu. Comment savoir ce qu’elle vaut alors ?

— Je ne m’occupe pas de savoir ce qu’elle vaut. La seule chose qui me préoccupe est de devoir la trouver. Alors, veux-tu nous aider à la trouver ? Oui ? Ou non ?

— Qu’est-ce que j’y gagnerais si je ne sais pas ce qu’elle vaut ?

— Tu y gagneras au moins de ne pas être montré du doigt dans tout le pays.

— Je pourrais toujours changer de pays.

— Ta réputation t’y suivrait. Plusieurs ici s’arrangeraient très bien pour ça. Ne cherche pas toujours ce que tu pourrais gagner. Si tu veux un conseil amical, cherche plutôt ce que tu pourrais apporter de mieux. Tu verras que c’est bien plus gratifiant que ce qu’un vol peut procurer.

— … Je ne sais pas. J’ai des doutes.

— Nous avons tous des doutes. Moi-même j’ai de gros doutes. Pour commencer, j’ignore si cette relique existe vraiment. Mais veux-tu tenter l’aventure avec nous ? Pour une fois, tes compétences pourraient servir un but plus noble.

— Qu’est-ce qui me garantit que votre but est noble, d’abord ?

— Rien ! Je pourrais même être un faux moine, tant qu’à y être. À qui ou à quoi fais-tu confiance d’habitude dans la vie ?

— Euh… Je ne sais pas… Je n’ai confiance en personne, en fait.

— Oui, c’est un peu compréhensible de la part de quelqu’un qui a érigé le vol en art de vivre. Confiance en quelque chose, malgré tout ?

— Maintenant que vous posez la question, sieur Tulvarn, oui, il y a une chose en laquelle j’ai confiance : mon habileté.

— Bon, c’est un début. Et cesse-donc de m’appeler « sieur », s’il te plaît. Comment te nommes-tu d’ailleurs ?

— Gnomil, sieur Tulvarn. Oups ! Pardon, Votre Éminence.

— Non ! « Tulvarn », simplement ! Un moine n’a rien d’éminent. Du moins à part peut-être lorsqu’il devient maître. Et je suis loin de l’être.

— D’accord… Tulvarn, répondit Gnomil avec une certaine difficulté. Il n’était pas habitué à s’adresser ainsi à un moine. Pour lui, les moines représentaient des personnes vraiment spéciales.

— Tu t’y feras, tu verras, du moins si tu acceptes ma proposition. Alors ?…

— D’accord. J’accepte de vous accompagner. J’espère ne pas m’en mordre les doigts et que cette relique existe bien.

— Bien, alors comme nous devons encore rester ici quelques jours, le temps que Jiliern se rétablisse suffisamment de sa blessure, tu as peut-être le temps de passer chez toi. Tu pourrais y chercher ce qui te serait utile. Habites-tu loin ?

— Non, à seulement quelques heures de marche.

— Nous attendrons ton retour. Au cas où tu nous fausserais compagnie, nous saurions avertir rapidement les gens du danger que tu représentes pour eux.

— Oui, je n’en doute pas. Mais n’ayez crainte… Tulvarn. Je vous donne ma parole.

— Hum ! intervint Jiliern, je me demande dans quelle mesure on peut faire confiance en la parole d’un voleur.

— Tenez, Madame Jiliern ! Est-ce que ça peut vous aider à me croire, répondit Gnomil en sortant quelque chose de sa toge à la hauteur de son torse (il s’agissait d’un petit cylindre métallique gravé de caractères et symboles inconnus. Il dépassait à peine de la paume de sa main). J’ai trouvé ça dans la maison d’un forgeron. Et je ne pense pas qu’il en soit l’artisan. Vous pourriez facilement l’échanger chez des érudits. Je le récupérerai à mon retour.

— Bon, d’accord ! finit par répondre la Vélienne seulement à demi convaincue. Allez-y Gnomil ! Nous attendrons votre retour avant de nous mettre en route. Je devrais être pleinement rétablie d’ici là. Au moins vous n’emportez pas mes précieux cristaux.

— Je serai normalement de retour d’ici deux jours si tout va bien.

— À bientôt, Gnomil, termina Tulvarn. J’espère que tu ne vas pas nous faire regretter de te laisser ainsi partir.

— Vous ne le regretterez pas. Vous m’avez trop accroché avec votre affaire de relique. Je suis un voleur, mais aussi très curieux.

Le jour commençait à se lever lorsque Gnomil sortit pour rentrer chez lui, laissant Tulvarn et Jiliern pensifs, toujours debout dans la cuisine.

[La semaine prochaine : chapitre 5.]




France — Le traité de Maastricht a tué sa démocratie et sa souveraineté

[Source : Ligne Droite • La matinale de Radio Courtoisie]

Les Français ont notamment perdu du jour au lendemain 30 % de pouvoir d’achat lors du passage du franc à l’euro.




Pourquoi la grande majorité des êtres humains se soumettent-ils ?




Climat — Pourquoi la théorie de l’effet de serre est erronée

[Source : science-climat-energie.be]

[NDLR Regroupement de plusieurs articles écrits sur le sujet par le professeur Georges Geuskens.]

Par Georges Geuskens, Professeur émérite de l’Université Libre de Bruxelles (ULB)

Le CO2 dans les basses couches atmosphériques (partie 1)

Certains climatologues estiment, sur la base de modèles informatiques, que l’augmentation de la teneur en  CO2  dans l’atmosphère pourrait avoir une influence sur le climat. Avant d’aborder ce problème il est important d’analyser le comportement de ce gaz dans les basses couches atmosphériques.

A cette fin envisageons une boîte opaque contenant, à l’abri de tout rayonnement extérieur, une certaine quantité d’air sec à 15°C et à la pression d’une atmosphère. Dans cette boîte 78 % des molécules sont des molécules d’azote N2  et 21 % sont des molécules d’oxygène O2. Le  troisième constituant par ordre d’abondance est l’argon Ar (environ 1 % des molécules). Les molécules de CO2 n’interviennent que pour environ 0,04 %. Toutes ces molécules n’ont pratiquement pas d’interaction entre elles, si ce n’est qu’étant en constante agitation elles entrent en collisions les unes avec les autres lors de chocs dont la plupart sont élastiques (avec conservation de l’énergie cinétique).  La théorie cinétique des gaz permet de calculer qu’à la température de 15°C les molécules de l’air sont animées de vitesses de l’ordre de 500 m par seconde (voir fig. 1, courbe à 300 K) et qu’à cette température et à la pression d’une atmosphère chacune subit plusieurs milliards de collisions par seconde. De plus, ces molécules présentent une large distribution de vitesses qui est fonction de la température  en accord avec la loi de Maxwell-Boltzmann (Fig. 1).

Fig. 1  Loi de distribution des vitesses de Maxwell-Boltzmann

Les molécules de l’air ne sont pas seulement animées de mouvements de translation. Si elles disposent de l’énergie suffisante elles peuvent aussi entrer en vibration avec variation rapide et périodique des longueurs ou des angles de leurs liaisons interatomiques. Contrairement aux mouvements de translation dont l’énergie peut varier d’une manière continue seuls certains niveaux énergétiques de vibration sont permis. La mécanique quantique nous apprend, en effet, que l’énergie de vibration ne peut varier de manière continue. A chaque fréquence de vibration permise est associée une énergie qui peut être déterminée expérimentalement par spectroscopie d’absorption dans le domaine infrarouge ou Raman. Les molécules biatomiques  N2 et O2 sont très rigides et ne vibrent pratiquement pas à 15°C. Par contre, les molécules triatomiques de CO2, linéaires à l’état fondamental O=C=O,  peuvent se  déformer facilement et devenir anguleuses en vibrant. L’énergie de cet état de vibration peut être calculée à partir de la bande d’absorption détectée à 15 µm dans le spectre infrarouge du CO2  grâce  à la relation Ev = hc /λ (où h est la constante de Planck, c la vitesse de la lumière et la longueur d’onde du rayonnement absorbé, dans ce cas 15 µm). Cette valeur n’est que de 30 % supérieure à l’énergie cinétique moyenne des molécules environnantes N2 et O2 qui, d’après la théorie cinétique des gaz,  vaut Ec = 5/2 k T (où k est la constante de Boltzmann et T la  température en Kelvin). Or, beaucoup de molécules ont une vitesse et donc une énergie cinétique supérieure à la moyenne comme l’indique la fig. 1 (la vitesse moyenne est très proche du maximum de la courbe de distribution des vitesses).

En l’absence d’une source extérieure de rayonnement l’énergie nécessaire pour exciter la vibration de CO2  ne peut provenir que de l’énergie d’agitation thermique du milieu ambiant. La quantification de l’énergie n’intervenant  pas au niveau des mouvements de translation les énergies cinétiques de translation Ec = mv2/2 présentent une large distribution continue semblable à celle illustrée sur la fig. 1. La fonction mathématique correspondant à ces courbes permet de calculer qu’à 15°C plus de 40 % des molécules N2 et O2 ont suffisamment d’énergie cinétique pour amener les molécules de CO2 à leur plus bas niveau de vibration lors d’une collision inélastique (sans conservation de l’énergie cinétique). Dans ces conditions  il y a conversion d’une fraction ∆ de l’énergie cinétique de translation des molécules N2 ou O2 en énergie de vibration du CO2 :

∆Ec (translation) de N2    +    CO2    ↔    ∆Ev (vibration) de CO2   +   N2         (1)

Ce ne sont évidemment pas toujours les mêmes molécules de CO2 qui sont en état de vibration car cette conversion est réversible et les molécules se désactivent endéans quelques microsecondes pour retourner à l’état fondamental  lors de nouveaux chocs avec les molécules environnantes qui, de ce fait, acquièrent temporairement un surcroît d’énergie cinétique de translation.

Il existe donc un équilibre dynamique résultant des très nombreuses collisions. Il ne dépend que de la température et de la pression (par le biais de la distribution des énergies et du nombre de chocs entre molécules). Quoique ce ne soient pas toujours les mêmes molécules de CO2 qui vibrent la proportion de molécules en état de vibration reste constante à une température et une pression déterminées (environ 40 % à 15°C et à la pression d’une atmosphère).

Les molécules de CO2 amenées à l’état de vibration pourraient-elles se désactiver par réémission du rayonnement de 15 µm correspondant à l’excédent d’énergie de ce niveau par rapport à l’état fondamental ? Un tel phénomène de désactivation radiative est bien connu entre niveaux d’énergie électronique et est appelé fluorescence mais il n’a été observé entre niveaux d’énergie de vibration qu’à très haute altitude à des pressions extrêmement faibles (voir paragraphe 2c  ici ). La raison en est qu’en solution ou en phase gazeuse à des pressions voisines d’une atmosphère la  désactivation radiative ne peut entrer en compétition avec la désactivation par collisions que pour des états excités de très courte durée de vie (10-9 à 10-7 s). Ces derniers  peuvent alors émettre un rayonnement avant qu’une collision inélastique se produise. Ce n’est pas le cas des états de vibration dont la durée de vie est de l’ordre des millisecondes. L’équilibre (1) ne sera donc pas modifié si certaines molécules de CO2, en plus  des collisions dues à l’agitation thermique, étaient excitées par absorption d’un rayonnement de longueur d’onde appropriée λ (15 µm en l’occurrence) car cet apport d’énergie serait rapidement converti en un surcroît d’énergie de translation des molécules environnantes. Le fait qu’à 15°C et à la pression d’une atmosphère les molécules de CO2  à l’état de vibration ne peuvent se désactiver par réémission d’un rayonnement  est une conclusion essentielle pour comprendre l’influence que ce gaz pourrait avoir sur le climat.

Le CO2 dans les basses couches atmosphériques (partie 2)

La présence de CO2 dans les basses couches atmosphériques peut-elle avoir une influence sur le climat en modifiant le bilan énergétique global de la Terre ? Le bilan énergétique doit tenir compte du fait que pour maintenir une température constante la Terre doit dissiper l’énergie reçue du Soleil et que différents mécanismes de dissipation sont possibles. Le modèle le plus complet est celui proposé par la NASA (fig. 1).

Fig. 1  Bilan énergétique de la Terre selon la NASA

D’après ce bilan 30 % de l’énergie reçue par la Terre au sommet de l’atmosphère seraient réfléchis par les nuages, l’atmosphère et la surface terrestre : c’est l’albédo de la  Terre. L’atmosphère et les nuages absorberaient en plus 19 % du rayonnement solaire transmis et finalement  51 %  seulement seraient absorbés par les continents et les océans. Cette énergie serait dissipée ensuite par trois mécanismes distincts : évaporation de l’eau des océans (23 %), convection de l’air (7 %) et rayonnement thermique (21 %). Remarquons sur la fig. 1 qu’une petite fraction seulement de l’énergie détectée au sommet de l’atmosphère sous forme de rayonnement provient directement de la surface terrestre (fine flèche rouge à droite). Finalement toute l’énergie dissipée par la surface terrestre (quel que soit le mécanisme) ou absorbée directement par l’atmosphère et les nuages est convertie en rayonnement dans les couches supérieures de l’atmosphère (large flèche rouge) car c’est le seul mécanisme d’évacuation de cette énergie hors de l’atmosphère terrestre. Le rayonnement détecté par satellite à haute altitude (70 % de l’énergie reçue par la Terre au sommet de l’atmosphère) provient donc essentiellement des couches supérieures de l’atmosphère à des températures beaucoup plus froides que la surface terrestre.

Si on considère la Terre comme un corps noir à 15°C l’équation de  Planck (fig. 1 ici ) permet de calculer que 95 % du spectre d’émission sera compris entre 5 et 40 µm et la loi de Wien prévoit que le rayonnement émis devrait présenter un maximum d’intensité à 10 µm. D’après le bilan proposé par la NASA 15 % du rayonnement thermique émis par la Terre sont absorbés par divers constituants atmosphériques. La fig. 2 montre qu’il s’agit principalement de la vapeur d’eau mais aussi du CO2.

Fig. 2 Transmittance de l’atmosphère

Des zones de transparence atmosphérique apparaissent  (en  bleu sur la figure), notamment entre 8 à 13 µm. En intégrant l’équation de Planck dans cet intervalle de longueurs d’onde on trouve que 30 % du rayonnement thermique de la Terre est émis dans cette zone de transparence atmosphérique soit env. 6 %  de l’énergie totale reçue du Soleil au sommet de l’atmosphère (30 % de 21 %).  Ce résultat est en accord avec le bilan de la NASA (fig. 1) qui fait effectivement état de 6 % d’énergie rayonnée directement vers l’atmosphère.

Le CO2 présente une bande d’absorption dans le domaine du rayonnement thermique de la Terre. Elle est présentée sur la fig. 3 pour une teneur en CO2 de 357 ppm (0,0357 %) en présence de 2,6 % en vapeur d’eau, conditions correspondant à la composition atmosphérique en 1993 (date d’enregistrement du spectre).

Fig. 3  Spectre d’absorption du CO2

Cette bande d’absorption centrée à 15 µm (branche Q) permet l’excitation de la molécule à un état de vibration impliquant sa déformation angulaire. Les branches P et R sont dues à l’existence de sous-niveaux de rotation pour chaque niveau de vibration (fondamental et excité). En intégrant l’équation de Planck cette fois dans le domaine de 14 à 16 µm, domaine d’absorption du CO2, on calcule que 9,3 % du rayonnement thermique de la Terre est émis dans cet intervalle de longueurs d’onde. En fin de compte le CO2 , quel que soit son coefficient d’absorption, ne pourrait absorber au maximum que 9,3 % du rayonnement thermique de la Terre (représentant 21 % de l’énergie totale reçue du Soleil) soit un peu moins de 2 % de l’énergie totale reçue du Soleil  au sommet de l’atmosphère.

Les molécules de CO2 excitées à l’état de vibration par absorption d’une fraction du rayonnement thermique de la Terre ont une durée de vie limitée. Elles se désactivent endéans quelques microsecondes par collisions avec les molécules environnantes (voir ici ), principalement N2 et O2. Dans ces conditions  il y a conversion d’une fraction ∆ de l’énergie de vibration du CO2 en énergie cinétique de translation des molécules N2 (ou O2) :

∆Ev (vibration) de CO2   +    N2           ∆Ec (translation) de N2    +    CO2

Bien que l’absorption du rayonnement thermique de la Terre entre 14 et 16 µm soit sélective par les molécules de  CO2 (fig. 2 et 3) cet excédent d’énergie se répartit sur l’ensemble des molécules environnantes suite aux multiples collisions. Au total 2 %  de l’énergie reçue du Soleil au sommet de l’atmosphère terrestre seront convertis en mouvements de convection au détriment de l’intensité du rayonnement thermique.

En conclusion la présence de CO2 dans l’atmosphère ne modifie pas le bilan énergétique global de la Terre mais seulement l’importance relative des différents mécanismes de dissipation de l’énergie reçue du Soleil. Ceci ne peut avoir aucune influence sur la température globale moyenne de la surface terrestre.

Forçage radiatif, sensibilité climatique et rétroactions positives

Le forçage radiatif (radiative forcing) peut être défini comme la différence entre l’énergie radiative reçue du Soleil et l’énergie radiative émise vers l’espace par la Terre. Ce concept a été introduit par les  partisans d’un réchauffement climatique d’origine anthropique pour donner une base quantitative à la théorie de l’effet de serre défini comme :

« un phénomène radiatif causé par des gaz tels la vapeur d’eau ou le CO2 qui absorbent une fraction du rayonnement infrarouge émis par la Terre et le réémettent ensuite dans toutes les directions et notamment vers la surface terrestre dont la température serait, de ce fait, plus élevée qu’en l’absence de gaz absorbant l’infrarouge ».

Le forçage radiatif ∆F dû au CO2 correspond donc à la fraction du rayonnement thermique de la Terre qui serait absorbée par ce gaz puis réémise vers la Terre. Il en résulterait une perturbation du bilan énergétique de la Terre dont la température devrait, selon les  partisans d’un réchauffement climatique d’origine anthropique, augmenter pour dissiper plus d’énergie par rayonnement thermique afin d’atteindre un nouvel équilibre.

La version la plus récente de la formule semi-empirique utilisée par le GIEC pour lier le forçage radiatif à la teneur en CO2 dans l’atmosphère provient d’un article de G. Myrhe et coll. paru en 1998 dans Geophysical Research Letters (vol 25, p. 2715) et intitulé « New estimates of radiative forcing due to well mixed greenhouse gases » :

∆F (W m-2) = 5,35 ln C/C0                               (1)

Dans cette formule C est la concentration du CO2 en ppmv  (parties par million en volume) à un moment donné et C0  la concentration de référence, par exemple avant le début de l’ère industrielle (278 ppmv). Elle est obtenue en introduisant des teneurs en CO2 extrapolées jusqu’à 1000 ppmv dans plusieurs modèles climatiques globaux sans tenir compte d’un effet de saturation de l’absorption qui interviendra nécessairement avec l’augmentation de la teneur en CO2. Les résultats sont rassemblés sur la fig. 1 extraite de l’article cité. La relation (1) décrit l’allure de ces courbes.

 Fig. 1 Forçage radiatif en fonction de la concentration en CO2
(d’après Myrhe 1998)

En 2005 le forçage radiatif depuis le début de l’ère industrielle était estimé par le GIEC à 1,7 W m-2 mais actuellement avec une teneur en CO2 dans l’atmosphère proche de 400 ppmv la valeur déduite de la formule (1) serait de 2 W m-2.

Il faut remarquer que la publication de Myrhe date de 1998 et correspond à une période allant approximativement de 1980 à 2000 pendant laquelle les  partisans d’un réchauffement climatique d’origine anthropique ont voulu établir une corrélation entre l’augmentation de température moyenne globale (fig. 2) et l’augmentation de la teneur en CO2 dans l’atmosphère. Cependant  depuis près de 20 ans la température ne varie pratiquement plus (fig. 3), bien que la teneur en CO2 n’ait cessé d’augmenter d’environ 2 ppmv par an.

Fig. 2  Ecarts de température pour la période 1880-2015 par rapport à la moyenne  pour la période 1901-2000 (en rouge moyennes annuelles, en bleu courbe lissée)

Le problème est d’établir un lien entre le forçage radiatif estimé d’après la formule (1) et l’augmentation de température qui en résulterait selon la théorie de l’effet de serre. A cet effet les climatologues se basent toujours sur la formule de Stefan Boltzmann qui lie la puissance rayonnée par unité de surface F à la température T (en K)  à la puissance  4 :

F (W m-2)  = σ T4 (σ = constante de Stefan = 5,67 x 10-8 W m-2 K-4)

Si le CO2 donne lieu à un forçage radiatif estimé à 2 W m-2 ils considèrent que la température de la Terre devrait nécessairement augmenter pour dissiper sous forme de rayonnement thermique ce surcroît d’énergie reçue. Or, il est bien établi que deux autres mécanismes contribuent également, et de manière prépondérante,  à la dissipation de l’énergie par la Terre : la convection de l’air et l’évaporation de l’eau des océans. La formule de Stefan Boltzmann sous la forme mentionnée ci-dessus n’en tient pas compte.

Certains climatologues écrivent néanmoins sur la base de la formule de Stefan Boltzmann :

T4 (actuel) / T4 (préindustriel) = F + ∆F / F                          (2)

Si  la puissance F rayonnée au sommet de l’atmosphère était de 240 W m-2 au début de l’ère industrielle et si le forçage radiatif ∆F est aujourd’hui  de 2 W m-2 le rapport des F vaudrait 242/240 = 1,008 et le rapport des T = 1,002. On en déduit que si la température était 288 K au début de l’ère industrielle elle deviendrait 288,6 K aujourd’hui  soit une augmentation de température de 0,6 °C. Une méthode différente utilisée par d’autres climatologues est basée cette fois sur la dérivée de la formule de Stefan Boltzmann qui pourrait s’écrire :

dF/dT = 4 σ T3 d’où  ∆F = 4 σ T3 ∆T                           (3)

 Avec un forçage radiatif de 2 W m-2 et si la température était 288 K au début de l’ère industrielle on trouve cette fois ∆T = 0,37 °C.

En réalité la fig. 2 montre que l’augmentation globale de température enregistrée depuis 1880 ne suit ni l’une ni l’autre des relations (2) et (3).  Elle est globalement de 0,7 °C mais passe par un minimum en 1910 suivi d’un petit maximum en 1940, d’un palier de 1950 à 1980 et d’une remontée à partir de 1980 pour se stabiliser depuis l’an 2000 approximativement.

La sensibilité climatique est définie comme l’augmentation de température qui résulterait d’un doublement de la concentration en CO2 pour atteindre 800 ppmv (en 2200 au taux de croissance actuel). La valeur trouvée serait comprise entre 0,7 et 1,4 °C sur la base des relations (2) ou (3) donc de l’ordre de 1°C par rapport à aujourd’hui. Ce n’est pas très important mais des rétroactions positives peuvent amplifier cet effet. On peut faire intervenir, par exemple, la vapeur d’eau, autre gaz à « effet de serre », dont la concentration augmenterait suite à l’élévation de température ou la fonte de la banquise et la diminution des surfaces enneigées qui auraient pour effet de diminuer l’albédo de la Terre et donc la fraction d’énergie solaire réfléchie. Pour une revue d’une douzaine de possibilités de rétroactions positives voir ici.

Pour calculer la sensibilité climatique une formule censée tenir compte de différentes rétroactions  est proposée ici :

∆T =  0,8 ∆F                                             (4)

 Avec ∆F = 3,7 W m-2 calculé par la formule (1) pour un doublement de la concentration en CO2 la formule (4) conduit à une augmentation de température de 3 °C,  valeur adoptée par la National Academy of Sciences (Washington) en 1979 avec une marge d’erreur de 1,5 °C selon l’importance relative attribuée aux diverses rétroactions  dans différents modèles climatiques globaux.

Il est évident que l’intervention de divers types de rétroaction  permet l’introduction de nombreux paramètres dans différents modèles climatiques globaux. Dès lors tous les ajustements sont possibles entre la réalité climatique et les modèles théoriques comme l’illustre la fig. 3.

Fig. 3  Ecarts de températures par rapport à 1975
(moyenne des mesures par ballons-sondes en vert ,  par satellites en bleu)
et prédictions selon différents modèles climatiques
(ligne rouge = moyenne de 102 modèles)

Du bon usage de la formule de Stefan-Boltzmann

La formule de Stefan-Boltzmann est l’outil de travail des climatologues qui veulent prédire des variations de température à partir des flux énergétiques intervenant dans le bilan énergétique de la Terre ( voir  ici ). Sous la forme  utilisée, elle lie le flux unidirectionnel  F rayonné (vers la Terre ou vers l’espace) à la température T (en K)  à la puissance  4 (σ = constante de Stefan = 5,67 x 10-8 W m-2 K-4) :

F (W m-2)  = σ T4          (1)

Rappel théorique

La formule de Stefan-Boltzmann est dérivée de la théorie du « corps noir » élaborée par plusieurs physiciens dans la seconde moitié du 19ème siècle pour établir un lien entre le flux de rayonnement émis par tout solide à une température supérieure  au zéro absolu  et la température de ce solide. La meilleure représentation qu’on puisse se faire du modèle sur lequel est basée cette théorie est celle d’un four sous vide et à l’équilibre thermique dont la paroi  interne opaque absorbe, sans  aucune réflexion ni transmission, tout rayonnement électromagnétique quelle que soit sa longueur d’onde. A l’équilibre thermique elle doit également réémettre tout rayonnement absorbé. Ce four parfaitement isolé devrait cependant être percé d’un minuscule orifice permettant d’analyser le rayonnement concentré à l’intérieur. Aucune interprétation quantitative du spectre observé ne fut possible dans le cadre de la théorie électromagnétique classique et c’est finalement Planck qui proposa en 1900 une équation introduisant l’idée, révolutionnaire pour l’époque, qu’à chaque longueur d’onde le rayonnement ne peut être émis que sous forme de « quanta » (c’est-à-dire de petits paquets) dont l’énergie est hν = hc/λ (où ν et λ sont respectivement la fréquence et la longueur d’onde du rayonnement, c la vitesse de la lumière et h une nouvelle constante de la nature appelée désormais constante de Planck). Ce rayonnement qualifié de « thermique » est dû à l’oscillation de dipôles électriques formés par le noyau et le nuage électronique des atomes qui, en accord avec les lois de  l’électromagnétisme, émettent un rayonnement de fréquence égale à la fréquence d’oscillation.

L’équation de Planck (mentionnée sur la fig. 1) permet de calculer à différentes températures l’émittance monochromatique hémisphérique E(λ, T) en W m-2 c’est-à-dire  le flux par unité de surface émis à chaque longueur d’onde dans toutes les directions à partir d’une surface plane. Les courbes obtenues sont présentées sur la fig. 1.  Elles sont indépendantes de  la nature du corps.

Fig. 1 Equation de Planck donnant E (λ, T) en fonction de la longueur d’onde (en nm)

L’intégration de l’équation de Planck sur tout le domaine de longueurs d’onde conduit à la formule de Stefan-Boltzmann qui lie l’émittance hémisphérique totale E(T)  (en W m-2) à la température T (en K)  à la puissance  4 (σ = constante de Stefan) :

E (T)(W m-2) = σ T4                       (2)

La relation (2) fournit une mesure de l’aire sous les courbes de la fig. 1. Il faut remarquer que l’émittance énergétique hémisphérique E(T) intervenant dans la relation (2) est physiquement différente du flux unidirectionnel F de la relation (1). Cette dernière, couramment utilisée en climatologie, peut être considérée comme une approximation  à usage pratique. La fig. 1 montre aussi que le maximum de la courbe d’émission  se déplace avec la température selon la loi de Wien :

λmax = C / T (C = 2,9 10-3 m K).

Limitations pratiques

L’application de l’équation de Planck et de la formule de Stefan-Boltzmann à des substances réelles bien différentes du modèle théorique implique certaines limitations.

1° En présence d’un autre corps à une température supérieure au zéro absolu, émettant donc aussi un rayonnement thermique,  l’échange énergétique radiatif obéira à la relation :

F (W m-2)  =  σ (Tc4 – Tf4)

 Dans cette formule Tc et Tf sont respectivement les températures des corps chaud et froid impliqués dans l’échange énergétique (le symbole F correspond toujours à un flux unidirectionnel comme il est d’usage  en climatologie). Le rayonnement émis par un corps froid ne peut donc pas être absorbé par un corps chaud. A  titre d’exemple, on remarque sur la fig. 1 que toutes les longueurs d’onde émises par un corps à 3000 K sont déjà émises par un corps à 4000 K. Elles ne pourront donc être absorbées pour exciter l’oscillation de nouveaux dipôles dans ce corps plus chaud.

2° En toute rigueur l’équation de Planck et la formule de Stefan-Boltzmann ne peuvent être utilisées que si le rayonnement thermique est le seul mécanisme d’échange énergétique. Elle ne peut donc s’appliquer à la Terre où la convection de l’air et l’évaporation de l’eau des océans contribuent de manière prépondérante au bilan énergétique ( voir la fig. 1 ici ). Si les satellites détectent au sommet de l’atmosphère  l’émission sous forme de rayonnement de 240 W m-2 on ne peut en déduire, par application de la formule (1), que la surface terrestre devrait être à la température de 255 K (-18°C). De même, le fait que la température « globale moyenne » de la Terre soit 288 K (15°C) ne permet pas d’en déduire que le flux radiatif émis par la Terre serait de  390 W m-2

3° Dans la pratique, la surface d’un corps réel ne se comporte pas comme celle d’un corps noir notamment car une partie du flux incident est réfléchie. On définit alors l’émissivité ε d’un corps quelconque comme le rapport entre le flux d’énergie radiative émis par ce corps et le flux d’énergie radiative qui serait émis par un corps noir à la même température. Pour un corps noir ε = 1 et pour un corps réel ε < 1. On qualifie ces corps de « gris » si l’équilibre thermique est néanmoins maintenu à toutes les longueurs d’onde ce qui implique que le flux émis reste égal au flux absorbé. L’absorptivité α d’un corps « gris » (définie de manière analogue à son émissivité) doit donc toujours être égale à son émissivité : α = ε (loi du rayonnement de Kirchhoff). Si α  ≠  ε le corps n’est ni gris, ni noir et est hors d’équilibre thermique. Dans le cas d’un corps « gris » la formule de Stefan-Boltzmann devrait s’écrire :

F (W m-2)  = ε σ T4                                   (3)

A une même température le flux radiatif émis par un corps gris sera moindre que celui émis par un corps noir. Les courbes de Planck seront semblables à celles de la fig. 1 mais les intensités émises seront plus faibles.

4° D’une manière générale, lorsque la surface d’un corps est soumise à un rayonnement incident, une fraction ρ (réflectivité) de  l’énergie incidente est réfléchie, une fraction α (absorptivité) est absorbée et une fraction τ (transmissivité) est transmise (fig. 2). L’importance de ces différentes fractions dépend de la longueur d’onde et de la température mais la conservation de l’énergie implique toujours que :   ρ + α + τ    1. Dans le cas d’un corps noir ou gris τ = 0  d’où  α 1 – ρ.  De plus, α = ε d’après la loi du rayonnement de Kirchhoff. Dans l’un et l’autre cas la formule de Stefan -Boltzmann peut être utilisée sous la forme (1) ou (3) mais elle n’est pas valable si τ ≠  0.

Fig. 2 Interactions d’un rayonnement incident avec une surface

Dans le bilan énergétique de la Terre proposé par la NASA (voir la fig.1 ici) 4 % du flux radiatif d’origine solaire sont réfléchis par la surface terrestre (ρ = 0,04). L’absorptivité moyenne de la Terre serait donc α = 0,96. La Terre pourrait être considérée comme un corps gris si ce n’est que 71 % de sa surface sont occupés par des mers ou des océans. Or, l’eau est pratiquement transparente dans le domaine le plus intense du rayonnement solaire (400 nm à 1 µm) où son coefficient d’absorption est très faible (fig. 3). Comme τ ≠  0 dans ce domaine de longueurs d’onde elle ne peut être considérée comme un corps gris et la formule de Stefan-Boltzmann n’est pas applicable.

Fig. 3 Spectre d’absorption de l’eau

Néanmoins, pour estimer la température de surface des océans, des mesures du rayonnement émis ont été faites par satellite dans la fenêtre de transparence atmosphérique de 8 à 13 µm (voir la fig. 2 ici ) où le coefficient d’absorption de l’eau est beaucoup plus élevé (fig. 3). Dans cet intervalle de longueurs d’onde la pénétration du rayonnement solaire est limitée à quelques µm de la surface et τ = 0. La formule de Stefan-Boltzmann a alors été utilisée pour déterminer la température de surface de la mer et des océans dans différentes régions du globe. Il ne faut cependant pas oublier (voir rappel théorique) que la formule de Stefan-Boltzmann est obtenue par intégration de l’équation de Planck sur tout le domaine de longueurs d’onde rayonné et que relation en T à la puissance 4 n’est valable que dans ces conditions. L’application à la mesure de la température de surface des océans dans un domaine très limité de longueurs d’onde constitue donc une approximation.

5° Les basses couches atmosphériques ne peuvent jouer le rôle de corps noir car elles n’en présentent aucune des caractéristiques spécifiques. Elles n’ont pas de surface, les transferts énergétiques n’y sont pas exclusivement radiatifs et elles n’absorbent ni émettent toutes les longueurs d’onde puisque les constituants atmosphériques présentent un spectre de raies en absorption comme en émission.

Le CO2 et le climat avec et sans effet de serre

De tous temps les hommes se sont intéressés au climat et ont tenté de prévoir son évolution. Dès l’Antiquité il était connu que des caractéristiques géographiques comme la latitude mais aussi l’altitude ou le voisinage de vastes étendues d’eau avaient une grande influence sur le climat. Sur cette base les climatologues ont été amenés à distinguer différents types de climats tels que tropical, désertique, tempéré, polaire, etc. Ensuite, il est progressivement apparu que le climat est un système extrêmement complexe qui dépend de l’activité solaire ainsi que de  la distance et de l’orientation de la Terre par rapport au Soleil, facteurs qui varient à des échelles de temps très différentes.

Mais depuis quelques dizaines d’années, et plus particulièrement depuis la création du GIEC en 1988 sous l’égide d’organisations internationales, le climat est envisagé globalement à l’échelle de la Terre entière sans tenir compte de particularités géographiques locales. De plus, des événements singuliers tels qu’ouragans, inondations ou sécheresses sont désormais imputés par certains climatologues à un changement climatique dont l’activité humaine serait responsable. Cette théorie du changement climatique d’origine anthropique qui a des conséquences politiques, économiques et sociales très importantes repose cependant sur une seule et fragile hypothèse : le CO2 renverrait vers la Terre une partie du rayonnement qui devrait s’échapper vers le vide interplanétaire et il en résulterait une élévation de la température « moyenne globale » à la surface de la Terre. Ce phénomène radiatif improprement appelé «effet de serre » a des défenseurs et des adversaires entre lesquels le débat est souvent impossible. Il semble cependant qu’un consensus pourrait se dégager si on pouvait donner une base quantitative à certains phénomènes sur lesquels il y a accord d’un point de vue qualitatif.

1.  A la recherche d’un consensus

On peut estimer que les scientifiques qui s’intéressent au climat, tant  partisans qu’adversaires d’un changement climatique d’origine anthropique, s’accordent sur les points suivants :

  • Le climat peut changer comme il l’a toujours fait et continuera à le faire ;
  • Pour maintenir une température approximativement constante la Terre doit dissiper l’énergie reçue du Soleil et le bilan énergétique de la Terre doit tenir compte de différents mécanismes possibles ;
  • Une partie de l’énergie est dissipée par la Terre sous forme de rayonnement thermique aussi qualifié de rayonnement du « corps noir » ;
  • Certains gaz présents dans l’atmosphère, et notamment le CO2, peuvent absorber une fraction de ce rayonnement thermique.
  • Le CO2 ayant absorbé une fraction de ce rayonnement pourrait avoir une influence sur la température de la surface terrestre ou des basses couches atmosphériques.

Poser le problème en termes quantitatifs requiert la connaissance de quelques principes de physique et de plusieurs grandeurs qui sont mal connues et ne font l’objet que d’estimations souvent contestées. Pour progresser il est cependant indispensable d’accepter certaines estimations même incertaines. Nous les considérerons alors comme hypothèses de base communes aux partisans et adversaires d’un changement climatique d’origine anthropique.

a) Quantité d’énergie solaire reçue par la Terre au sommet de l’atmosphère

Au niveau de l’orbite terrestre chaque mètre carré placé perpendiculairement au rayonnement solaire reçoit, en moyenne sur l’année, une puissance de 1368 W, c’est la « constante solaire ».  La valeur de 342 W m-2 au sommet de l’atmosphère est basée sur l’idée que chaque mètre carré de la surface terrestre reçoit en continu le quart de 1368 W car la Terre n’intercepte le rayonnement solaire que sur une surface égale à celle d’un disque de même rayon. Cette valeur n’est pas mesurée mais calculée en admettant une distribution uniforme de l’énergie sur toute la surface terrestre sans tenir compte ni d’un hémisphère non éclairé, ni d’une variation en fonction de la latitude. De ce fait, elle est certainement surestimée mais une valeur correcte tenant compte de la vitesse de rotation de la Terre et de l’inclinaison de son axe de rotation donnerait lieu à des difficultés de calcul insurmontables. En attribuant à la Terre un albédo de 0,3 impliquant non seulement  l’énergie réfléchie par la surface terrestre et par l’atmosphère mais aussi et principalement par les nuages, le rayonnement effectivement reçu par la surface terrestre serait alors réduit à 70 % de 342 W m-2 soit environ 240 W m-2Acceptons cette valeur comme une première hypothèse de base commune aux partisans et adversaires d’un changement climatique d’origine anthropique.

b) Fraction d’énergie émise par la Terre sous forme de rayonnement thermique

Pour maintenir une température constante la Terre doit dissiper l’énergie reçue du Soleil par différents mécanismes : convection, évaporation de l’eau des océans et rayonnement thermique. Il subsiste une grande incertitude concernant  l’importance relative de ces différents  mécanismes mais le modèle le plus généralement admis est celui proposé par la NASA (voir ici). Selon la NASA  21 % de l’énergie reçue par la Terre au sommet de l’atmosphère seraient dissipés par rayonnement thermique, seul mécanisme susceptible de donner lieu à un « effet de serre ». L’évaporation de l’eau des océans et la convection de l’air interviendraient respectivement pour 23 % et 7 %. Ces proportions ne résultent pas de mesures mais d’estimations et surprennent car la convection est généralement le mécanisme prépondérant pour des objets à température et pression ambiantes tandis que le rayonnement thermique ne devient important qu’à haute température. Acceptons néanmoins le bilan thermique proposé par la NASA comme une deuxième hypothèse de base commune aux partisans et adversaires d’un changement climatique d’origine anthropique. Notons cependant que pour Sorokhtin et collaborateurs[1] la convection interviendrait pour 34 %, l’évaporation de l’eau des océans pour 13 % et  le rayonnement thermique pour 4 % seulement. Finalement toute l’énergie dissipée par la surface terrestre (quel que soit le mécanisme) ou absorbée directement par l’atmosphère et les nuages est convertie en rayonnement dans les couches supérieures de l’atmosphère car c’est le seul mécanisme d’évacuation de cette énergie hors de l’atmosphère terrestre. En haute altitude les satellites détectent effectivement un rayonnement  moyen de 240 W m-2en accord avec le paragraphe 1a ci-dessus, mais les valeurs locales peuvent varier de 122 W m-2 au dessus de l’Antarctique à 265 W m-2 au dessus de la Basse Californie avec une différence de l’ordre de 50 W m-2 entre pôles et équateur. Ce rayonnement moyen provient essentiellement des couches supérieures de l’atmosphère à des températures beaucoup plus basses que la surface terrestre.  

c) Fraction du rayonnement thermique de la Terre absorbée par le CO2.

En admettant que la Terre se comporte comme un corps noir à la température de 288 K (15 ° C) l’équation de  Planck permet de calculer que 95 % du rayonnement thermique seraient compris entre 5 et 40 µm. Le CO2 présente une bande d’absorption dans l’infrarouge centrée à 15 µm et on trouve, en intégrant l’équation de Planck dans le domaine de 14 à 16 µm, que 9,3 % du rayonnement thermique de la Terre est émis dans cet intervalle de longueurs d’onde. On en déduit que, quel que soit son coefficient d’absorption, le CO2 ne pourrait absorber qu’un peu moins de 2 % (9,3 % de 21 %) de l’énergie totale reçue du Soleil  au sommet de l’atmosphère, soit environ 6 W m-2  (voir ici). Acceptons cette valeur comme une troisième hypothèse de base commune aux partisans et adversaires d’un changement climatique d’origine anthropique.  Remarquons cependant que les océans occupent 71 % de la surface terrestre et qu’il est difficile de les considérer comme corps noir puisque l’eau n’absorbe (et donc ne peut émettre) toutes les longueurs d’onde avec la même efficacité dans le domaine de 5 à 40 µm (250 à 2000 cm-1) comme l’indique la fig. 1.

d) Equilibre vibrationnel du CO2 dans les basses couches atmosphériques

A la pression d’une atmosphère et à la température de 15°C les molécules de l’air sont animées de mouvements de translation à des vitesses de l’ordre de 500 m par seconde. Dans ces conditions chacune subit plusieurs milliards de collisions par seconde (voir ici ). Si elles disposent de l’énergie suffisante elles peuvent aussi entrer en vibration avec variation rapide et périodique des longueurs ou des angles de leurs liaisons interatomiques. Les molécules biatomiques  N2 et O2 sont très rigides et ne vibrent pratiquement pas à 15°C. Par contre, les molécules triatomiques de CO2, linéaires à l’état fondamental O=C=O,  peuvent se  déformer facilement et devenir anguleuses en vibrant. L’énergie requise pour atteindre cet état de vibration peut être calculée à partir de la bande d’absorption détectée à 15 µm dans le spectre infrarouge du CO2  grâce  à la relation Ev = hc/λ (où h est la constante de Planck, c la vitesse de la lumière et λ la longueur d’onde du rayonnement absorbé, dans ce cas 15 µm). Cette valeur n’est que de 30 % supérieure à l’énergie cinétique moyenne des molécules environnantes N2 et O2 qui, d’après la théorie cinétique des gaz,  vaut Ec = 5/2 k T (où est la constante de Boltzmann et T la  température en Kelvin). Or, beaucoup de molécules ont une énergie cinétique supérieure à cette valeur moyenne car les énergies cinétiques de translation Et = mv2/2 présentent une large distribution continue qui suit la statistique de Maxwell-Boltzmann. La fonction mathématique correspondante permet de calculer qu’à 15°C plus de 40 % des molécules N2 et O2 ont suffisamment d’énergie cinétique pour amener les molécules de CO2 à leur plus bas niveau de vibration lors d’une collision inélastique (sans conservation de l’énergie cinétique). On admet généralement que 0,001 % des collisions sont inélastiques (voir 2c ci-dessous) ce qui représente encore plusieurs dizaines de milliers par seconde. Dans ces conditions  il y a conversion d’une fraction ∆ de l’énergie cinétique de translation des molécules N2 ou O2 en énergie de vibration du CO2 :

∆Ec (translation) de N2    +    CO2  ↔   ∆Ev (vibration) de CO2   +   N2

Cette conversion est réversible et les molécules de CO2 excitées se désactivent endéans quelques microsecondes pour retourner à l’état fondamental  lors de nouveaux chocs avec les molécules environnantes qui, de ce fait, acquièrent temporairement un surcroît d’énergie cinétique de translation. Il existe donc un équilibre dynamique résultant des très nombreuses collisions. Il ne dépend que de la température et de la pression (par le biais de la distribution des énergies et du nombre de chocs entre molécules). Quoique ce ne soient pas toujours les mêmes molécules de CO2 qui vibrent la proportion de molécules en état de vibration reste constante à une température et une pression déterminées (environ 40% à 15°C et à la pression d’une atmosphère). Admettons le transfert d’énergie entre molécules de CO2 et molécules environnantes comme quatrième hypothèse de base commune aux partisans et adversaires d’un changement climatique d’origine anthropique.

A ce stade de la discussion si les quatre points ci-dessus font l’objet d’un large consensus entre partisans et adversaires d’un changement climatique d’origine anthropique leur divergence d’opinion pourrait donner lieu un véritable débat scientifique. Cette divergence d’opinion se manifeste fondamentalement à propos du mécanisme de désactivation des molécules de CO2 excitées par absorption d’une fraction du rayonnement thermique de la Terre. Envisageons successivement avec le maximum d’objectivité les arguments scientifiques présentés par les uns et les autres.

2. Influence du CO2 sur le climat

Les partisans de la théorie du  changement climatique d’origine anthropique  invoquent à l’appui de leur thèse l’existence d’un « effet de serre » alors que leurs adversaires contestent cette hypothèse. Avant toute discussion  il est essentiel d’en bien définir le sujet, en l’occurrence l’effet de serre.

a) Définition de l’effet de serre

Il existe un grand nombre de définitions de l’effet de serre. Gerlich et Tscheuschner en rappellent plus d’une demi-douzaine (voir paragraphe 3.3 ici) qui, pour la plupart, résultent d’une mauvaise compréhension du phénomène qui  intervient réellement dans une serre agricole. Certains média destinés au grand public font appel à une analogie naïve en prétendant que les gaz à effet de serre entourent la Terre « comme une couverture » et l’empêchent de perdre sa chaleur. La seule définition de l’effet de serre qui décrit clairement le phénomène envisagé et répond, de plus,  au critère de réfutabilité énoncé par Popper est la suivante :

« L’effet de serre est un phénomène radiatif causé par des gaz tels la vapeur d’eau ou le CO2 qui absorbent une fraction du rayonnement infrarouge émis par la Terre et le réémettent  ensuite dans toutes  les directions et notamment vers la surface terrestre dont la température serait, de ce fait, plus élevée qu’en l’absence de gaz absorbant l’infrarouge. Ces gaz sont dès lors qualifiés de  gaz « à effet de serre ».

Considérons cet énoncé comme une définition scientifique acceptable tant par les partisans que par les adversaires d’un changement climatique d’origine anthropique.

 b) Influence du CO2 sur le climat avec effet de serre.

L’argument le plus souvent avancé par les partisans de la théorie du  changement climatique d’origine anthropique est qu’en l’absence de gaz à effet de serre la température « globale moyenne » de la Terre serait de – 18°C au lieu de la température généralement admise de 15 °C. En réalité cette différence de 33 °C, parfois présentée même comme une définition de l’effet de serre, est basée sur un calcul incorrect. En effet, la température de – 18°C est obtenue en introduisant  dans la formule de Stefan-Boltzmann la valeur de 240 W m-2 mesurée par satellite (voir 1b ci-dessus). Or, la formule de Stefan-Boltzmann n’est valable que si le rayonnement thermique est le seul mécanisme d’échange énergétique (voir ici). Cette valeur de – 18°C correspondrait donc à une Terre sans atmosphère et non sans gaz à effet de serre. Mais sans atmosphère l’albédo de la Terre serait voisin de 0,1 (comme celui de la Lune) et non 0,3  valeur due largement à la présence de nuages (voir 1a ci-dessus). Avec un albédo de 0,1 la quantité d’énergie reçue par la Terre en provenance du Soleil puis réémise serait 308 W m-2 et non 240 W m-2. L’application,  justifiée cette fois, de la formule de Stefan-Boltzmann conduirait à une température de 271 K (soit – 2°C) pour une Terre sans atmosphère. La différence de 17°C entre cette valeur théorique et la température « moyenne  globale» de la Terre est due à la présence d’une atmosphère qui modifie le mécanisme de dissipation de l’énergie par comparaison avec une Terre sans atmosphère.

Dans  le cas d’un gaz parfaits à l’équilibre hydrostatique,  la thermodynamique de l’atmosphère (www.lmd.jussieu.fr/~fcodron/COURS/notes_thermo.pdf) conduit à la relation :

dQ = Cp dT + g dh

 où Cp est la capacité thermique massique de l’air et g l’accélération due à la pesanteur

En absence d’échange avec l’environnement dQ  = 0 d’où dT = – g/Cp .dh et en intégrant on trouve :

 T – T0  =  – (g /Cp) (h –ho)

Dans cette formule ho est une altitude de référence où la température vaut To. Le facteur g/Cp est appelé gradient adiabatique (« lapse rate » en anglais). Cette formule indique que la température diminue linéairement lorsque l’altitude augmente. Avec g = 9,8 m s-2 et Cp = 1005 J kg-1 K-1 pour l’air sec  on trouve un gradient adiabatique de 9,75 K/km, ordre de grandeur généralement admis en atmosphère sèche. La capacité thermique  massique de l’air humide étant plus élevée le gradient adiabatique  sera plus faible et dépendra de la température. Une valeur « environnementale moyenne » de 6,5 K/km est prise en compte par l’International Civil Aviation Organization (ICAO). Sur cette base en prenant la température de 15° C comme référence au niveau de la mer on calcule que la température souvent citée de – 18°C serait atteinte à une altitude de 5100 m. La différence de 33° C observée par rapport à 15° C est évidemment due à la différence d’altitude comme l’indique la formule ci-dessus et ne peut être considérée comme la manifestation d’un effet de serre.

La présence d’une atmosphère ne réchauffe évidemment pas la Terre. Ce sont les basses couches atmosphériques qui sont réchauffées au contact du sol chauffé par le Soleil et le gradient adiabatique fait que l’air se refroidit progressivement avec l’altitude donnant lieu à un courant de convection. Cet effet ne dépend en rien de la présence d’un  peu de CO2 dans l’air.

Si les 2 % de l’énergie solaire absorbés par le CO2 à partir du rayonnement thermique de la Terre (voir 1c  ci-dessus) sont réémis dans toutes les directions il n’y  en aurait pas plus de la moitié qui atteindrait la surface terrestre soit environ 3 W m-2. Pour fixer un ordre de grandeur rappelons qu’un être humain au repos dissipe 60 à 100 W sous forme de chaleur. L’augmentation de température due à un éventuel effet de serre serait donc bien inférieure à celle résultant de la présence d’un être humain occupant une surface d’un mètre carré. Encore faudrait-il que la surface terrestre puisse réabsorber spécifiquement le rayonnement de longueur d’onde 15 µm d’abord émis par la surface terrestre puis absorbé par le COet finalement réémis. Ce serait en contradiction avec l’hypothèse que la Terre se comporte comme un corps noir (ou gris) qui, à l’équilibre thermique, ne peut pas absorber plus d’énergie qu’il n’en émet (voir ici ). On pourrait objecter que les océans qui occupent 71 % de la surface terrestre ne se comportent pas comme un corps noir (ou gris). En effet, l’eau liquide présente une large bande d’absorption centrée à 14,8 µm (675 cm-1). Connaissant le coefficient d’absorption de cette bande (voir fig. 1) on peut calculer que l’absorption d’un rayonnement de longueur d’onde 15 µm serait pratiquement totale sur une épaisseur de 15 microns. L’absorption d’énergie par cette couche très superficielle ne pourrait évidemment contribuer au réchauffement des océans.

Fig. 1 Spectre d’absorption de l’eau liquide dans le domaine de l’infrarouge thermique

On peut en conclure que l’effet de serre, s’il existait, ne pourrait conduire à un réchauffement de la surface terrestre émergée mais seulement à un léger accroissement du mécanisme de dissipation de l’énergie par évaporation de l’eau des océans au détriment du rayonnement thermique.

c) Influence du CO2 sur le climat sans effet de serre

Le principal argument qui conduit à réfuter la théorie de l’effet de serre est que la probabilité de désactivation radiative du CO2 ayant absorbé une fraction du rayonnement thermique de la Terre est pratiquement nulle car l’équilibre vibrationnel mentionné en 1d ci-dessus ne dépend que de la température et de la pression. La fraction de molécules à l’état de vibration restera donc voisine de 40 % à des pressions voisines d’une atmosphère et à la température de 15 °C, quelle que  soit la quantité d’énergie absorbée à partir du rayonnement thermique de la Terre car cet apport d’énergie supplémentaire sera rapidement converti en énergie de translation des molécules environnantes.

La conversion d’énergie de vibration en énergie de translation (V → T) est un phénomène bien connu dont l’étude s’est développée grâce aux progrès de la technologie laser permettant d’obtenir sélectivement différents états de vibration [2]. En particulier la désactivation par collisions de molécules de CO2 à leur plus bas niveau énergétique de vibration ( notées CO2*a été bien étudiée et les constantes de vitesse de la  réaction :

CO2*   +   N2  (ou O2)   →  CO2   +   N2  (ou O2)

ont  été mesurées entre 300 et 140 K [3]. Elles  sont de l’ordre de 105 fois inférieures à ce que l’on aurait pu prévoir sur la base du nombre total de collisions (plusieurs milliards par seconde) car elles résultent seulement des collisions inélastiques qui ne représentent, en général, que 0,001 % du nombre total de collisions. D’autre part, la conversion inverse d’énergie de translation en énergie de vibration (T → V) a aussi été étudiée dans le cas du CO2.  A des altitudes de l’ordre de 100 km l’énergie de translation d’atomes d’oxygène peut être transférée à des molécules de CO2 et convertie en énergie de vibration [4] :

O   +   CO    →    O   +   CO2*

A cette altitude la pression est si faible que le nombre de collisions entre molécules n’est plus que de l’ordre de 1000 par seconde et une fraction  des molécules de CO2* peut alors se désactiver avec émission d’un rayonnement de longueur d’onde λ =15 µm:

CO2*    →      CO2   +    Ev ( = hc/λ)

On attribue à cette réaction un effet de refroidissement de l’atmosphère  par conversion d’énergie cinétique en rayonnement [5].

Ces exemples  confirment qu’à 15° C et à des pressions voisines d’une atmosphère les molécules de CO2 en état de vibration se désactiveront par collisions avec les molécules environnantes comme  mentionné au paragraphe 1d ci-dessus.  Dans ces conditions régnant à la surface de la Terre l’effet de serre ne peut avoir lieu. La désactivation radiative d’un état excité ne peut entrer en compétition avec la désactivation par collisions que pour des états excités de très courte durée de vie (10-9 à 10-7s) qui peuvent émettre un rayonnement avant qu’une collision inélastique ne se produise. C’est le cas de nombreuses molécules organiques complexes dont la fluorescence est observée en solution. La désactivation radiative est aussi possible si la fréquence des collisions intermoléculaires est très faible (en milieu gazeux à très faible pression comme dans l’exemple ci-dessus ou en milieu vitreux rigide). Ces résultats permettent de conclure que les molécules de CO2 excitées à l’état de vibration par absorption d’une fraction du rayonnement thermique de la Terre se désactiveront selon le mécanisme mentionné au paragraphe 1d ci-dessus et l’apport d’énergie supplémentaire sera rapidement converti en énergie de translation des molécules environnantes ce qui aura pour effet d’augmenter les mouvements de convection qui contribuent à dissiper l’énergie solaire absorbée par la surface terrestre.

3. Conclusion

De cet exposé on peut conclure que l’effet de serre, tel que défini en 2a ci-dessus, n’existe pas au niveau des basses couches atmosphériques et que, même s’il existait, l’apport d’énergie résultant de l’absorption d’une fraction du rayonnement thermique de la Terre serait rapidement converti en évaporation de l’eau des océans. Par contre, en l’absence d’effet de serre ce  sont les mouvements de convection de l’air qui sont légèrement accentués. Dans l’un et l’autre cas le bilan énergétique global de la Terre ne sera pas modifié puisque finalement toute l’énergie dissipée par la surface terrestre, quel que soit le mécanisme, est convertie en rayonnement dans les couches supérieures de l’atmosphère car c’est le seul mécanisme d’évacuation de cette énergie hors de l’atmosphère terrestre (voir 1b ci-dessus). L’improbable débat entre partisans et adversaires d’un changement climatique d’origine anthropique pourrait donc être  rapidement clôturé puisque le CO2 ne peut contribuer en aucune manière à un réchauffement de la surface terrestre.

[1] O.G. Sorokhtin, G.V. Chilingar et L.F. Khilyuk « Global Warming and Global Cooling » ed. Elsevier Science (2007)

[2] G.W. Flynn, C.S. Parmenter, A.M. Wodtke, J.Phys.Chem. 100, 12817 (1996)

[3] R.M. Siddles, G.J. Wilson, C.J.S.M Simpson, Chem.Phys. 189, 779 (1994)

[4] K.J. Castle, K.M. Kleissas, J.M. Rhinehart, E.S. Hwang, J.A.Dodd, J.Geophys. Research 111, A09303 (2006)

[5] K.J. Castle, L.A. Black, M.W. Simione, J.A. Dodd, J.Geophys. Research 117, A04310 (2012)

Le réchauffement climatique d’origine anthropique

Le climat peut changer, comme il l’a toujours fait et continuera à le faire sous l’action de variables naturelles. Les activités humaines peuvent-elles avoir une influence comme le prétend la théorie du réchauffement climatique d’origine anthropique ? Cette théorie est basée sur l’existence d’un hypothétique effet de serre défini comme un phénomène radiatif causé par des gaz tels la vapeur d’eau ou le CO2 qui absorbent une fraction du rayonnement infrarouge émis par la Terre et le réémettent  ensuite dans toutes  les directions et notamment vers la surface terrestre dont la température serait, de ce fait, plus élevée qu’en l’absence de gaz absorbant l’infrarouge. L’effet de serre résulterait donc essentiellement de l’émission par les molécules de CO2 d’un rayonnement  de fluorescence  dans le domaine infrarouge[1]. Cette définition est claire et scientifiquement valable car conforme au principe de réfutabilité défini par Karl Popper. Nous l’examinerons à la lumière de théories physiques bien établies et de faits expérimentaux connus.

1. Le CO2 dans les basses couches atmosphériques

Oublions tout d’abord le climat et envisageons une boîte opaque contenant, à l’abri de tout rayonnement extérieur, une certaine quantité d’air sec à 15°C et à la pression d’une atmosphère. Dans cette boîte 78 % des molécules sont des molécules d’azote N2  et 21 % sont des molécules d’oxygène O2. Le  troisième constituant par ordre d’abondance est l’argon Ar (environ 1 % des molécules). Les molécules de CO2 n’interviennent que pour environ 0,04 %. Toutes ces molécules n’ont pratiquement pas d’interaction entre elles, si ce n’est qu’étant en constante agitation elles entrent en collisions les unes avec les autres lors de chocs dont la plupart sont élastiques (avec conservation de l’énergie cinétique).

1a) Energie de translation

La théorie cinétique des gaz permet de calculer qu’à la température de 15°C les molécules de l’air sont  animées de vitesses de translation de l’ordre de 500 m par seconde et qu’à la pression d’une atmosphère, chacune subit plusieurs milliards de collisions par seconde. Ces molécules présentent une large distribution de vitesses qui est fonction de la température  en accord avec la loi de Maxwell-Boltzmann (fig.1). L’énergie cinétique moyenne  des molécules biatomiques N2 et O2 peut être calculée et vaut Em = 5/2 k T (où k est la constante de Boltzmann et T la  température en Kelvin).

Fig. 1  Loi de distribution des vitesses de Maxwell-Boltzmann

1b) Energie de vibration

Les molécules de l’air ne sont pas seulement animées de mouvements de translation. Si elles disposent de l’énergie suffisante elles peuvent aussi entrer en vibration avec variation rapide et périodique des longueurs ou des angles de leurs liaisons interatomiques. Les molécules biatomiques N2 et O2 sont très rigides et ne vibrent pratiquement pas à 15°C. Par contre, les molécules triatomiques de CO2, linéaires à l’état fondamental O=C=O,  peuvent se  déformer facilement et devenir anguleuses en vibrant. A chaque fréquence de vibration est associée une énergie et la théorie quantique nous enseigne que toutes les fréquences de vibration ne sont pas permises. Seuls certains niveaux énergétiques existent dont l’énergie peut être déterminée expérimentalement par spectroscopie d’absorption dans le domaine infrarouge ou Raman. Ainsi l’énergie associée à la vibration de déformation du CO2 peut être calculée à partir de la bande d’absorption détectée à 15 µm dans le spectre infrarouge de la molécule grâce  à la relation Ev = hc /λ (où h est la constante de Planck, c la vitesse de la lumière et λ la longueur d’onde du rayonnement absorbé, dans ce cas 15 µm). Cette valeur n’est que de 30 % supérieure à Em l’énergie cinétique moyenne des molécules environnantes N2 et O2 mentionnée dans le paragraphe précédent. Or, beaucoup de ces molécules ont une vitesse supérieure à la moyenne comme l’indique la fig. 1 (la vitesse moyenne est très proche du maximum de la courbe de distribution des vitesses) et donc aussi une énergie cinétique Ec supérieure à la moyenne.

1c) Conversion d’énergie de translation en énergie de vibration et inversement

En l’absence d’une source extérieure de rayonnement l’énergie nécessaire pour exciter la vibration de CO2  ne peut provenir que de l’agitation thermique du milieu ambiant. La quantification de l’énergie n’intervient pas au niveau des mouvements de translation et les énergies cinétiques de translation Ec = mv2/2 présentent une large distribution continue semblable à celle illustrée sur la fig. 1. La fonction mathématique correspondant à ces courbes permet de calculer qu’à 15°C plus de 40 % des molécules N2 et O2 ont une énergie cinétique Ec supérieure à l’énergie Ev du plus bas niveau de vibration des molécules de CO2. Elles peuvent donc l’amener à ce niveau lors d’une collision inélastique (sans conservation de l’énergie cinétique). Dans ces conditions  il y a conversion d’une fraction  de l’énergie cinétique de translation des molécules N2 ou O2 en énergie de vibration d’une fraction des molécules de CO2 :

∆Ec (translation) de N2   +   CO2  →  ∆Ev (vibration) de CO2   +   N2      (1)

Ce ne sont évidemment pas toujours les mêmes molécules de CO2 qui sont en état de vibration car cette conversion est réversible et les molécules se désactivent endéans quelques millisecondes pour retourner à l’état fondamental  lors de nouveaux chocs avec les molécules environnantes qui, de ce fait, acquièrent temporairement un surcroît d’énergie cinétique de translation :

∆Ev (vibration) de CO2  +   N2  →   ∆Ec (translation) de N2   +   CO2      (2)

Il existe donc un équilibre dynamique associé aux réactions (1) et (2) qui sont l’inverse l’une de l’autre. Cet équilibre ne dépend que de la température et de la pression (par le biais de la distribution des énergies et du nombre de chocs entre molécules). Quoique ce ne soient pas toujours les mêmes molécules de CO2 qui vibrent, la proportion de molécules en état de vibration reste constante à une température et une pression déterminées (environ 40 % à 15°C à la pression d’une atmosphère). Cet équilibre ne sera pas modifié si, en plus, certaines molécules de CO2 sont excitées par absorption d’une fraction du rayonnement  infrarouge émis par la Terre. On peut donc en conclure que la désactivation des molécules de CO2 ne se fera pas avec émission d’un rayonnement. La raison en est qu’à des pressions voisines d’une atmosphère la fluorescence ne pourrait  entrer en compétition avec la désactivation par collisions que pour des états excités de très courte durée de vie (10-9 à 10-7 s) qui pourraient se désactiver par fluorescence  avant qu’un nombre suffisant de collisions avec les molécules environnantes n’intervienne. Or, la durée de vie du plus bas état excité de CO2 étant 0,64 s[2] des millions de collisions interviendront  avant que l’émission d’un rayonnement ne puisse avoir lieu. L’hypothèse de l’effet de serre est donc sans fondement théorique.

Note complémentaire basée sur des résultats expérimentaux

La conversion d’énergie de vibration en énergie de translation (V  → Tet  d’ énergie de translation en énergie de vibration (T  → V)  comme dans les réactions (1) et (2) est un phénomène bien connu dont l’étude s’est développée grâce aux progrès de la technologie laser permettant d’obtenir sélectivement différents états de vibration[3]. En particulier, la conversion d’énergie de vibration en énergie de translation (V  → Ta été étudiée dans le cas de molécules de CO2 excitées par laser au plus bas état de vibration. Les constantes de vitesse de la  réaction :

CO2*   +   N2  (ou O2)  →  CO2   +   N2  (ou O2)

ont  été mesurées entre 300 et 140 K[4]. Elles  sont de l’ordre de 105 fois inférieures à celles prévues sur la base du nombre de collisions (plusieurs milliards par seconde) car elles résultent seulement des collisions inélastiques qui ne représentent que 0,001 % du nombre total de collisions.  D’autre part, la conversion d’énergie de translation en énergie de vibration (T → Va aussi été étudiée dans le cas du CO2.  A des altitudes de l’ordre de 100 km l’énergie cinétique de translation d’atomes d’oxygène peut être transférée à des molécules de CO2 et convertie en énergie de vibration[5] :

O   +   CO2    →    O   +   CO2*

Le phénomène a été mis en évidence en détectant la fluorescence (désactivation radiative) des  molécules de CO2 avec émission d’un rayonnement de longueur d’onde λ = 15 µm :

CO2*  →    CO2   +    hc / λ 

A ces altitudes la pression atmosphérique est si faible que le nombre total de collisions entre molécules n’est plus que de l’ordre de 1000 par seconde. Une fraction des molécules de CO2 excitées peut alors se désactiver avec émission d’un rayonnement avant qu’une collision inélastique ne se produise avec les molécules environnantes. Ce n’est pas le cas dans les basses couches atmosphériques où l’émission d’un rayonnement de fluorescence du CO2 n’a jamais été observée. L’hypothèse de l’effet de serre invoquée par les partisans d’un réchauffement climatique d’origine anthropique n’a donc aucune justification ni théorique, ni expérimentale.

2. Le bilan énergétique de la Terre

Pour estimer la fraction du rayonnement thermique de la Terre qui pourrait être absorbée par le CO2 il faut envisager le bilan énergétique de la Terre qui est basé sur l’idée que pour maintenir une température constante la Terre doit dissiper par différents mécanismes l’énergie reçue du Soleil. Le modèle le plus souvent cité est celui proposé par la NASA (fig. 2).

Fig. 2  Bilan énergétique de la Terre selon la NASA

D’après ce bilan 30 % de l’énergie reçue par la Terre au sommet de l’atmosphère seraient réfléchis par les nuages, l’atmosphère et la surface terrestre en accord avec un albédo de 0,3. L’atmosphère et les nuages absorberaient en plus 19 % du rayonnement  solaire transmis et  finalement  51 %  seulement seraient absorbés par les continents et les océans. Cette énergie serait dissipée ensuite par trois mécanismes distincts : évaporation de l’eau des océans (23 %), convection de l’air (7 %) et rayonnement thermique (21 %). Remarquons tout d’abord que le bilan présenté sur la fig.2 ne fait apparaître aucune « back radiation » associée à un éventuel effet de serre.  Une petite fraction seulement du rayonnement  détecté par satellite provient directement de la surface terrestre (fine flèche rouge à droite sur la fig. 2) car émise dans la zone de transparence atmosphérique entre 8 à 13 µm (fig.3). En intégrant l’équation de Planck pour un corps noir à 15°C dans le domaine de 8 à 13 µm on calcule que 30 % du rayonnement thermique de la Terre est émis dans cette zone de transparence atmosphérique soit env. 6 % de l’énergie totale reçue du Soleil au sommet de l’atmosphère terrestre. Le reste du rayonnement thermique émis par la Terre est absorbé par divers constituants atmosphériques (fig. 3) principalement la vapeur d’eau mais aussi le CO. Quel que soit le mécanisme de dissipation de l’énergie au niveau de la surface terrestre, en altitude toute cette énergie doit être convertie en rayonnement car c’est le seul mécanisme permettant de l’évacuer hors du système terrestre (large flèche rouge sur la fig.2)

Fig. 3 Transmission du rayonnement  infrarouge à travers l’atmosphère terrestre
(les zones de transparence apparaissent en bleu, notamment entre 8 à 13 µm)

Les proportions mentionnées dans le bilan énergétique de la NASA ne résultent le plus souvent que d’estimations. Elles sont d’ailleurs assez surprenantes car la convection est généralement le mécanisme prépondérant pour des objets à température et pression ambiantes tandis que le rayonnement thermique ne devient important qu’à haute température. Dans cette optique Sorokhtin et collaborateurs [5] considèrent que la convection serait effectivement le mécanisme prépondérant  intervenant pour 34 % tandis que le rayonnement thermique interviendrait seulement pour 4 % et l’évaporation de l’eau des océans pour 13 %. Il subsiste donc une très grande incertitude concernant l’importance relative de ces trois mécanismes.

Au niveau de l’orbite terrestre chaque mètre carré placé perpendiculairement au rayonnement solaire reçoit, en moyenne sur l’année, une puissance de 1368 W, c’est la « constante solaire ».  La valeur  moyenne de 342 W m-2 au sommet de l’atmosphère est basée sur l’idée que chaque mètre carré de la surface terrestre reçoit en continu le quart de 1368 W car la Terre n’intercepte le rayonnement  solaire que sur une surface égale à celle d’un disque de même rayon. Cette valeur n’est pas mesurée mais calculée en admettant une distribution uniforme de l’énergie sur toute la surface terrestre sans tenir compte ni d’un hémisphère non éclairé, ni d’une variation en fonction de la latitude. De ce fait, elle est certainement surestimée. De plus, si la distribution de l’énergie était  uniforme il n’y aurait ni saisons, ni courants marins ou aériens qui sont cependant des éléments déterminants du climat. Néanmoins,  cette valeur approximative est généralement adoptée car une valeur correcte tenant compte de la vitesse de rotation de la Terre et de l’inclinaison de son axe de rotation donnerait lieu à des difficultés de calcul insurmontables. Ensuite, en attribuant à la Terre un albédo de 0,3 impliquant non seulement l’énergie réfléchie par la surface terrestre et par l’atmosphère mais aussi et principalement par les nuages, le rayonnement effectivement reçu par la surface terrestre serait réduit à 70 % de 342 W m-2 soit environ 240 W m-2 En haute altitude les satellites détectent effectivement un rayonnement  moyen de 240 W m-2 avec une différence de l’ordre de 50 W m-2 entre pôles et équateur. Ce rayonnement moyen provient essentiellement  des couches supérieures de l’atmosphère à des températures beaucoup plus basses que celle de la surface terrestre et on ne peut en déduire, sur base de la formule de Stefan-Boltzmann, que la surface terrestre devrait avoir la température de – 18° C (voir ici).

Si on considère la Terre comme un corps noir à 15°C l’équation de  Planck (voir ici) permet de calculer que 95 % du spectre d’émission sera compris entre 5 et 40 µm et la loi de Wien prévoit que le rayonnement émis devrait présenter un maximum d’intensité à 10 µm. Le CO2 présente une bande d’absorption dans le domaine du rayonnement thermique de la Terre. Elle est présentée sur la fig. 4 pour une teneur en CO2 de 357 ppm (0,0357 %) en présence de 2,6 % en vapeur d’eau, conditions correspondant à la composition atmosphérique en 1993.

Fig. 4  Spectre d’absorption infrarouge du CO2

La bande d’absorption centrée à 15 µm permet l’excitation de la molécule à son plus bas niveau de vibration impliquant une déformation angulaire. Les branches P et R sont dues à l’existence de sous-niveaux de rotation pour chaque niveau de vibration (fondamental et excité). En intégrant l’équation de Planck de 14 à 16 µm, domaine d’absorption du CO2, on calcule que 9,3 % du rayonnement thermique de la Terre sont émis dans cet intervalle de longueurs d’onde. En fin de compte le CO2, quel que soit son coefficient d’absorption, ne pourrait absorber au maximum que 9,3 % du rayonnement thermique de la Terre (représentant, selon la NASA, 21 % de l’énergie totale reçue du Soleil au sommet de l’atmosphère) soit un peu moins de 2 % de 342 W m-2 donc environ 7 W m-2 . Pour Sorokhtin et collaborateurs [5], le rayonnement thermique de la Terre représentant seulement 4 % de l’énergie totale reçue du Soleil, le CO2 n’absorberait donc au maximum qu’un peu moins de 0,4 % de 342 W m-2 soit environ 1,3 W m-2.

Les molécules de CO2 excitées à l’état de vibration par absorption d’une fraction du rayonnement thermique de la Terre se désactivent endéans quelques microsecondes par collisions avec les molécules environnantes, principalement N2 et O2. Dans  ces conditions, il y a conversion  de l’énergie de vibration du CO2 en énergie cinétique de translation des molécules N2 ou O2 selon la réaction (2) mentionnée au paragraphe 1c. Bien que l’absorption du rayonnement thermique de la Terre entre 14 et 16 µm soit sélective par les molécules de  CO2 cet excédent d’énergie se répartira sur l’ensemble des molécules environnantes suite aux multiples collisions. Au total, selon les auteurs 0,4 % ou 2 %  de l’énergie reçue du Soleil au sommet de l’atmosphère terrestre seront convertis en mouvements de convection au détriment de l’intensité du rayonnement thermique dont une fraction est absorbée par le CO2. La présence de CO2 dans l’atmosphère ne modifie donc pas le bilan énergétique global de la Terre mais seulement l’importance relative des différents mécanismes de dissipation de l’énergie reçue du Soleil. Cela ne peut avoir aucune influence sur la température « globale moyenne » de la surface terrestre.

3. Influence du CO2

En l’absence d’effet de serre la conversion de l’énergie de vibration du CO2 en énergie cinétique de translation des molécules de N2 et O2 pourrait-elle avoir un effet sur la température des basses couches atmosphériques ? Pour estimer l’importance d’un tel effet il faudrait connaître le volume d’air dans lequel cette énergie sera dissipée. En utilisant la relation de Beer-Lambert avec Io = intensité incidente et I = intensité transmise :

log Io/I  =  A C L

et en y introduisant  des valeur  A = 20,2 m2/mol pour le coefficient d’absorption molaire du CO2[7] et C = 1,78 10-2 mol m-3 (pour 0,04 % de CO2 en volume) on trouve que log Io/I vaut 3 (99,9 % d’absorption) pour une épaisseur atmosphérique L = 8 m. Connaissant le nombre de molécules dans une colonne d’air de 8 m de hauteur et de 8 m3 de volume dans lequel seront dissipés 1,3 ou 7 W (selon les auteurs) on trouve que l’énergie cinétique moyenne Em des molécules N2 et  O2, calculée au paragraphe 1a, n’augmenterait en une seconde que d’environ 0,0001 % . Cette valeur ne sert qu’à fixer un ordre de grandeur car il n’y a évidemment pas d’accumulation d’énergie cinétique au cours du temps puisqu’un important courant de convection existe déjà. Le gradient de température existant déjà dans les basses couches atmosphériques ne sera donc pas affecté par la présence  de CO2.

Le coefficient d’absorption molaire utilisé correspond seulement à la branche Q, la plus importante du spectre d’absorption (fig.4). Pour les branches P et R qui présentent des coefficients d’absorption environ 10 fois moindres  l’absorption de 99,9 % du rayonnement thermique de la Terre nécessiterait  une épaisseur atmosphérique environ 10 fois plus importante et le transfert d’énergie se fera sur un nombre de molécules environ 10 fois plus grand avec un effet réduit proportionnellement. Notons encore que ces conclusions s’appliquent à la totalité du CO2 présent dans l’atmosphère (0,04 %) qu’il soit d’origine naturelle ou humaine. Or, de nombreux travaux récents montrent que la teneur en CO2 d’origine anthropique ne serait que d’environ 5 % (voir ici)

4. Conclusion

De cet exposé on peut conclure que :

1° L’effet de serre, qui résulterait de la désactivation radiative (fluorescence) de molécules ayant absorbé une fraction du rayonnement thermique de la Terre, ne  peut exister au niveau des basses couches atmosphériques.

2° Au niveau des basses couches atmosphériques, les molécules ayant absorbé une fraction du rayonnement thermique de la Terre se désactivent par collisions avec les molécules environnantes principalement N2 et O2.

3° La conversion d’énergie de vibration des molécules de CO2 en énergie de translation des molécules environnantes ne modifie pas le bilan énergétique global de la Terre.

4° Le CO2 ne peut contribuer en aucune manière à un réchauffement ni de la surface terrestre ni des basses couches atmosphériques.

5° La théorie du réchauffement climatique d’origine anthropique basée sur l’existence d’un effet de serre n’a aucune justification ni théorique ni expérimentale.

Références

[1] Le terme de fluorescence est rarement utilisé pour caractériser l’effet de serre et quelques mots d’explication peuvent être utiles. L’énergie interne d’une molécule ne varie pas de manière continue.  On distingue des niveaux d’énergie électronique qui sont subdivisés en niveaux d’énergie de vibration, eux-mêmes subdivisés en niveaux d’énergie de rotation. Une molécule peut être excitée, le plus souvent par absorption d’un rayonnement électromagnétique de longueur d’onde appropriée, et passer d’un niveau énergétique déterminé à un niveau d’énergie supérieure. Le phénomène inverse peut également se produire soit par émission d’un rayonnement électromagnétique appelée fluorescence, soit par transfert d’énergie aux molécules environnantes lors de collisions. En solution, la fluorescence de nombreuses molécules organiques est observée lors de transition entre niveaux d’énergie électronique mais aucun exemple n’est connu dans le cas de transitions entre niveaux d’énergie de vibration. La raison en est la compétition entre les deux mécanismes de désactivation mentionnés ci-dessus. En solution (ou en phase gazeuse à des pressions supérieures à 10 Pa) la désactivation radiative par  fluorescence ne sera possible que pour des états excités de très courte durée de vie (10-9 à 10-7 s) qui peuvent se désactiver avec émission d’un rayonnement avant qu’un nombre suffisant de collisions avec les molécules environnantes n’intervienne. La  fluorescence d’états excités de plus longue durée de vie ne peut être observée qu’en milieu rigide ou en phase gazeuse à des pressions si faibles que le nombre de collisions entre molécules devient insignifiant.

[2] B.M.Smirnov,  J. Phys. D: Appl. Phys. 51, 214004 (2018)

[3] G.W. Flynn, C.S. Parmenter, A.M. Wodtke,  J.Phys.Chem. 100, 12817 (1996)

[4] R.M. Siddles, G.J. Wilson, C.J.S.M Simpson,  Chem.Phys. 189, 779 (1994)

[5] K.J. Castle, K.M. Kleissas, J.M. Rhinehart, E.S. Hwang, J.A.Dodd,  J.Geophys. Research 111, A09303 (2006)

[6] O.G. Sorokhtin, G.V. Chilingar et L.F. Khilyuk « Global Warming and Global Cooling » ed. Elsevier Science (2007)

[7] https://www.john-daly.com/artifact.htm

L’effet de serre et le bilan énergétique de la Terre

Dans presque toutes les sciences, les notions élémentaires sont les plus difficiles et elles sont parfois mal comprises. Par la suite, elles sont souvent  négligées car elles ne s’opposent pas à la publication d’articles dans des domaines spécialisés où les auteurs, à la recherche de notoriété ou de subsides, sont jugés par leurs pairs. La climatologie, science récente et pluridisciplinaire par essence, n’échappe pas à cette règle. C’est ainsi que beaucoup de climatologues, réputés tels ou simples amateurs, développent des théories dont les hypothèses sont contraires aux principes fondamentaux de la chimie et de la physique. Néanmoins,  sur la base de ces théories mal étayées, des modèles informatiques sont élaborés qui conduisent, avec une précision rassurante, à des prévisions alarmantes. Dans cette note nous rappellerons d’abord quelques notions élémentaires concernant l’émission et l’absorption de rayonnements par la Terre et par les gaz atmosphériques avant de revoir d’un point de vue critique les notions généralement admises à propos de l’effet de serre et du bilan énergétique de la Terre.

1. Deux types de rayonnement à ne pas confondre

1.1. Émission de rayonnement thermique

Tout corps solide à une température supérieure au zéro absolu  émet un rayonnement qui apparaît dans le domaine visible pour des températures supérieures à 3000 K mais se limite principalement au domaine infrarouge pour des températures inférieures (fig. 1). Ce rayonnement qualifié de « thermique » se présente toujours sous forme d’un spectre continu avec une forte variation d’intensité du côté des courtes longueurs d’onde (hautes énergies), passage par un maximum à la longueur d’onde λmax qui se déplace en fonction de la température (comme indiqué sur la fig. 1) et perte progressive d’intensité du côté des grandes longueurs d’onde (faibles énergies). Il est dû à l’oscillation de dipôles électriques formés par le noyau et le nuage électronique des atomes qui, en accord avec les lois de  l’électromagnétisme, émettent un rayonnement de fréquence égale à la fréquence d’oscillation.

Fig. 1 Rayonnement thermique d’un corps solide à différentes températures

Dans la seconde moitié du 19ème siècle plusieurs physiciens ont tenté d’élaborer une théorie du « corps noir », objet idéal qui,  à l’équilibre thermique, absorbe et émet toutes les longueurs d’onde d’où la qualification de « noir ». Ce n’est qu’en 1900 que Planck proposa une équation introduisant l’idée, révolutionnaire pour l’époque, qu’à chaque longueur d’onde le rayonnement ne peut être émis que sous forme de « quanta » (c’est-à-dire de petits  paquets) dont l’énergie est hν = hc/λ (où ν et λ sont respectivement la fréquence et la longueur d’onde du rayonnement émis, c la vitesse de la lumière et h une nouvelle constante de la nature appelée désormais constante de Planck). Cette formule, ainsi que quelques limitations à son usage, est rappelée dans une note publiée sur ce site (http://www.science-climat-energie.be/2018/04/26/du-bon-usage-de-la-formule-de-stefan-boltzmann/). L’intégration de l’équation de Planck sur tout le domaine de longueurs d’onde conduit à la formule de Stefan-Boltzmann qui lie l’émittance hémisphérique  (à 180°dans toutes les directions à partir d’une surface) E(T)  (en W m-2) à la température T (en K)  à la puissance  4 :

E (T) = σ T4 (σ = constante de Stefan = 5,67 x 10-8 W m-2 K-4)                (1)

La relation (1) fournit une mesure de l’aire sous les courbes de la fig. 1. Il faut remarquer que l’émittance hémisphérique  intervenant dans la relation (1) est fondamentalement différente du flux «  unidirectionnel »  (ascendant ou descendant) F(T) de la relation (2) qui est l’outil de travail par excellence des climatologues :

F (T) = σ T4                (2)

Cette dernière relation, bien que couramment utilisée, doit donc être considérée comme une approximation. La fig. 1 montre aussi que le maximum de la courbe d’émission  se déplace avec la température selon la loi de Wien :

λmax = C / T (C = 2,9 10-3 m K)                   (3)

L’intégration de l’équation de  Planck permet de calculer que 95 % de l’émission thermique d’un corps noir se situe dans le domaine de longueurs d’onde s’étendant de 0,5λmax à 4λmax

Les caractéristiques essentielles d’un rayonnement thermique sont que :

  • – le spectre d’émission est continu, son intensité dépend fortement de la température mais est indépendant de la nature de l’émetteur.
  • – le rayonnement thermique d’un corps chaud peut être absorbé par un corps froid mais PAS l’inverse.

1.2. Émission de rayonnement de fluorescence

En accord avec les principes de la mécanique quantique l’énergie interne d’atomes et molécules ne peut varier d’une manière continue. Les niveaux énergétiques sont discrets : on dit qu’ils sont « quantifiés ». Un atome ou une molécule peut être excitée d’un niveau d’énergie bas à un niveau plus élevé par différents mécanismes dont l’absorption d’un rayonnement de longueur  correspondant précisément à la différence d’énergie entre les niveaux concernés. Un atome ou une molécule excitée, toujours de durée de vie limitée, peut se désactiver par différents mécanismes dont l’émission d’un rayonnement de fluorescence. Il va sans dire que la loi du rayonnement de Kirchhoff ne s’applique PAS au rayonnement de fluorescence. Cette loi, spécifique des corps noirs, précise qu’à l’équilibre thermique leur absorptivité doit être égale à  leur émissivité.

Les caractéristiques essentielles d’un rayonnement de fluorescence sont que :

  • – le spectre d’émission est discontinu, constitué de raies ou de bandes. Son intensité ne dépend PAS de la température et la relation de Stefan-Boltzmann (1) n’est PAS d’application. Le spectre de fluorescence dépend fortement de la nature de l’atome ou de la molécule et peut même servir à l’identifier.
  • – le rayonnement de fluorescence d’un corps froid peut être absorbé par un corps chaud sans violer le second principe de la thermodynamique car un rayonnement n’est PAS de la chaleur.

1.3. Absorption de rayonnement thermique

Le rayonnement thermique d’un corps noir, par exemple le Soleil, peut être absorbé par un autre corps noir plus froid comme la Terre mais l’inverse n’est PAS possible. Par contre, certaines longueurs d’onde du rayonnement thermique d’un corps noir peuvent être absorbées sélectivement par des molécules individuelles à n’importe quelle température si une transition vers un niveau d’énergie plus élevée est possible. C’est le cas, par exemple, pour le rayonnement thermique du Soleil. La fig. 2 montre qu’au sommet de l’atmosphère le rayonnement thermique du Soleil correspond assez bien à celui calculé par l’équation de Planck pour un corps noir à 5250 °C avec un maximum à 500 nm. Comme mentionné ci-dessus, 95 % de l’émission se situe dans le domaine de longueurs d’onde s’étendant de 250 nm à 2000 nm (2 µm). Au niveau de la mer l‘intensité du rayonnement est réduite de 20 % car unefraction est absorbée par les gaz atmosphériques (essentiellement par la vapeur d’eau)dans les longueurs d’onde de 800 à 3000 nm (de 0,8 à 3 µm, modes de vibration de H2O apparaissant sur la fig. 6).

Fig. 2 Rayonnement thermique du Soleil

Le même type de phénomène intervient si on considère la Terre comme un corps noir à 288 K (15° C). La loi de Wien prévoit que le rayonnement émis devrait présenter un maximum d’intensité à 10 µm et l’équation de  Planck permet de calculer que 95 % du spectre d’émission sera compris entre 5 et 40 µm. Une fraction de ce rayonnement thermique peut être absorbée  principalement par la vapeur d’eau et, dans une moindre mesure, par le CO2 (voir paragraphes 2.2 et 2.3 ci-dessous).

2. Absorption et émission de rayonnement par les gaz atmosphériques

2.1. Niveaux d’énergie

Dans l’atmosphère terrestre 78 % des molécules sont des molécules d’azote N2  et 21 % sont des molécules d’oxygène O2. Le  troisième constituant par ordre d’abondance est l’argon Ar (environ 1 % des molécules). Les molécules de CO2 n’interviennent que pour environ 0,04 %.  L’énergie totale de ces  molécules est  la somme de  leur énergie de translation d’une part et de leurs énergies électronique, de vibration et de rotation d’autre part. L’énergie de translation n’est PAS quantifiée. Elle peut donc varier de manière continue dans une gamme de valeurs qui dépend de la température et qui obéit à la fonction de distribution des vitesses de Maxwell-Boltzmann (voir fig.3).

Fig.3 Distribution des vitesses de Maxwell-Boltzmann
(Probabilité de trouver une molécule de vitesse V à une température T,
Vp = vitesse la plus probable, 
V͞  = vitesse moyenne).

La théorie cinétique des gaz permet de calculer qu’à la température de 15°C les molécules de l’air sont animées de vitesses de l’ordre de 500 m par seconde et qu’à cette température et à la pression d’une atmosphère, chacune subit plusieurs milliards de collisions par seconde.

Les niveaux d’énergie électronique, de vibration et de rotation sont quantifiés.  Les transitions entre niveaux électroniques se manifestent dans le domaine spectral de l’ultra-violet et du visible et nous n’en discuterons pas ici. En plus des mouvements de translation, toutes les molécules polyatomiques, si elles disposent de l’énergie suffisante, peuvent aussi entrer en vibration avec variation rapide et périodique des longueurs ou des angles de leurs liaisons interatomiques. Cependant, certaines transitions seulement entre niveaux de vibration apparaissent dans l’infrarouge car, pour qu’un mouvement de vibration s’y manifeste (en émission ou absorption) il faut que la vibration implique une variation de moment dipolaire. C’est le cas pour certains modes de vibration de CO2 et H2O mais PAS pour N2 et O2 (ce qui ne les empêche pas de vibrer même si il n’y a pas de variation de moment dipolaire). Pour qu’un mouvement de rotation pure se manifeste (en émission ou absorption) dans l’infrarouge il faut que la molécule possède un moment dipolaire permanent. C’est le cas pour H2O mais PAS pour CO2, Nou O2 (ce qui ne les empêche pas d’avoir des mouvements de rotation même si elles n’ont pas de moment dipolaire permanent). Néanmoins, lors d’une vibration, des molécules comme CO2 et H2O peuvent se trouver dans différents  états (sous-niveaux)  de rotation. Des mouvements de rotation sont alors associés aux mouvements de vibration et les spectres sont qualifiés de spectres de vibration-rotation. Nous ne nous intéresserons  ici qu’au CO2 et à la vapeur d’eau car ce sont les principaux gaz atmosphériques susceptibles d’absorber une fraction des rayonnements thermiques du Soleil ainsi que de la Terre.

2.2. Le CO2

Les molécules de CO2 possèdent trois modes de vibrations distincts notés :

  • ν1 (étirement symétrique) à 7,5 µm,
  • ν2 (déformation angulaire)  à 15 µm
  • ν3 (étirement asymétrique) à 4,3 µm

Les deux derniers sont actifs dans l’infrarouge mais seul  ν2 se situe dans le domaine du rayonnement thermique de la Terre (de 5 à 40 µm). La fig. 4 met en évidence, en plus des niveaux de vibration correspondant à la transition ν2, la présence de sous-niveaux de rotation caractérisés par diverses valeurs du nombre quantique J. Les transitions possibles d’après la mécanique quantique correspondent à des transitions entre niveaux de rotation  telles Δ J = – 1, Δ J = 0 et Δ J = + 1.

Fig. 4 Niveaux de vibration de CO2
et transitions entre sous-niveaux de rotation
conduisant aux branches P, Q et R
du spectre infrarouge présenté sur la fig. 5.

La combinaison de toutes les transitions possibles se manifeste dans le spectre de  vibration-rotation, reproduit à faible résolution sur la fig.5, par l’apparition de branches P, Q et R par ordre d’énergie croissante.

Fig.5 Spectre d’absorption infrarouge du CO2

En admettant que la Terre se comporte comme un corps noir à la température de 288 K (15 ° C) et en intégrant l’équation de Planck dans le domaine  d’absorption du CO2 de 14 à 16 µm (voir fig. 5) on trouve que 10 % seulement de l’énergie du rayonnement thermique de la Terre est émis dans cet intervalle de longueurs d’onde.  Le CO2, quelle que soit son abondance, ne pourrait donc absorber plus que cette fraction.

2.3. La vapeur d’eau

De tous les gaz atmosphériques susceptibles d’absorber une fraction du rayonnement thermique de la Terre la vapeur d’eau est le plus efficace parce que c’est le plus abondant  (en moyenne 2 % en volume) et aussi parce que son spectre infrarouge est le plus étendu. Les molécules d’eau possèdent trois modes de vibration notés :

  • ν1 (étirement symétrique) à 2,7 µm,
  • ν2 (déformation angulaire) à 6,3 µm  
  • ν3 (étirement asymétrique) à 2,7 µm

Les deux derniers seulement sont actifs dans l’infrarouge mais seul ν2 se situe dans le domaine du rayonnement thermique de la Terre (de 5 à 40  µm). Des combinaisons de ν1ν2 et ν3 peuvent aussi être actives dans l’infrarouge comme le montre la fig. 6 (courbe verte). Elles sont hors du rayonnement thermique de la Terre mais PAS hors du rayonnement thermique du Soleil au sommet de l’atmosphère dont elles absorbent une fraction (voir fig.2). En admettant que la Terre se comporte comme un corps noir à la température de 288 K (15 ° C) l’intégration de l’équation de Planck de 5  à 8 µm, domaine de la large bande de vibration-rotation ν2 (fig.6) permet de calculer que 12 % de l’énergie du rayonnement thermique de la Terre pourraient être absorbés par la vapeur d’eau dans cet intervalle de longueurs d’onde. A cela s’ajoute l’absorption associée à la rotation pure des molécules d’eau qui,  cas particulier parmi les gaz atmosphériques, possèdent un moment dipolaire permanent. Les transitions entre niveaux de rotation pure, notées R sur la fig. 6, s’étendent de 20 µm à 300 µm et même au-delà (en dehors de l’échelle du graphique). L’intégration de l’équation de Planck dans le domaine de 20 à 300 µm permet de calculer que 48 % de l’énergie du rayonnement thermique de la Terre pourraient être absorbés par la vapeur d’eau dans cet intervalle de longueurs d’ondeAu total, la vapeur d’eau pourrait absorber 60 % du rayonnement thermique de la Terre et, s’ajoutant aux  10 % du CO2(voir 2.2 ci-dessus)  il ne resterait au rayonnement thermique de la Terre qu’une zone de transparence (fenêtre optique) de 8 à 13 µm (voir fig.10) permettant le passage de 30 % environ de ce rayonnement. Cette dernière valeur est confirmée en intégrant l’équation de Planck dans ce domaine de longueurs d’onde. Toutes ces valeurs seront utilisées pour établir le bilan énergétique de la Terre (voir paragraphe 4 ci-dessous).

Fig. 6 Spectre d’absorption infrarouge de l’eau
à l’état solide (bleu),
liquide (rouge)
et gazeux (vert).

2.4. Vibration et rotation de CO2 et H2O dans les basses couches atmosphériques

L’importance des mouvements de translation des  molécules atmosphériques dépend de la température comme indiqué plus haut (fig. 3).  Il en est de même pour leurs mouvements de vibration et de rotation. Toutes  ces molécules peuvent  subir, à des degrés divers, des mouvements de vibration et de rotation si elles disposent de l’énergie suffisante. En l’absence de rayonnement extérieur, par exemple dans une boîte opaque, cette énergie  provient du milieu ambiant  sous  l’action des nombreuses collisions  qui sont un moyen d’échange énergétique. On peut calculer grâce  à la relation Ev = hc/λ (où h est la constante de Planck, c la vitesse de la lumière et λ la longueur d’onde du rayonnement absorbé) les énergies requises pour provoquer les transitions de vibration de CO2 à 15 µm et de H20 à 6,3 µm ainsi que de rotation de H20 entre 20 et 300 µm. D’autre part, on peut calculer par la relation Et = mv2/2 quelles devraient être les vitesses des molécules N2 à 15° C pour atteindre ces énergies c’est-à-dire pour que Et = Ev. On trouve respectivement environ 700 m/s pour exciter la vibration de CO2 et 1100 m/s pour exciter la vibration de H2O.  L’intégration de la fonction de distribution des vitesses de Maxwell-Boltzmann (fig. 3) montre qu’à 15 °C 20 % des molécules Nont une vitesse supérieure à 700 m/s et 1 % une vitesse supérieure à 1100 m/s. En fonction du principe d’équipartition  des énergies on en déduit qu’à 15° C statistiquement 20 % des molécules CO2 seraient en état de vibration mais seulement 1 % des molécules H2O. Par contre, pratiquement toutes les molécules H20 seraient en état de rotation. Ce passage des molécules CO2 et H2O à leur plus bas niveau de vibration  résulte seulement des collisions inélastiques (sans conservation de l’énergie cinétique) qui ne représentent que 0,001 % des collisions  mais encore plusieurs dizaines de milliers par seconde. Dans ces conditions  il y a conversion d’une fraction  de l’énergie cinétique de translation des molécules N2 (ou O2) en énergie de vibration des molécules CO2 ou H2O

∆Ec (translation) de N2  + CO2  (ou H20)  ↔  ∆Ev (vibration de CO2 ou H20)  + N2   (4)

Cette conversion est réversible et les molécules se désactivent endéans quelques millisecondes pour retourner à l’état fondamental  lors de nouveaux chocs avec les molécules environnantes. Il existe donc un équilibre dynamique résultant des très nombreuses collisions. Il ne dépend que de la température et de la pression (par le biais de la distribution des énergies et du nombre de chocs entre molécules). Quoique ce ne soient pas toujours les mêmes molécules qui sont en état de vibration la proportion de molécules CO2 ou H2O dans ces états reste constante à une température et une pression déterminées. Cet équilibre ne sera PAS modifié si, en plus, certaines molécules sont excitées par absorption d’une fraction du rayonnement  infrarouge émis par la Terre. Dans ces conditions, les molécules excitées supplémentaires de CO2 et H2O joueront, en se désactivant par collisions, le rôle de convertisseur de ce rayonnement absorbé en énergie de translation des molécules environnantes principalement N2 et O2.

3. Effet de serre radiatif

La théorie du réchauffement climatique d’origine anthropique est basée sur une seule et fragile hypothèse : l’existence d’un effet de serre qui n’a jamais été mis en évidence expérimentalement. Il existe un grand nombre de définitions parfois fantaisistes de l’effet de serre. Dans un article paru en 2009(1) G.Gerlich et R.D.Tscheuschner en relèvent 14 différentes provenant de sources aussi variées que l’Organisation Météorologique Mondiale ou l’Encyclopedia Britannica. La plupart de ces définitions résultent d’une mauvaise compréhension du phénomène qui intervient réellement dans une serre agricole mais souvent  aussi d’une méconnaissance des lois fondamentales de la physique.

Plus récemment M. Hertzberg, A. Siddons et H. Schreuder(2) ont examiné six définitions parmi les plus souvent citées et démontré qu’aucune ne résiste à un examen scientifique critique. Sans revenir sur ces énumérations mentionnons seulement  l’affirmation de certains climatologues selon laquelle une preuve, si pas une définition, de l’effet de serre serait qu’en l’absence de gaz dits « à effet de serre » la température « moyenne globale » de la Terre ne serait pas + 15° C mais – 18° C. Cette dernière température (parfois qualifiée de température « effective ») est calculée en appliquant la formule de Stefan-Boltzmann (voir 1.1 ci-dessus) au flux énergétique moyen de 240 W m-2 mesuré par satellites à 800 km d’altitude. Ce type de calcul n’aurait de  sens  que  pour une Terre sans atmosphère car la formule de Stefan-Boltzmann ne peut s’appliquer qu’en l’absence d’autres mécanismes de dissipation de l’énergie que le rayonnement thermique (voir http://www.science-climat-energie.be/2018/04/26/du-bon-usage-de-la-formule-de-stefan-boltzmann/ [ou ici]). Ce calcul serait quand même erroné car, en l’absence d’atmosphère, une partie de l’énergie reçue du Soleil ne serait pas réfléchie par les nuages. Les satellites devraient alors mesurer  un flux supérieur à  240 W m-2. La différence, souvent mentionnée, de 33° C entre  +15 °C et – 18° C n’a donc aucun sens physique et ne peut PAS être considérée comme la manifestation d’un effet de serre. La température de –18° C, mesurée à une altitude de 5100 m environ, n’a aucun intérêt particulier et résulte simplement de l’existence d’un gradient thermique dans l’atmosphère. Ajoutons encore que l’introduction dans des modèles informatiques de rétroactions positives ou négatives a permis de qualifier le réchauffement  climatique de changement climatique car l’introduction de paramètres supplémentaires dans les modèles informatiques permet  de justifier n’importe quelle variation du climat (voir http://www.science-climat-energie.be/2018/04/10/forcage-radiatif-sensibilite-climatique-et-retroactions-positives/ [ou ici]). Finalement les médias ont contribué à la propagation de l’expression plus alarmante encore de dérèglement climatique laissant entendre que le climat aurait toujours été prévisible avant qu’il ne soit perturbé par l’action de l’homme.

La seule définition de l’effet de serre décrivant clairement le phénomène envisagé par le GIEC (IPCC 2012, Glossary of terms) et répondant, de plus,  au critère de réfutabilité énoncé par  l’épistémologue Karl Popper est la suivante :

 « L’effet de serre est un phénomène radiatif causé par des gaz tels la vapeur d’eau ou le CO2 qui absorbent une fraction du rayonnement infrarouge émis par la Terre et le réémettent  ensuite dans toutes  les directions et notamment vers la surface terrestre dont la température serait, de ce fait, plus élevée qu’en l’absence de gaz absorbant l’infrarouge. Ces gaz sont dès lors qualifiés de  gaz « à effet de serre ».

Sans reprendre en détails les arguments déjà présentés pour réfuter l’hypothèse de l’effet de serre radiatif (voir paragraphe 2.4 ci-dessus et http://www.science-climat-energie.be/2019/02/14/le-rechauffement-climatique-dorigine-anthropique/ [ou ici]) nous rappellerons simplement  que dans les basses couches atmosphériques le CO2 ayant absorbé une fraction du rayonnement thermique de la Terre se désactive par collisions (plusieurs milliards par seconde) avec les molécules environnantes et PAS par émission d’un rayonnement de fluorescence. On peut en conclure que l’effet de serre radiatif n’existe PAS et que les rétroactions imaginées pour amplifier son effet n’ont aucune justification. La désactivation radiative du CO2  ne peut être observée qu’à des altitudes de l’ordre de 80 – 100 km lorsque la pression atmosphérique est suffisamment faible pour que le nombre de collisions soit réduit à environ 1000/s. Le rayonnement émis dans toutes les directions à cette distance de la surface terrestre ne peut évidemment avoir d’influence sur la température de la Terre ou des basses couches atmosphériques.

4. Le bilan énergétique de la Terre

Le bilan énergétique envisagé est celui du système Terre-atmosphère et pas celui du globe terrestre isolé. Il est basé sur l’idée que pour maintenir une température constante la Terre (donc le système Terre-atmosphère) doit dissiper par différents mécanismes  l’énergie reçue du Soleil : évaporation de l’eau des océans, convection de l’air et rayonnement thermique. De nombreux auteurs ont traité ce sujet mais certains font intervenir un phénomène de «back radiation» associé à un hypothétique effet de serre qui n’existe PAS et leurs conclusions sont dès lors contestables. Nous essayerons ci-dessous d’établir un bilan critique en distinguant ce qui peut être mesuré ou calculé et ce qui résulte seulement d’estimations ou d’hypothèses.

4.1. Énergie absorbée par la Terre

Au niveau de l’orbite terrestre chaque mètre carré placé perpendiculairement au rayonnement solaire reçoit, en moyenne sur l’année, une puissance de 1368 W.  La valeur de 342 W m-2 au sommet de l’atmosphère est basée sur l’idée que chaque mètre carré de la surface terrestre reçoit en continu le quart de 1368 W car la Terre n’intercepte le rayonnement solaire que sur une surface égale à celle d’un disque de même rayon. Cette valeur n’est PAS mesurée mais estimée en admettant une distribution uniforme de l’énergie sur toute la surface terrestre sans tenir compte d’une variation en fonction de la latitude. En réalité la distribution de l’énergie est loin d’être uniforme comme le montrent les valeurs mesurées par les satellites  CERES (Cloud and Earth Radiant Energy System) à des altitudes de l’ordre de 800 km. Elles  varient entre 20 et 440 W m-2 en fonction de la latitude (fig.7 en haut). La valeur de 342 W m-2 mesurée aux environs des latitudes 37°N et 37°S  est généralement acceptée comme valeur moyenne  pour des raisons explicitées au paragraphe suivant.

Fig.7 En haut : énergie solaire incidente au sommet de l’atmosphère
(mesurée par satellites CERES).
En bas : énergie émise par la Terre sous forme de rayonnement infrarouge
(mesurée par satellites ERBE).

La bonne compréhension de la discussion qui suit implique d’examiner simultanément la fig. 8 qui en résume les conclusions.

Fig. 8 Bilan énergétique de la Terre
(énergie solaire au sommet de l’atmosphère  100 = 342 W m-2).

En attribuant à la Terre un albédo moyen de 0,3 impliquant 30 % d’énergie réfléchie ou diffusée par la surface terrestre, l’atmosphère et les nuages (valeur mentionnée sur la fig.et flèche jaune ascendante) le rayonnement effectivement absorbé par le système Terre-atmosphère serait alors réduit à 70 % de 342 W m-2, soit 240 W m-2L’atmosphère (principalement la vapeur d’eau) absorberait 20 % de 342 W m-2 (voir fig. 2 ci-dessus et grande flèche orange sur la fig. 8). Finalement n’arriveraient à la surface terrestre que 50 % de 342 W m-2 (large flèche jaune descendante sur la fig. 8)

4.2. Énergie dissipée par la surface terrestre

Au niveau de la surface terrestre trois mécanismes permettent la dissipation de l’énergie reçue du Soleil : évaporation de l’eau des océans, convection de l’air et rayonnement thermique. Je remercie un lecteur d’une de mes précédentes notes d’avoir attiré mon attention sur le fait que la Terre reçoit chaque année sous forme de précipitations 5,05 105 km3 d’eau qui se répartissent sur la surface totale de 5,1 108 km2. Tenant compte de la chaleur de vaporisation de l’eau (2454 kJ/kg) et du nombre de secondes dans une année on peut calculer que 78 W m-2 seraient requis en continu pour évaporer cette quantité d’eau, ce qui représente environ 23 % de l’énergie reçue par la Terre au sommet de l’atmosphère (valeur notée sur la fig. 8).

La convection ascendante est généralement estimée à 7 % de l’énergie reçue au sommet de l’atmosphère (valeur notée sur la fig. 8). Le couplage de la convection et de l’évaporation de l’eau des océans constituerait donc, à raison de 30 %, le principal mécanisme de dissipation de l’énergie absorbée par la surface terrestre. Ces 7 % ne sont qu’une estimation mais, si on accepte cette valeur, on en déduit qu’environ 20 % de l’énergie reçue au sommet de l’atmosphère, resteraient à éliminer par rayonnement thermique (valeur notée sur la fig. 8). On peut calculer (voir 2.3) que 30 % de ce rayonnement pourraient être éliminés directement via la fenêtre optique (30 % de 20 % = 6 % de l’énergie reçue au sommet de l’atmosphère, mince flèche rouge en haut à droite sur la fig. 8) mais le reste serait absorbé principalement par la vapeur d’eau (à raison de 60 % voir 2.3) et aussi par le CO2 (à raison de 10 % voir 2.2) totalisant ainsi 70 % de 20 % et donc environ 14 % de l’énergie reçue au sommet de l’atmosphère (petite flèche orange à droite sur la fig. 8). L’ensemble de tous les pourcentages mentionnés en caractères gras ci-dessus est présenté sur la fig. 8.

Des mesures du rayonnement infrarouge émis par la Terre effectuées par les satellites ERBE (Earth Radiation Budget Experiments) à des altitudes de l’ordre de 800 km s’échelonnent entre 135 et 300 W m-2 selon la latitude (fig.7 en bas) et la valeur de 240 W m-2 est mesurée aux environs des  latitudes 37°N et 37°S. La comparaison des deux cartes reproduites sur la fig. 7 est intéressante car elle indique que :

  • Fig.7 en haut : aux  latitudes de 37 °N et 37 °S  la Terre reçoit du Soleil au sommet de l’atmosphère 342 W m-2 (mesurés par les satellites CERES) mais l’albédo en réfléchit 30 % (fig. 8) et donc seulement 240 W m-2 sont absorbés au niveau de la surface terrestre.
  • Fig.7 en bas : aux  latitudes de 37 °N et 37 °S  la Terre émet sous forme de rayonnement infrarouge 240 W m-2 (mesurés par les satellites ERBE).

Au niveau des latitudes 37 °N et 37 °S  il y aurait donc équilibre entre les flux radiatifs entrant et sortant du système Terre-atmosphère. Cela est explicité  schématiquement sur la fig. 8 bis. Pour cette raison la valeur de 240 W m-2 mesurée à ces latitudes est généralement acceptée comme valeur moyenne des flux radiatifs entrant et sortant.  Dans les régions proches de l’équateur la Terre reçoit du Soleil  un excédent d’énergie par rapport à cette  moyenne et dans les régions proches des pôles l’apport d’énergie est déficitaire par rapport à cette moyenne (fig.7 en haut). Lors de la dissipation  radiative de l’énergie absorbée par la Terre,  l’émission n’est PAS uniforme (fig.7 en bas) mais le déséquilibre est partiellement compensé par les transferts de chaleur dus au courants marins et aériens (fig.8bis). La correspondance des 240 W m-2 mesurés par les satellites ERBE avec l’énergie absorbée par le système Terre-atmosphère (70 % de 342 W m-2 = 240 W m-2)implique que, quel que soit le mécanisme initial de dissipation, l’énergie est finalement évacuée vers l’espace sous forme de rayonnement (large et mince flèches rouges en haut de la fig. 8).

Fig. 8bis Déséquilibres radiatifs locaux dans le système Terre-atmosphère.

Ce bilan global est basé sur le modèle d’un système Terre-atmosphère en équilibre radiatif constant (sans accumulation ou libération temporaires d’énergie). Peu de grandeurs ont été réellement mesurées mais l’ensemble est cohérent et compatible avec les calculs rappelés dans les paragraphes 2.2 et 2.3. Son principal mérite est de mettre en évidence l’importance de la vapeur d’eau dans l’absorption d’une fraction des rayonnements thermiques du Soleil et de la Terre (flèches orange sur la fig. 8). Par voie de conséquence, la vapeur d’eau doit donc aussi avoir un rôle important dans la dissipation de cette énergie. Or, le bilan présenté ci-dessus n’apporte pas de réponse au problème posé par la conversion finale en rayonnement de l’énergie dissipée initialement par différents mécanismes (large flèche rouge ascendante sur la fig. 8). C’est à ce dernier aspect qu’est consacré le paragraphe suivant.

4.3. Origine du rayonnement détecté par satellites

Les principales sources d’information dont nous disposons proviennent des satellites NIMBUS 3 (1) et NIMBUS 4 (2). Mis en orbite à une altitude de l’ordre de 1100 km, ils étaient équipés d’un interféromètre IRIS (InfraRed Interferometer Spectrometer) permettant d’enregistrer les spectres infrarouges par transformée de Fourier. Un exemple de spectre enregistré par NIMBUS 4 près de l’équateur au dessus de l’océan Pacifique occidental est reproduit sur la fig.9.

Fig.9 Spectre infrarouge du rayonnement de la Terre détecté par le satellite NIMBUS 4.

La totalité de ce spectre ne peut PAS provenir directement de la surface terrestre car seule la fenêtre optique de 8 à 13 µm permettrait au rayonnement thermique d’être évacué vers l’espace sans être absorbé dans les basses couches atmosphériques (principalement par la vapeur d’eau). Cela apparaît clairement sur la fig.10 qui superpose au spectre de transmission (inverse de l’absorption) des basses couches atmosphériques la courbe d’émission (en rouge) d’un corps noir à 288 K (15° C) comme le serait la Terre.

Fig. 10 Transmission de l’atmosphère
(fenêtre optique de 8 à 13 µm)
et spectre d’émission d’un corps noir à 288 K (15° C) (en rouge).

Sur la fig.9 apparaissent aussi en traits discontinus des courbes correspondant au rayonnement d’un corps noir aux températures mentionnées. Il semble qu’il y ait une tentative de faire correspondre chaque partie du spectre expérimental à une courbe d’émission « théorique » censée préciser la température à laquelle elle aurait été émise si elle provenait d’un corps noir. Cela pourrait éventuellement se justifier pour la partie du spectre  de 8 à 13  µm si ce rayonnement provenait exclusivement de la surface terrestre à la température de 288 K (15° C) ce qui ne semble PAS le cas (voir ci-dessous). Pour le reste de la courbe expérimentale une telle hypothèse est injustifiée car aucun constituant atmosphérique, quelle que soit l’altitude d’où proviendrait le rayonnement, ne peut être assimilé à un corps noir dont l’intensité d’émission  varierait en T4 (voir paragraphe 1 : deux types de rayonnement à ne pas confondre).

L’aire sous chaque partie du spectre de la fig.9 est proportionnelle au flux énergétique mesuré dans le domaine de longueur d’onde considéré. La portion la plus importante du spectre s’étend de 8 à 13 µm (correspondant à la fenêtre optique) mais elle n’a PAS l’allure attendue pour le rayonnement thermique de la Terre qui devrait présenter un maximum à 10 µm comme la courbe rouge de la fig. 10. De plus, la fig. 8 montre (fine flèche rouge à droite) que le rayonnement provenant directement de la surface terrestre à travers cette fenêtre optique ne représente que 6 % de l’énergie reçue par la Terre au sommet de l’atmosphère soit 21 W m-2. On peut en déduire que les satellites NIMBUS ont enregistré plus de rayonnement que celui provenant directement de la surface terrestre mais beaucoup moins que les 240 W m-2 mesurés par les satellites ERBE (fig.7 en bas). La majeure partie du rayonnement pris en compte dans ces 240 W m-2 n’apparaît donc PAS sur le spectre de la fig. 9 car hors du domaine de mesure de l’appareillage utilisé. L’ozone, dont la concentration est la plus élevée vers 30 km d’altitude, absorbe à 9,6 µm une fraction du rayonnement thermique provenant de la Terre avant qu’il n’atteigne les satellites, en accord avec la fig. 10. Quant au CO2 il absorbe entre 14 et 16 µm une fraction d’un rayonnement qui ne provient PAS directement de la surface terrestre et dont l’origine est discutée ci-dessous.

Quels constituants atmosphériques sont susceptibles d’apporter sous forme de rayonnement l’appoint énergétique pour atteindre les 240 W m-2 mesurés par les satellites ERBE ?

L’hypothèse la plus probable est que ce soit  la vapeur d’eau car

  • 1° de tous les constituants atmosphériques c’est le plus abondant de ceux  qui sont susceptibles d’émettre un rayonnement infrarouge et c’est celui dont le spectre de vibration-rotation est le plus étendu (fig. 6).
  • 2° de tous les constituants atmosphériques c’est le seul qui, dans la troposphère, peut s’y trouver sous les états solide, liquide et gazeux et donc y subir des changements d’état.
  • 3° les parties du spectre de la fig. situées de part et d’autre de la fenêtre optique soit de 6 à 8 µm d’une part et de 13 à 25 µm d’autre part correspondent précisément aux domaines d’absorption (et donc aussi d’émission) de la vapeur d’eau mentionnés sur la fig. 10. La fig. 6 permet de préciser que dans le premier cas il s’agit de transitions de vibration et dans le second de transitions de rotation.

Par quel mécanisme la vapeur d’eau pourrait-elle évacuer sous forme de rayonnement l’énergie absorbée par le système Terre-atmosphère ?

Les molécules H2O de  l’atmosphère, excitées par absorption d’une fraction de l’énergie provenant du Soleil et de la surface terrestre (flèches orange sur la fig.8), ne peuvent PAS émettre de fluorescence, à quelque niveau que ce soit, car même à 12 km d’altitude, quand la vapeur d’eau est entièrement condensée (température et pression de l’ordre de – 60 °C et 200 hPa), la fréquence des collisions entre molécules (proportionnelle à P.T –1/2 ) n’est réduite que d’un facteur 4 par rapport aux basses couches atmosphériques et est encore de l’ordre de 109/s. Quelle que soit l’altitude, les molécules H2O individuelles se désactivent donc toujours par collisions avec les molécules environnantes N2 et O2 mais lors d’un changement d’état impliquant un grand nombre de molécules voisines la situation pourrait être différente.

La vapeur d’eau, entrainée par convection, se refroidit progressivement en s’élevant et se transforme en gouttelettes liquides qui, en présence de germes, peuvent partiellement cristalliser vers 4 km d’altitude à –10 °C. Lors de ces changements d’état les chaleurs  latentes de vaporisation et de fusion sont libérées et cédées au milieu ambiant par collisions avec les molécules environnantes. Par suite de ce transfert de chaleur la température de l’air humide est toujours supérieure à celle de l’air sec à une altitude donnée. Cependant, la troposphère n’étant PAS à  l’équilibre thermodynamique à  cause des courants de convection ascendants et descendants, l’eau peut rester partiellement à l’état surfondu  (c’est-à-dire liquide) à –10 °C alors qu’à l’équilibre elle devrait être solide. La vapeur d’eau  peut aussi  rester sursaturée  jusqu’à des altitudes voisines de 10 km et ne se condenser en cristaux qu’à  des températures de l’ordre de – 50 °C. Les états de liquide surfondu et de vapeur sursaturée sont des états métastables  qui peuvent revenir brusquement à des états liquide ou solide stables conformes au diagramme des phases.

Lors du brusque passage d’un état métastable à un état stable les interactions entre un grand nombre de molécules H2O voisines deviennent prépondérantes, réduisant automatiquement les collisions avec les molécules environnantes,  empêchant la libération d’énergie sous forme de chaleur et favorisant la libération sous forme de rayonnement. La condensation de la vapeur d’eau sursaturée en solide permettrait la libération de la chaleur latente de sublimation  (47 kJ/mol) sous forme de fluorescence vibrationnelle à λ = 6,3 µm par exemple (niveau d’énergie 19 kJ/mol) en n’impliquant la désactivation radiative que de quelques molécules d’eau (2,5 en moyenne). De la fluorescence rotationnelle pourrait aussi être émise de λ = 20 à 300 µm (niveaux d’énergie de 0,4 à 6 kJ/mol) mais un plus grand nombre de molécules  d’eau devraient intervenir pour atteindre  47 kJ/mol.

Quelques auteurs ont étudié l’émission de rayonnement infrarouge lors d’un changement de phase au départ d’un état métastable. Ce phénomène a été qualifié de « infrared characteristic radiation » (IRCR). Dans une brève revue(6) il est précisé que les mesures à partir d’états métastables sont délicates et que la caractérisation précise du rayonnement émis est difficile. Référence est faite cependant à des chercheurs russes qui auraient décelé l’émission d’un rayonnement infrarouge de 4 à 8 µm lors de la condensation de vapeur d’eau  sursaturée et d’un rayonnement de 28 à 40 µm lors de la cristallisation  de gouttelettes d’eau à l’état surfondu.  Ces  domaines de longueurs d’onde correspondent respectivement aux transitions de vibration et de rotation des molécules  H2O (fig. 6). D’autres auteurs(5) ont mis en doute la validité des mesures de 28 à 40 µm et n’ont enregistré, lors de la condensation de vapeur d’eau sursaturée, qu’une large émission s’étendant de 4 à 22 µm avec un maximum d’intensité à 13 µm qui coïncide avec celui de la fig. 9. En dehors des expériences de laboratoire l’émission IRCC provenant d’états métastables a aussi été mise en relation avec des phénomènes atmosphériques(7).  L’émission d’un rayonnement  infrarouge de 8 à 14 µm aurait été observée lors du contact de vapeur d’eau sursaturée, entraînée par un courant ascendant, avec la base de nuages cumulus à la température de –5 °C. Le satellite GOES 8 (Geostationary Operational Environmental Satellite) aurait aussi détecté au dessus des océans dans le canal de 6,7 µm l’émission de rayonnement infrarouge correspondant à la fluorescence vibrationnelle de l’eau. Par contraste des taches sombres apparaissent au dessus des zones arides. Signalons encore que l’émission d’un rayonnement  infrarouge de longueur d’onde non précisée a été mise en évidence lors de la cristallisation d’une goutte d’eau observée sous microscope(8).

Dans quelles conditions la vapeur d’eau pourrait-elle émettre de la fluorescence lors d’un changement d’état ?

La discussion et les résultats des paragraphes précédents montrent que, lors d’un changement d’état, la première condition pour que la libération des chaleurs latentes de vaporisation et/ou de fusion soit possible sous forme de rayonnement est qu’interviennent des états métastables (vapeur d’eau sursaturée ou eau liquide à l’état surfondu). Encore faut-il que la concentration locale en vapeur d’eau soit suffisamment faible pour que le rayonnement émis ne soit pas réabsorbé par les molécules d’eau individuelles puis converti  en chaleur par collisions avec les molécules environnantes N2 et O2.  Cette deuxième condition suggère que le phénomène ne pourrait se produire qu’à des altitudes voisines de 10 km où la teneur en vapeur d’eau n’est plus que de 0.01 % (fig. 11). A ce niveau, au sommet de la troposphère,  la convection ascendante de la vapeur d’eau sursaturée s’arrête puisque le gradient thermique s’annule. Comme il n’y a plus des gouttelettes d’eau à l’état métastable seule la condensation de la vapeur d’eau sursaturée en microcristaux de glace peut être envisagée.  Ce phénomène, inverse de la sublimation, est parfois qualifié en anglais de « desublimation » mais le terme correct en français est « condensation ».

Fig. 11 Teneur en vapeur d’eau de l’atmosphère en fonction de l’altitude.

Ce changement d’état permettrait-il l’évacuation radiative de l’énergie provenant de la surface terrestre ?

Nous avons vu au paragraphe 4.2 et sur la fig. que l’énergie absorbée par le système Terre-atmosphère ne peut être évacuée que sous forme de rayonnement : 6 %  directement par le rayonnement thermique de la Terre (21 W m-2) et 64 % (219 W m-2) après conversion en rayonnement de l’énergie résultant initialement de tous les autres  mécanismes. La condensation de vapeur d’eau sursaturée en microcristaux de glace entre 9 et 10 km d’altitude rend-elle cette conversion possible ? Un calcul simple pourrait nous en convaincre.

La dissipation en continu de 219 W m-2 par toute la surface du globe terrestre (dont la valeur est mentionnée au paragraphe 4.2) représente au total 1,12 1017 J/s. Envisageons ensuite une couche atmosphérique s’étendant de 9 à 10 km d’altitude autour du globe terrestre (température et pression moyennes 230 K et 275 hPa). L’équation des gaz parfait permet de calculer le nombre total de molécules qu’elle contient d’où le nombre de molécule H20 à l’état de vapeur sursaturée qui n’en représentent que 0,01 % soit 7,36 1014 mol. Lors de la condensation à l’état solide, ces molécules H2O pourraient  dissiper sous forme de rayonnement 47 kJ/mol soit au total 3,46 1019 J. Cette énergie émise quasi instantanément  sous forme de rayonnement est 310 fois supérieure à l’énergie à évacuer par seconde. Comparant les valeurs soulignées on voit que, même si le rendement de conversion en rayonnement n’était que de 0,3 %, il permettrait encore d’évacuer l’énergie dissipée chaque seconde par la surface terrestre.

Nous pouvons donc conclure que, sur les 240 W m-2 mesurés par les satellites ERBE,  9 % (21 W m-2) proviennent directement de la surface terrestre sous forme de rayonnement thermique et 91 % (219 W m-2) de l’émission de fluorescence associée à la condensation de la vapeur d’eau sursaturée au sommet de la troposphère.

Cette hypothèse nous permet de considérer la fig. 9 comme la superposition du rayonnement thermique de la Terre transmis directement à travers la fenêtre optique de 8 à 13 µm et d’un large spectre de fluorescence vibrationnelle et rotationnelle des molécules H2O qui pourrait s’étendre de 4 µm à plus de 100 µm (fig. 6) et donc bien au-delà des 25 µm qui constituent la limite de la fig.9.  Cela explique pourquoi les 240 W m-2 mesurés par satellites ERBE n’apparaissent que très partiellement sur la fig. 9. On comprend aussi qu’une fraction de la fluorescence rotationnelle puisse être absorbée par le CO2 entre 14 et 16 µm comme le montre la même figure.

Références

(1) G. Gerlich, R.D. Tscheuschner, International J. Modern Phys.B23, 275 (2009).

(2) M. Hertzberg, A. Siddons,  H. Schreuder, Energy & Environment 28, 530-539 (2017).

(3) B.J. Conrath, R.A. Hanel, V.G.Kunde, C.Prabhakara,  J. Geophys. Res. 75, 5831 (1970).

(4) R.A. Hanel, B.J. Conrath, V.G.Kunde, C.Prabhakara, I.Revah, V.V.Salomonson, G.Wolford, J. Geophys. Res.77, 69, (1972).

(5) V.A. Tatarchenko, P.V. Smirnov, Y. Wu, Optics and Photonics J. 3, 1-12 (2012).

(6) H. Xie, M. Shu, B. Zhang, X. Guan, Energy Procedia, 16, 997-1002 (2012).

(7) V.A. Tatarchenko, P.V. Smirnov, Earth Science Review 101, 24-28 (2010); (8) R. Stahlberg, H. Yoo, GH. Pollack,  Indian.J. Phys. 93, 221 (2019).




REVUE DE PRESSE DU 23 SEPTEMBRE 2022

Par MF

ÉDITO
La pandémie, c’est fini !

Mauvaise nouvelle pour les fabricants de vaccins, qui ne reculent toujours devant rien, proposant maintenant de nouvelles formules sans essais cliniques, qu’à cela ne tienne, l’Éducation nationale a mis au point un narratif pour enseignants sur les bienfaits de la vaccination, tandis que moult pays renoncent aux obligations de tests ou d’injections, mais que les soignants et pompiers français sont toujours suspendus, que la chasse aux sorcières continue, que l’augmentation de la mortalité toutes causes inquiète plusieurs pays et que les futurs receveurs de greffes vaccinés ont du souci à se faire. Et comme le dit le livre qui vient de sortir « c’est [de] la santé en bande organisée » !

POLITIQUE ET SOCIÉTÉ

Pétition Sénat en soutien à Mme Sylviane NOËL demandant l’abrogation de l’obligation vaccinale pour soignants et pompiers

https://petitions.senat.fr/initiatives/i-1067

« Par cette pétition, nous appelons tous les groupes de partis politiques ainsi que tous les citoyens se défendant d’être attachés aux valeurs républicaines ainsi qu’à la souveraineté de la France, de s’unir pour défendre la proposition de Mme Sylviane Noël Sénatrice (LR) de la Haute-Savoie. Il y a urgence, notre beau pays sombre. »

La pandémie, c’est fini, c’est Joe qui l’a dit !

Une phrase qui coûte 9 milliards de dollars aux fabricants de vaccins.

Le nombre de nouveaux cas et de décès diminue dans tous les pays, dont la France

Et pourtant, l’Éducation Nationale veut endoctriner les enfants pour les vacciner

« Ce nouveau “petit livre rouge” n’est qu’un missel des représentants de l’industrie des vaccins, un outil de propagande mensongère, qui désinforme les enseignants pour qu’ils endoctrinent nos enfants en leur récitant le crédo des fabricants de pseudo vaccins. »

L’Express ment, énormément, au sujet de C. Perronne

« L’AFP, l’Express, Bruno Coutier, Victor Garcia paraissent ignorer les données officielles de l’OMS ! Ils se contentent de réciter le crédo officiel. Il serait temps qu’ils s’intéressent aux faits avérés du monde réel et qu’ils les présentent impartialement comme les journalistes qu’ils étaient certainement jadis. »

La santé en bande organisée, le pavé dans la mare

https://larevuedesmedias.ina.fr/enquete-scoop-figaro-scandale-mediator-laboratoire-servier-sante-etienne-mougeotte

et sur Cnews, interview de l’auteur, Anne Jouan

En filigrane les effets secondaires des vaccins anti-covid sous-estimés en France.

ÉTRANGER

EUROPE — La Cour des comptes met en difficulté Von der Leyen

Les achats de vaccins, une ruine pour le contribuable européen.

AUSTRALIE — Inquiétude devant l’augmentation des décès, du jamais vu depuis 40 ans

https://www.smh.com.au/politics/federal/covid-complications-push-australian-deaths-to-highest-number-in-40-years-20220921-p5bjtm.html

USA — Californie, fin du dépistage obligatoire pour les non-vaccinés

https://lecourrierdesstrateges.fr/2022/09/23/la-californie-annonce-la-fin-du-depistage-obligatoire-pour-les-non-vaccines/

« Le Docteur Tomas Aragon, directeur du Département de la santé publique de Californie, reconnaît que les dépistages hebdomadaires n’ont pas permis d’empêcher la propagation du virus depuis l’apparition d’Omicron, et de ces sous-variants d’Omicron BA.4 et BA.5 devenus dominants. »

USA — Interview du Dr Stephan Hatfill, par FranceSoir

https://www.francesoir.fr/videos-les-debriefings/dr-steven-hatfill-la-france-un-heros-national-et-un-gentleman-le-professeur-raoult

« Steven Hatfill qui couvre la situation sanitaire depuis le début de l’épidémie, ne cesse de dénoncer les décisions irresponsables et l’alliance médicale corrompue des sociétés pharmaceutiques, d’agence de santé publique, d’autorités politiques et médiatiques. »

JUSTICE

Plainte de Bon Sens contre Gates, procès décalé au 20 octobre

https://www.francesoir.fr/societe/plainte-de-bonsens-contre-bill-gates-le-debut-du-proces-decale-au-20-octobre

L’eurodéputé Michèle Rivasi va saisir la justice européenne

« Il apparaît que les pays sont contraints d’acheter les vaccins jusqu’à fin 2023, même s’ils n’en ont plus besoin. Car l’UE a passé auprès de Pfizer une commande estimée à 35 milliards d’euros. Mme Rivasi redoute que pour écouler ces doses on remette prochainement sur le tapis une obligation vaccinale. »

COVID

Le regard d’un médecin américain dans la gestion de l’épidémie

https://www.francesoir.fr/videos-les-debriefings/dr-steven-hatfill-la-france-un-heros-national-et-un-gentleman-le-professeur-raoult

« Steven Hatfill qui couvre la situation sanitaire depuis le début de l’épidémie, ne cesse de dénoncer les décisions irresponsables et l’alliance médicale corrompue des sociétés pharmaceutiques, d’agence de santé publique, d’autorités politiques et médiatiques. »

Alors, 8e vague ??

https://www.covid-factuel.fr/2022/09/13/covid-8e-vague/

« Il y a plus d’arguments pour ne pas craindre les vagues à venir, que de les craindre et essayer d’agir contre elles. Même sans comparer avec d’autres, omicron nous a montré de manière indiscutable, qu’avec ces nouveaux variants, sans confinement, sans distanciation, sans masques, sans vaccins, en laissant faire, nous nous sommes bien mieux portés qu’avec Wuhan, alpha ou delta. Alors, continuons sur cette voie. /… toutes ces épidémies, même les plus mortelles et sans vaccins, toutes ne durent pas plus de 3 ans, nous arrivons bientôt à cette échéance. »

INJECTIONS

Conseil mondial de la santé : existe-t-il un signal de sécurité concernant les vaccins Covid19 ?

https://worldcouncilforhealth.org/resources/covid-19-vaccine-pharmacovigilance-report/

« Le rapport a été préparé pour déterminer s’il existe suffisamment de données de pharmacovigilance dans les bases de données VigiAccess de l’OMS, VAERS des CDC, EudraVigilance et UK Yellow Card Scheme pour établir un signal de sécurité sur les vaccins Covid-19. /.. Les vaccins Covid-19 sont en phase 3 des essais, et leur sécurité et leur efficacité n’ont pas encore été établies. La majorité des personnes qui ont reçu l’intervention (plusieurs milliards de personnes) ne sont pas suivies par les essais./.. IL EXISTE suffisamment de preuves sur toutes les bases de données de pharmacovigilance examinées dans ce rapport pour établir un signal de sécurité préoccupant concernant les vaccins Covid-19. »

De nouveaux vaccins, non testés !!

https://www.francesoir.fr/societe-sante/has-autorise-trois-vaccins-omicron-et-couplage-grippe-sans-essai-clinique#.YytfjS75jNE.twitter

« L’administration de ces nouveaux vaccins va donc commencer en population générale sans qu’aucune information en matière d’efficacité sur le moyen et long terme, ou même de toxicité, ait fait l’objet d’une quelconque évaluation des résultats au regard des bonnes pratiques cliniques. »

EFFETS INDÉSIRABLES

Rejet d’allogreffes chez les vaccinés

http://echelledejacob.blogspot.com/2022/09/des-receveurs-dorganes-rejettent-les.html

« Selon une nouvelle étude publiée dans le Journal of Clinical Medicine, les allogreffes cornéennes aiguës sont rejetées par les patients immunisés qui ont subi la greffe. »

RÉSISTANCES

CSI n° 72 du 22 septembre 2022

https://crowdbunker.com/v/wm7QkvDH

Invité : Momotchi, ingénieur en électronique https://t.me/momotchiii/4068

Sujet : Vaccin et grossesse — étude canadienne sur les effets secondaires.

Le dernier numéro de Nexus dénonce : « pensée unique et journalisme de soumission »

« On y parle de censure, de corruption, du fonctionnement des médias, de l’OMS, de l’UE, de Bill Gates, du “Conseil scientifique Covid-19” et quelques autres sujets encore. »




L’utilisation de la technologie sans fil modifie le cerveau — voici comment

[Source : epochtimes.fr]

Par MINGJIA JACKY GUAN

Nous faisons tout avec nos téléphones : les provisions, le shopping, nous parlons avec nos amis, nous jouons, et des dizaines d’autres choses. Certains d’entre nous travaillent avec leur téléphone. Parfois, la table du dîner compte plus de téléphones que de personnes. Souvent, notre bien-aimé regarde son téléphone sans nous prêter plus d’attention. Nous-mêmes avons le nez collé dans le téléphone alors que nos enfants nous parlent.

Le téléphone a été inventé en 1876, l’ordinateur personnel en 1974 et Internet la même année. La première tentative commerciale de smartphone a été réalisée par IBM en 1992. Il comportait plusieurs fonctions, notamment les appels, les textos, les mails, une horloge mondiale et bien d’autres fonctions qui font partie intégrante du téléphone d’aujourd’hui. Mais, 30 ans plus tard, le téléphone fait beaucoup, beaucoup plus de choses. Et les 50 000 unités vendues par IBM Simons au début des années 1990 semblent bien ridicules face aux 6 milliards de smartphones fonctionnant de par le monde actuellement.

Il est intéressant de noter qu’à l’époque où l’IBM Simon est sorti, le gouvernement américain procédait à une réduction importante de son financement.

Le Dr Joel Moskowitz a mené des recherches sur les effets des radiations sans fil dans le courant de la dernière décennie à l’Université de Californie-Berkeley. Il déclare :

« Une grande raison pour laquelle il n’y a pas plus de recherches sur les risques sanitaires de l’exposition aux radiations radiofréquences est que le gouvernement américain a cessé de financer ces recherches dans les années 1990. »

« Une recherche de 30 millions de dollars menée sur des souris fait exception. Elle a été publiée en 2018 par le Programme national de toxicologie du National Institute of Environmental Health Sciences. »

« Ils ont trouvé des “preuves claires” de la cancérogénicité des radiations des téléphones cellulaires. »

Une recherche de Harvard (PDF) de 60 pages rédigée par Norm Alster montre que la Federal Communications Commission (FCC), chargée de réglementer la technologie sans fil« est à la merci des industries qu’elle est censée réglementer ».

Matière blanche, matière grise et problèmes de mémoire

Le cerveau est composé de deux parties, la matière blanche et la matière grise, ainsi nommées en raison de leur apparence relative. La matière grise a fini de se développer totalement vers les 20 ans. La matière grise est responsable de tous les mouvements moteurs du corps et, surtout, des capacités cognitives. La matière blanche joue un rôle clé dans le relais et l’accélération des signaux nerveux en provenance et à destination du cerveau et continue à se développer plus tard, la cinquantaine dans certains cas.

Ces deux substances sont principalement présentes dans le cerveau et dans certaines parties de la moelle épinière et sont considérées comme l’une des parties les plus mystérieuses, mais aussi les plus vitales du corps humain, jouant un rôle essentiel dans l’exécution de toute tâche, pour relayer les informations et les traduire en actions. Des études montrent que de plus petits volumes de matière blanche, par exemple, peuvent être associés à des déficiences liées à l’attention, à la mémoire, aux fonctions exécutives, à l’intelligence et aux résultats scolaires.

Dans les cas extrêmes, la détérioration de la densité et de l’intégrité de la matière blanche et grise est la principale cause des maladies neurodégénératives. La maladie d’Alzheimer, par exemple, proviendrait de la croissance de plaques de protéines à la place de la matière blanche et entraînerait ainsi des troubles moteurs et de la mémoire. La sclérose en plaques est due à une maladie inflammatoire du système nerveux central qui entraîne également une détérioration de la matière blanche. La toxicomanie et les traumatismes cérébraux peuvent également entraîner une détérioration de la matière cérébrale.

Les téléphones peuvent faire de même.

Il a été cliniquement démontré que l’utilisation régulière du téléphone entraîne une détérioration de la matière grise, la partie du cerveau qui permet les mouvements moteurs, la mémoire et les émotions.

Ce phénomène est probablement dû aux champs électromagnétiques de radiofréquence (CEM-RF) émis par les smartphones.

Une étude suisse menée en 2015 indique que l’exposition aux CEM-RF émis par les téléphones portables était liée à des problèmes de mémoire.

Une autre étude suisse a conclu de manière préliminaire que l’exposition aux CEM-RF était associée à des déclins des fonctions cognitives dans le cerveau, ce qui inclut les problèmes de mémoire.

Les IRM de patients dépendants des smartphones révèlent déjà que la composition de leur matière grise cérébrale ressemble à celle d’une personne souffrant de troubles liés à la consommation de substances : elle est détériorée.

Il a déjà été cliniquement prouvé que l’exposition aux CEM-RF est liée à des modifications de la biochimie et de l’électrophysiologie du cerveau, comme indiqué précédemment. On peut donc logiquement en déduire que l’exposition prolongée aux CEM-RF des smartphones est liée à la détérioration du cerveau.

Une étude publiée récemment détaille les effets de la 5G dans diverses situations : en cas des maladies neurodégénératives, comme la maladie d’Alzheimer et la sclérose latérale amyotrophique (SLA), ainsi que d’autres problèmes neurocomportementaux comme l’autisme, la production de mélatonine par la glande pinéale et la perturbation de la barrière hématoencéphalique. Les recherches sur la 5G et ses effets sont quelque peu limitées, mais les études préexistantes montrent déjà que les ramifications sont nombreuses.

Il existe actuellement près de 300 études sur les champs électromagnétiques/rayonnements de radiofréquence (CEM/RF) qui documentent leurs effets neurologiques, ou leurs effets sur le cerveau. Compte tenu de l’abondance des preuves, un groupe composé de plus de 250 scientifiques dans le domaine de la recherche sur les CEM a lancé un appel aux États-Unis et à l’OMS pour une plus grande protection de la santé en matière d’exposition aux CEM. Cet appel est d’autant plus pertinent que les études sur les effets néfastes de la technologie de réseau mobile 5G sur la santé en conditions réelles se multiplient.

[Voir aussi :
dossier 5G et ondes pulsées]

Comment les CEM-FR provoquent le cancer

Un projet de recherche des National Institutes of Health (NIH) portant sur les effets néfastes des rayonnements 2G et 3G sur les souris, publié en 2018, a révélé que l’exposition aux radiofréquences liées aux réseaux téléphoniques est associée de manière flagrante à des tumeurs dans divers organes de souris et à d’autres types de cancer.

En plus de cela, les preuves scientifiques actuelles démontrent clairement un risque accru de gliome et de neurinome de l’acoustique, types de cancers du cerveau et de la moelle épinière, liés à l’utilisation de téléphones mobiles et/ou sans fil.

Un examen systématique effectué fin 2020 a abouti aux mêmes conclusions :

« [il existe] des preuves très nettes associant l’utilisation des téléphones cellulaires à un risque accru de tumeur, en particulier chez les utilisateurs de téléphones cellulaires ayant cumulé au moins 1000 heures d’utilisation au cours de leur vie (ce qui correspond à environ 17 min par jour sur 10 ans). Cette association est d’autant plus nette dans les recherches ayant employé des méthodes de pointe. »

Le narratif actuel en matière de technologie sans fil est que la technologie des ondes millimétriques pour, disons, la 5G ou le WiFi, n’est pas considérée comme suffisamment forte pour pénétrer dans la peau. Elle est non ionisante, et ne fait donc aucun mal aux humains.

La Commission internationale pour la protection contre les rayonnements non ionisants (ICNIRP) a établi diverses directives, mais ces directives :
– n’empêchent pas une augmentation inacceptable de la température ;
– ne limitent pas l’intensité des pics de rayonnement ;
– exigent qu’un téléphone mobile 5G soit tenu à 8 cm de la tête ou du corps.

Le professeur Yuri G. Grigoriev, membre de plusieurs commissions et comités russes et internationaux sur la sécurité des rayonnements et des CEM, ainsi que président adjoint du Bureau de radiobiologie de l’Académie des sciences de Russie, qui a publié son livre « Fréquences utilisées dans les télécommunications – Une évaluation radiobiologique intégrée » peu avant sa mort.

Dans ce livre, le Dr Grigoriev souligne que l’ICNIRP n’est pas forcément crédible. Il s’agit d’une ONG allemande cultivant des liens étroits avec l’industrie, régulièrement critiquée pour présumer de son autorité.

Selon le Dr Grigoriev, les directives de l’ICNIRP sont inadéquates parce qu’elles ont été conçues uniquement pour protéger les gens des effets thermiques des rayonnements.

Dans son livre, il fait référence à des études qui mettent en évidence les dommages causés aux cellules nerveuses, les altérations des membranes cellulaires, les niveaux de protéines cérébrales dans l’hippocampe, les cassures de l’ADN, la reproduction, et bien d’autres effets encore.

Selon le Dr Moskovitz, il existe pléthore d’études sur la technologie 5G, et la plupart d’entre elles vous diront que la 5G est tout à fait sûre et qu’il n’y a aucune raison de s’inquiéter. Mais en lisant les petits caractères, on voit que sur les 408 études existantes, seules sept sont des études médicales ou biologiques.

« Un examen plus approfondi, cependant, révèle que, bien que ces [sept] études aient employé des fréquences porteuses utilisées dans la 5 G, aucune de ces études n’a modulé ou pulsé le signal comme l’exige la 5 G ou utilisé d’autres caractéristiques de la technologie 5G (par exemple, la formation de faisceau, le MIMO massif et les réseaux phasés) qui sont susceptibles d’affecter la nature et l’étendue des effets biologiques ou sanitaires de l’exposition à ce rayonnement. »

Cependant, une étude qui a modulé le signal dans les conditions du monde réel a conclu que les rayonnements radiofréquences, pas nécessairement la 5G, peuvent entraîner des effets cancérigènes, tels que des tumeurs cérébrales/gliomes, des cancers du sein, des neurinomes de l’acoustique, des leucémies et des tumeurs de la glande parotide. Ces résultats sont basés sur des expériences menées avec des niveaux de radiofréquences inférieurs aux directives de la FCC. La même étude a révélé que les radiations des téléphones portables peuvent également provoquer des inflammations, des maux de tête, de l’irritabilité, de la fatigue, des difficultés de concentration, des dépressions, des acouphènes, des troubles digestifs, et bien d’autres choses encore.

À partir de là, on comprendra que les smartphones et leur impact sur le corps humain ne concernent pas une zone ou une autre, mais semble attaquer l’ensemble de l’organisme.

Comment vaincre la dépendance aux smartphones

Il est inutile de nier que les gens sont aujourd’hui dépendants des smartphones. Des études ont montré qu’un adolescent sur quatre était sujet à une addiction aux smartphones, mais les estimations prévoient que les chiffres réels sont bien plus élevés.

On peut constater partout autour de soi que les smartphones n’affectent pas seulement les adolescents. Ils affectent également les relations, les familles et les personnes de tout âge. La dépendance aux smartphones entraîne de nombreuses conséquences défavorables sur le plan clinique (troubles du sommeil, oculaires et musculo-squelettiques), psychologique (distraction, modification de l’humeur, perte d’intérêt) et social (approche superficielle de l’apprentissage, isolement).

Les smartphones sont conçus pour créer une dépendance, c’est dans leur ADN.

On a constamment envie de taper sur l’écran, de faire glisser l’écran vers le bas et de le rafraîchir parce que cela procure une satisfaction inexplicable — les accros du jeu ne peuvent pas résister à l’envie de tirer sur le levier de la machine à sous, tout comme les accros des smartphones ne peuvent pas résister à l’envie de faire défiler l’écran. Les similitudes sont palpables, et Tristan Harris, ancien « éthicien du design » chez Google, explique que les fonctionnalités, telles que la fonction « pull-to-refresh », sont inspirées des machines à sous et autres jeux de casino. Le son d’un message entrant (petit tintement) a été conçu pour déclencher en quelque sorte la dopamine dans le cerveau. Comment faire pour réduire sa dépendance au smartphone ?

Admettre sa dépendance

La première étape consiste à analyser la façon dont on utilise son téléphone. L’utilise-t-on pour des choses indispensables ou pas. Certains parmi nous ont simplement besoin d’utiliser leur téléphone pour leur travail et ils ne peuvent pas se permettre de le mettre de côté. L’accent est mis sur cette dichotomie : « nécessaire » vs « inutile ». La dépendance consiste à ressentir constamment l’envie d’utiliser son téléphone même si ce n’est pas utile. Faire défiler son fil d’actualité pendant des heures sur les médias sociaux est un exemple assez classique. Papillonner sur son téléphone pour rien en est un autre. La frontière est parfois mince.

Une fois qu’on a bien analysé la situation, on peut alors réfléchir aux étapes suivantes.

Trouver d’autres divertissements

La première étape consiste à trouver des activités non liées à la technologie, telles que le dessin, la cuisine ou autre.

On peut privilégier le rapprochement physique avec les amis aux interactions téléphoniques. Faire des promenades en laissant le téléphone derrière soi, jusqu’à un lac, un sentier ou une ville à proximité, visiter un nouveau café ou aller dans un restaurant réputé.

Le but est de réaliser qu’il y a toute une vie non numérique en dehors de notre zone de confort en ligne, et c’est tout à fait agréable simplement parce que c’est la vraie vie.

Avoir quelqu’un qui nous soutient est très important.

Être strict avec soi-même

Une chose délicate face aux addictions est de rester TRÈS ferme avec soi-même. S’en tenir à un objectif, surtout celui-ci, exige beaucoup de détermination et de résistance. Parfois, cela peut sembler presque impossible, mais avec un bon état d’esprit et une attitude positive, on peut y arriver.

Il ne faut pas considérer cela comme un fardeau ou comme un devoir, mais plutôt comme une façon de se « libérer » du harcèlement constant des messages entrants ou du dernier tweet. Il existe de nombreuses fonctions, comme les paramètres « ne pas déranger ». On peut les régler afin qu’ils s’activent automatiquement au cours de la journée. Le téléphone se fera alors un peu oublier. Ce qui nous amène à un autre point crucial.

Certaines personnes regardent leur téléphone juste pour regarder leur téléphone, tandis que d’autres y vont délibérément pour « envoyer des messages à maman ». Oui, envoyer des messages à un ami en permanence est amusant, mais les relations sociales saines impliquent des pauses, quelle que soit la proximité.

Rester constamment en contact 24/7 peut conduire à une apathie sociale, ce qui signifie qu’il n’y a pas de derniers potins à attendre avec impatience, pas de nouvelle voiture à évoquer, ou rien de ce qui s’est passé qui n’a pas été dit. Ne pas se connecter l’un à l’autre pendant une semaine ou deux et se retrouver ensuite pour passer un bon moment ensemble est mieux que d’avoir des textos qui fusent de gauche à droite et de passer un après-midi silencieux dans une chaîne de cafés. Une véritable interaction sociale est tout simplement meilleure.

Se mettre hors ligne

Si l’envie d’attraper le smartphone est trop forte, il faut l’enfouir quelque part.

Une tradition japonaise appelée « Shinrin-Yoku » consiste à se rendre dans une forêt et à profiter de l’immense beauté de la nature. Les gens passent généralement des heures dans la nature de cette façon et prennent le temps de se désintoxiquer, de se détendre et d’être en paix.

Pour aller plus loin, on peut organiser une escapade tout le week-end, seul ou avec des amis. On laissera le téléphone dans le sac, rangé et éteint. Un bon moyen de l’oublier est d’aller camper.

Un autre moyen radical pour se sevrer est de troquer son smartphone pour un téléphone à clapet. Voilà une initiative efficace pour se déconnecter tout en restant joignable et envoyer des SMS.

Tout cela montre simplement qu’on peut parfaitement vivre sans smartphone.




Le « succès retentissant » de la révolution écologique est encore un autre mythe progressiste

[Source : aubedigitale.com]

L’un des principaux mythes du XXe siècle est le rôle bénin joué par les institutions internationales dirigées par les Américains après la Seconde Guerre mondiale. Les libéraux/progressistes américains, qui venaient d’imposer le New Deal dans les années 30 et de planifier et diriger une guerre mondiale, se sont tournés vers les affaires internationales : les États-Unis avaient une mission historique mondiale aux proportions messianiques — faire entrer les pays en développement dans la modernité en les refaisant (et tous les autres pays, d’ailleurs) à l’image de l’Amérique.

L’époque de la guerre froide a été marquée par de nombreux projets et organisations visant à concrétiser cette vision, de Bretton Woods et du Fonds monétaire international (FMI) dans le domaine de la finance internationale à l’Organisation du traité de l’Atlantique Nord (OTAN) dans le domaine militaire, en passant par le Congress for Cultural Freedom, financé par la CIA et utilisé pour diffuser une propagande progressiste et favorable aux États-Unis. Ces organisations ont toutes eu des influences principalement délétères — j’ai déjà indiqué comment Bretton Woods et le système financier international moderne peuvent être décrits comme de l’impérialisme financier — mais dans un domaine, l’interventionnisme américain est à ce jour universellement reconnu comme bénin : la révolution verte.

L’histoire officielle de la révolution écologique

La croissance démographique était considérée comme un problème majeur dans les années soixante. Paul Ehrlich, de l’université de Stanford, dans son ouvrage Population Bomb publié en 1968, prédisait une famine généralisée dès les années 70 et préconisait une action immédiate pour limiter la croissance démographique. Le monde ne pouvait tout simplement pas nourrir une population humaine plus nombreuse. Bien qu’il soit principalement axé sur les dommages environnementaux causés par l’utilisation de pesticides, le célèbre livre de Rachel Carson, Printemps silencieux, publié en 1962, présente des arguments similaires. La population humaine est vouée à continuer de croître, ce qui entraînera des souffrances indicibles et des dommages environnementaux.

Dans les années 1960, l’Inde représentait un danger majeur et imminent : toujours au bord de la famine, seules les importations massives de blé américain tenaient le spectre de décès en masse à l’écart. Puis, en 1965, la catastrophe a frappé : la sécheresse qui a sévi dans la majeure partie du sous-continent a fait échouer la récolte indienne. La sécheresse se prolongeant les deux années suivantes, il semble que les prédictions d’Ehrlich et des autres néo-malthusiens se soient réalisées.

Puis, un miracle s’est produit : un homme est apparu, un véritable demi-dieu, à en juger par le culte qui lui est rendu par les normies [adeptes de Norman Borlaug] contemporains. Norman E. Borlaug, le père de la Révolution verte, menait depuis les années 40 des recherches et sélectionnait de nouvelles variétés de blé au Mexique, initialement financées par la Fondation Rockefeller et, après 1964, en tant que responsable du Centre international d’amélioration du maïs et du blé (Centro Internacional de Mejoramiento de Maíz y Trigo, CIMMYT, initialement financé par les Fondations Rockefeller et Ford et le gouvernement mexicain).

Borlaug a créé des variétés de blé nain à haut rendement, largement adaptées à différents environnements écologiques. Depuis le début des années 60, il travaillait avec M.S. Swaminathan, de l’Institut indien de recherche agricole, et ensemble, ils ont planté les nouvelles variétés de blé nain de Borlaug dans le nord de l’Inde. Le succès fut immédiat : L’année 1968 a été marquée par une récolte exceptionnelle, les nouveaux rendements de blé étant les plus élevés jamais enregistrés en Inde.

Il semble que les prophètes de malheur en matière de population aient eu tort. C’est ce que dit Borlaug lui-même lorsqu’il reçoit le prix Nobel de la paix en 1970 : dans son discours d’acceptation, il proclame la victoire dans la guerre perpétuelle entre « deux forces opposées, le pouvoir scientifique de la production alimentaire et le pouvoir biologique de la reproduction humaine ». Mais la guerre n’est pas terminée, a-t-il averti, et seul un financement continu de la recherche technologique sur la production alimentaire et les limites de la reproduction peut éviter le désastre.

Les gouvernements et les philanthropes ont relevé le défi et les capitaux ont afflué dans la recherche agricole de type borlaugien, tandis que de nouveaux instituts internationaux étaient créés pour poursuivre le travail que Borlaug avait commencé au Mexique et en collaboration avec l’Institut international de recherche sur le riz aux Philippines (fondé en 1960). La révolution verte a éradiqué le fléau de la famine et, comme l’agriculture utilisant la technologie Borlaugian avait des rendements bien plus élevés, des masses de terres ont été libérées de l’usage agricole et rendues à la nature. Une étude publiée en 2021 dans le Journal of Political Economy estime que le produit intérieur brut (PIB) par habitant dans les pays en développement aurait été jusqu’à 50 % inférieur sans l’intervention de Borlaug, Swaminathan et des autres brahmanes internationaux prêts à guider les masses de paysans ignorants.

Ce récit de l’histoire de l’agriculture pose un double problème : il est fondé sur de mauvais principes économiques et son lien avec l’histoire réelle de l’agriculture indienne est, au mieux, tangentiel.

La mauvaise économie des révolutionnaires verts

La célébration de la révolution verte repose sur deux erreurs fondamentales du raisonnement économique : le malthusianisme et une mauvaise compréhension de l’économie agricole.

Le malthusianisme est la croyance erronée selon laquelle la population humaine augmentera plus vite que les réserves alimentaires ; selon la formulation de Thomas Malthus, la croissance de la population suit une progression géométrique (2, 4, 8, 16…) et les réserves alimentaires une progression arithmétique (2, 3, 4, 5…). Par conséquent, l’humanité est destinée, sauf pendant de brèves périodes, à vivre à la limite de la subsistance : seules les maladies, les guerres et les famines limiteront la croissance démographique.

Le problème du malthusianisme est qu’il est complètement faux, tant sur le plan théorique que sur le plan historique. Tout d’abord, la production alimentaire et la croissance démographique ne sont manifestement pas des variables indépendantes, puisque le travail humain est un facteur clé de la production alimentaire, comme l’a souligné Joseph A. Schumpeter. Plus fondamentalement, comme l’a expliqué Ludwig von Mises, la loi malthusienne de la population n’est qu’une loi biologique — elle est vraie pour toutes les espèces animales, mais les hommes ne sont pas de simples animaux. Avec l’usage de la raison, ils peuvent s’abstenir d’une activité procréatrice irréfléchie, et ils le feront s’ils doivent eux-mêmes supporter le résultat de cette activité. Malthus lui-même l’a bien vu et a modifié sa théorie dans la deuxième édition et les suivantes de son célèbre Essai sur le principe de population (Frédéric Bastiat, comme à son habitude, a une bien meilleure et plus optimiste explication du principe de population).

Les technophiles ne comprennent pas non plus l’économie de l’agriculture et de la production alimentaire. Ester Boserup, qui est une source d’inspiration essentielle pour la brève explication qui suit, a développé une compréhension correcte de cette question dans les années 1960, après avoir étudié l’agriculture indienne. L’ignorance de Borlaug et de sa compagnie, ainsi que de leurs supporters d’hier et d’aujourd’hui, est donc difficilement excusable : après tout, ce sont exactement les mêmes conditions historiques qu’ils considéraient comme « malthusiennes » qui ont inspiré Boserup à exposer la compréhension correcte de la question.

Lorsque la population augmente, l’offre de main-d’œuvre s’accroît, et davantage de main-d’œuvre est appliquée aux parcelles agricoles. Le rendement de la terre augmente donc, bien que le rendement de la main-d’œuvre supplémentaire diminue, conformément à la loi des rendements. Lorsque le rendement du travail supplémentaire est insuffisant pour le justifier, de nouvelles terres sont mises en culture, et une fois la terre défrichée, la productivité physique du travail augmente. Étant donné que le défrichage de nouvelles terres nécessite un certain effort supplémentaire, les agriculteurs doivent toujours mettre en balance le rendement potentiel des nouvelles terres et le rendement d’une culture plus intensive des terres déjà défrichées.

Nous pouvons le voir clairement en termes monétaires : plus la main-d’œuvre est appliquée au travail de la terre, plus les salaires baissent et plus les loyers fonciers augmentent. Comme les loyers et la valeur des terres augmentent, la valeur potentielle des terres non défrichées augmente, et comme les salaires diminuent, les dépenses nécessaires pour défricher les terres diminuent. Lorsque le rendement attendu des nouvelles terres est supérieur au coût estimé de leur mise en culture, la main-d’œuvre sera affectée au défrichage de nouvelles terres. La rente foncière diminue alors et les salaires augmentent jusqu’à ce que la mise en culture de nouvelles terres ne soit plus jugée rentable.

Ainsi, la population et la production alimentaire augmentent à l’unisson, parfois grâce à une culture plus intensive, parfois grâce à une augmentation de la surface cultivée. La même analyse s’applique dans des conditions plus capitalistes (c’est-à-dire lorsque les agriculteurs disposent de plus d’outils et d’autres biens d’équipement) : le rendement de l’utilisation de biens d’équipement supplémentaires sur les terres actuelles est comparé au rendement potentiel de l’utilisation de biens d’équipement pour accroître la superficie des terres cultivées. Même la forme la plus primitive de l’agriculture est, bien sûr, capitaliste, car l’agriculture est un processus de production détourné, dans lequel l’effort productif est largement séparé dans le temps de la production utile.

L’agriculture indienne des années 1960 fonctionnait bien, sauf lorsqu’elle était entravée par l’ingérence du gouvernement et les barrières institutionnelles. Ces ingérences peuvent être extrêmement destructrices, comme Mao Zedong l’avait montré en Chine quelques années auparavant, lors du Grand Bond en avant. Cependant, cet épisode n’avait rien de malthusien, pas plus que, comme nous le verrons, la prétendue famine en Inde dans les années 1960.

La famine indienne des années 1960 : Une mauvaise histoire

La famine des années 1960 en Inde a lancé la Révolution verte et la renommée internationale de son principal protagoniste, Norman Borlaug. Dès le départ, cependant, le récit a été faussé par des considérations politiques.

L’agriculture américaine a été fortement subventionnée dans les années 60, ce qui a entraîné un énorme excédent de production. Cet excédent ne pouvait être vendu au prix du marché, du moins pas sans mettre les agriculteurs américains en faillite. Selon la logique interventionniste typique, le gouvernement américain est intervenu pour subventionner l’exportation des produits agricoles américains afin de maintenir un prix artificiellement élevé sur le marché intérieur.

L’Inde a ainsi été inondée de blé américain bon marché au début des années 60, mais, comme l’écrit G.D. Stone, cela n’a pas atténué les pénuries alimentaires de l’Inde, mais les a provoquées. Dans un cas simple d’ajustement des agriculteurs à leur avantage comparatif, les Indiens ont réorienté leur production vers des cultures de rente (comme la canne à sucre et le jute) destinées à l’exportation et ont ainsi financé leurs importations de blé américain bon marché.

La sécheresse de 1965 et des années suivantes est bien réelle, mais son impact ne se limite pas à l’échec des cultures vivrières. Les cultures de jute et de canne à sucre ont souffert, entraînant de réelles difficultés pour les ouvriers agricoles. Mais ces difficultés ne se sont jamais traduites par une famine généralisée. En 1965, le président américain, Lyndon B. Johnson, tentait de faire approuver par le Congrès une nouvelle loi agricole prévoyant des subventions accrues pour les exportations agricoles et une aide étrangère sous la forme du plan « Food for Peace ». Les rapports sur la sécheresse en Inde sont une aubaine : face à un Congrès récalcitrant, Johnson joue le spectre de la sécheresse et de la famine massive. Sa législation est dûment adoptée et encore plus de céréales américaines sont expédiées en Inde, ce qui a sans aucun doute contribué à soulager certaines difficultés à court terme.

L’exagération de la situation catastrophique de l’Inde a naturellement aussi servi les intérêts de Borlaug et de sa société. Les variétés spéciales de blé sélectionnées au Mexique ont été largement introduites dans tout le nord de l’Inde, et comme la sécheresse a opportunément pris fin, la première récolte a donné un rendement massif. Borlaug s’en est attribué le mérite, sans se préoccuper de la coïncidence avec le fait que presque toutes les récoltes atteignaient des niveaux records en Inde et dans la Chine voisine. Le prétendu succès de la technocratie américaine a également joué dans le récit politique plus large du leadership progressiste américain sur le « monde libre » : en 1968, l’administrateur de l’Agence des États-Unis pour le développement international (USAID), William Gaud, s’est adressé à la Société pour le développement international à Washington, DC, affirmant que l’aide étrangère et les politiques agricoles judicieuses avaient favorisé « une nouvelle révolution ». Il ne s’agit pas d’une révolution rouge violente comme celle des Soviétiques, ni d’une révolution blanche comme celle du Shah d’Iran. Je l’appelle la Révolution verte ».

La révolution verte, menée par les technocrates du gouvernement et des ONG et financée principalement par les agences de développement occidentales, était lancée. La sélection de variétés hybrides de riz et de blé par l’Institut international de recherche sur le riz et le CIMMYT, respectivement, était le fleuron de la modernité en agriculture. Mais même dans ses propres termes, cette affirmation est au mieux trompeuse. Ce qui s’est passé, c’est que l’agriculture du monde développé et de l’Occident s’est orientée vers une culture très intensive qui nécessitait beaucoup de capitaux. Les variétés de blé de Borlaug en sont un bon exemple, comme le souligne Stone : ce n’est que lorsque de grandes quantités d’engrais ont été appliquées que ces variétés ont dépassé les grands blés indiens indigènes. Il s’avère que les technologies ne sont pas des forces exogènes qui s’imposent simplement et remodèlent l’environnement. Les populations locales avaient développé des cultures et des techniques adaptées à leur situation, et il est peu probable que le blé de Borlaug aurait été largement utilisé si le gouvernement indien (et les organismes d’aide étrangers) n’avait pas, au même moment, massivement subventionné l’utilisation d’engrais et la construction de nouveaux systèmes d’irrigation.

La réalité de la révolution verte

Une dernière ligne de défense pour les partisans des bienfaits de la révolution verte est qu’elle a permis une production alimentaire efficace, qu’elle a libéré la main-d’œuvre pour des travaux non agricoles et que nous pouvons maintenant continuer à utiliser les technologies génétiques modernes pour augmenter la qualité des aliments et éviter la malnutrition. Ainsi, par exemple, des personnes autrement sensées comme Bjorn Lomborg ont longtemps défendu l’introduction du « riz doré » – une variété de riz génétiquement modifiée pour être riche en vitamine A – comme solution à la malnutrition dans les pays producteurs de riz.

Mais les technocrates et leurs supporters oublient de mentionner ou ignorent le fait que la révolution verte a elle-même été une cause de malnutrition. Lorsque les rendements du blé ont augmenté en Inde selon Stone, par exemple, le prix relatif du blé a baissé, et le blé a ainsi supplanté d’autres sources alimentaires riches en protéines et en micronutriments. Les taux de malnutrition en Inde ont donc augmenté, conséquence directe de la révolution verte. Une évolution similaire s’est produite dans les pays développés, pour des raisons différentes mais analogues.

En ce qui concerne la technologie qui libère la main-d’œuvre, ce qui s’est réellement passé, c’est que le surinvestissement en capital dans l’agriculture a réduit la demande de main-d’œuvre agricole, mais cela n’a pas augmenté la demande de main-d’œuvre ailleurs. Au contraire, puisque moins de capital est disponible pour l’investissement dans les secteurs non agricoles, la demande de main-d’œuvre et de salaires n’a pas augmenté ailleurs. Ainsi, la révolution verte a largement contribué à la croissance des bidonvilles du tiers-monde, où les gens subsistent grâce à des emplois mal payés et à l’aide de l’État.

En somme, comme on doit s’y attendre lorsqu’on a affaire à des technocrates poussés par l’orgueil progressiste à intervenir dans le développement naturel de l’économie, la révolution verte n’a pas été une bénédiction, la victoire de sages scientifiques sur la propension de paysans stupides à se reproduire de manière incontrôlée. Au contraire, elle a été un désastre écologique, nutritionnel et social. [incluant la destruction des sols, leur empoisonnement par les pesticides, et la destruction des lacs à cause des engrais chimiques qui s’y retrouvent.]

Traduction du Mises Institute par Aube Digitale




Les États-Unis ont soigneusement préparé l’Ukraine à un affrontement avec la Russie et ils font mine d’être surpris du résultat

[Source : histoireetsociete.com]

Même si ce texte tout à fait important a été publié dans un site russe et traduit par Marianne, son auteur dont nous avons déjà publié un texte hier est une intellectuelle australienne qui écrit la plupart de ses œuvres avec son mari Tim Foley. Elle dit elle-même “Ce qui est cool avec le fait de prêter attention à la façon dont le récit diffère de la réalité, c’est qu’il ne change pas seulement votre compréhension de la politique et du pouvoir à travers le monde. Vous commencez à remarquer que toute votre vie est dominée par des récits, pas seulement sur le monde, mais sur vous.” 

(Note de Danielle Bleitrach. Traduction de Marianne Dunlop.)

Par Caitlin Johnstone

https://svpressa.ru/politic/article/346143/

Au début de l’Opération spéciale de la Russie en Ukraine, Boris Johnson a été envoyé pour dire à Zelensky que même s’il est prêt pour la fin de la guerre, ses partenaires occidentaux ne l’étaient pas.

Dans un récent entretien avec le podcast Useful Idiots, Noam Chomsky* a répété son argument selon lequel la seule raison pour laquelle nous entendons le mot « non provoquée » chaque fois que quelqu’un mentionne l’invasion russe de l’Ukraine dans les médias grand public est qu’elle a été absolument provoquée, et qu’ils le savent.

« Maintenant, si vous êtes un écrivain respecté et que vous voulez publier dans des magazines grand public en parlant des événements ukrainiens, vous devez appeler cela “l’invasion russe non provoquée de l’Ukraine” », a déclaré Chomsky. « C’est une phrase très intéressante, elle n’a jamais été utilisée auparavant. Vous regardez en arrière, vous regardez l’Irak, qui n’était absolument pas provoqué, mais personne n’a jamais appelé cela une “invasion non provoquée de l’Irak”. En fait, je ne sais pas si le terme a jamais été utilisé — s’il l’a été, c’était très marginal. Maintenant, vous le recherchez sur Google et vous obtenez des centaines de milliers de résultats. Tous les articles qui sortent doivent parler d’une invasion non provoquée de l’Ukraine. »

« Pourquoi ? Parce qu’ils savent très bien qu’elle a été provoquée », a déclaré Chomsky. — Des diplomates américains de haut rang en parlent depuis 30 ans, même le chef de la CIA. »

Chomsky a raison ici, bien sûr. Les médias impériaux et leurs automates soumis à un lavage de cerveau ont passé six mois à répéter sans réfléchir le mot « non provoqué » à propos de ce conflit. Mais une question à laquelle aucun d’entre eux n’a jamais eu de réponse directe est la suivante : si l’invasion de l’Ukraine n’a pas été provoquée, pourquoi tant d’experts occidentaux ont-ils passé des années à avertir que les actions des gouvernements occidentaux provoqueraient une invasion de l’Ukraine ?

Parce que, comme le souligne Chomsky, c’est vraiment ce qui s’est passé. Quelques jours après le début de l’invasion en février de cette année, un dénommé Arnaud Bertrand a créé un fil Twitter extrêmement viral faisant référence à divers diplomates, analystes et universitaires occidentaux qui avaient prévenu au fil des ans qu’une dangereuse confrontation avec la Russie était à venir en raison de l’avancée de l’OTAN vers ses frontières, de l’interventionnisme en Ukraine et de diverses autres agressions.

On y trouve des personnes telles que John Mearsheimer, qui a averti sans équivoque en 2015 que « l’Occident conduit l’Ukraine sur le chemin des primevères**, et le résultat final sera que l’Ukraine s’effondrera », et Pat Buchanan, qui a averti dès 1999 qu’ » en plaçant l’OTAN en plein devant le seuil de la Russie, nous avons planifié une confrontation du XXIe siècle ».

Les apologistes de l’Empire aiment prétendre que l’invasion de l’Ukraine n’a rien à voir avec l’expansionnisme de l’OTAN (leurs affirmations reposent généralement sur une déformation éhontée des propos de Poutine sur les raisons de la guerre pour la Russie), mais c’est absurde. La machine de guerre américaine a continué à se moquer de la possibilité d’une adhésion de l’Ukraine à l’OTAN jusqu’à l’invasion. Elle a refusé de retirer cette menace de la table depuis qu’elle y a été placée en 2008, tout en sachant pertinemment qu’il s’agissait d’une provocation pure et simple à l’encontre de Moscou.

Le plus surprenant dans le conflit en Ukraine, c’est le nombre de penseurs stratégiques de premier plan qui, depuis des années, nous mettent en garde contre ce qui pourrait arriver si nous continuions sur la même voie. Personne ne les a écoutés, et nous en sommes là.

Sans parler du fait que l’empire américain a activement fomenté un violent soulèvement à Kiev en 2014 qui a renversé le gouvernement en place et divisé la nation entre la population plus fidèle à Moscou à l’est et la population plus favorable aux États-Unis et à l’UE à l’ouest. Cela a conduit à l’annexion de la Crimée (massivement soutenue par ses habitants) et à huit années de guerre brutale contre la population du Donbass soutenue par la Russie. On sait que les attaques ukrainiennes contre ces régions ont augmenté de façon exponentielle dans les jours qui ont précédé l’invasion, et on prétend que c’est ce qui a déclenché la décision finale de Poutine de lancer son opération spéciale (qui, selon les renseignements américains, a été prise à la dernière minute).

Les États-Unis et leurs alliés auraient très facilement pu éviter cette guerre avec quelques concessions peu coûteuses — comme le maintien de la neutralité de l’Ukraine, le retrait de ses équipements militaires des frontières de la Russie et la recherche sincère d’une désescalade des relations avec Moscou — plutôt que de déchirer les traités et d’intensifier la guerre froide.

Bon sang, cela aurait pu probablement éviter cette guerre en protégeant simplement le président Zelensky des nationalistes d’extrême droite antirusses qui ont ouvertement menacé de le lyncher s’il commençait à respecter les accords de Minsk et à rechercher la paix avec la Russie, ce pour quoi il a été élu à l’origine.

Au lieu de cela, ils ont délibérément choisi la voie inverse : continuer à faire miroiter la possibilité d’une adhésion formelle de l’Ukraine à l’OTAN, fournir des armes au pays et en faire de plus en plus un membre de facto de l’OTAN, le rapprochant de plus en plus de la machine de guerre américaine.

Pourquoi l’empire a-t-il préféré la provocation à la paix ? Le membre du Congrès Adam Schiff a donné une assez bonne réponse à cette question en janvier 2020, alors que le chemin de la guerre était en train d’être pavé : “Ainsi, nous pouvons faire la guerre avec la Russie là-bas et nous n’avons pas besoin de faire la guerre avec la Russie ici”. Si l’on écarte l’idée infantile selon laquelle l’empire américain aide son bon ami ukrainien parce qu’il aime le peuple ukrainien et souhaite qu’il jouisse de la liberté et de la démocratie, il est facile de voir que les États-Unis ont lancé une guerre par procuration commode parce qu’elle servait leurs intérêts géostratégiques et parce que ce ne sont pas leurs vies et leurs biens qui seraient en jeu.

Brian Berletic a posté il y a quelques jours une bonne vidéo sur le document de 2019 de la RAND Corporation financé par le Pentagone et intitulé « Extending Russia — competing from advantageous ground » et c’est exactement comment se présentent les choses. Le document, commandé par l’armée américaine, explique en détail comment l’empire peut utiliser la guerre par procuration, la guerre économique et d’autres tactiques de la guerre froide pour pousser son ennemi géopolitique de longue date au bord du gouffre sans gaspiller de vies américaines ni déclencher de conflit nucléaire.

Il mentionne l’Ukraine des centaines de fois et évoque explicitement les mêmes tactiques de guerre économique que celles que nous observons aujourd’hui, telles que des sanctions et une attaque contre les intérêts énergétiques russes en Europe (cette dernière, comme le souligne Berletik, servant également à renforcer la domination des États-Unis sur leurs vassaux dans l’UE).

Le document suggère même explicitement de continuer à menacer la Russie de l’adhésion de l’Ukraine à l’OTAN afin de provoquer une réponse agressive de Moscou, en déclarant : “Alors que l’exigence d’unanimité de l’OTAN rend improbable l’adhésion de l’Ukraine dans un avenir prévisible, pousser Washington à cette possibilité pourrait renforcer la détermination de l’Ukraine tout en forçant la Russie à redoubler d’efforts pour empêcher une telle évolution.”

Le président Biden a lancé des appels au changement de régime à Moscou qui ne peuvent même pas être qualifiés de mal déguisés, et le secrétaire à la défense Lloyd Austin a ouvertement déclaré que le plan consiste à utiliser cette guerre pour affaiblir la Russie, ce qui, selon d’autres responsables américains, est effectivement leur ligne politique. Les commentaires de l’administration Biden n’ont cessé d’indiquer clairement que l’alliance américaine se prépare à maintenir cette situation pour les années à venir, ce qui cadre bien avec le bilan bien connu de Washington, qui a délibérément entraîné la Russie dans des bourbiers militaires contre les mandataires américains, tant en Afghanistan qu’en Syrie.

Ne vous y trompez pas, derrière toutes les fausses déclarations et les drapeaux agités, l’empire américain centralisé obtient exactement ce qu’il veut de ce conflit.

C’est pourquoi, lorsqu’aux premiers jours du conflit, il semblait que la paix était en jeu, l’empire a envoyé Boris Johnson dire à Zelensky que même s’il était prêt à mettre fin à la guerre, ses partenaires occidentaux ne l’étaient pas.


Auteur : Caitlin Johnstone est une journaliste australienne indépendante.

Traduction [d’anglais en russe] par Sergey Dukhanov.
Publié [en russe] avec l’autorisation de l’auteur.
Original en anglais :
https://caitlinjohnstone.com/2022/09/07/its-not-okay-for-grown-adults-to-say-the-ukraine-invasion-was-unprovoked/


* Éminent linguiste, essayiste politique, philosophe et théoricien américain. Professeur de linguistique au Massachusetts Institute of Technology, auteur de la classification des langages formels. Son nom est souvent et incorrectement orthographié “Nahum Chomsky” dans les médias russes.

** Référence à un chemin parsemé de fleurs, soulignant une attitude insouciante envers la vie. Cette métaphore est utilisée par Ophélie (dans Hamlet) lorsqu’elle conseille à son frère de ne pas choisir la voie du plaisir mais celle de la dignité.




France — Que s’était-il passé lors de la première réunion du Conseil scientifique ?

Pourquoi Raoult en est-il parti ?




Discours du Président de la fédération de Russie, Vladimir Poutine, du 21 septembre 2022

[Source : donbass-insider.com]

Chers amis !

Le sujet de mon intervention est la situation dans le Donbass et l’évolution de l’opération militaire spéciale visant à le libérer du régime néonazi qui a pris le pouvoir en Ukraine en 2014 à la suite d’un coup d’État armé.

Je m’adresse à vous aujourd’hui, à tous les citoyens de notre pays, aux personnes de différentes générations, âges et nationalités, au peuple de notre grande Patrie, à tous ceux qui sont unis par la grande Russie historique, aux soldats et aux officiers, aux volontaires qui combattent actuellement sur les lignes de front, qui sont en service de combat, à nos frères et sœurs — aux habitants des Républiques Populaires de Donetsk et de Lougansk, des régions de Kherson et de Zaporojié et d’autres régions libérées du régime néonazi.

Il s’agira de prendre les mesures nécessaires et urgentes pour protéger la souveraineté, la sécurité et l’intégrité territoriale de la Russie, de soutenir le désir et la volonté de nos compatriotes de déterminer leur propre avenir et de s’opposer à la politique agressive de certaines élites occidentales, qui tentent par tous les moyens de maintenir leur domination et, pour ce faire, de bloquer et d’éliminer tout centre de développement indépendant souverain, de continuer à imposer leur volonté aux autres pays et peuples et d’implanter leurs pseudo-valeurs.

L’objectif de cet Occident est d’affaiblir, de diviser et finalement de détruire notre pays. Ils disent déjà explicitement qu’ils ont réussi à diviser l’Union soviétique en 1991, et qu’il est maintenant temps pour la Russie elle-même de se désintégrer en une multitude de régions et de zones qui se combattent mortellement.

Et cela fait longtemps qu’ils préparent de tels plans. Ils ont encouragé les bandes de terroristes internationaux dans le Caucase, favorisé l’infrastructure offensive de l’OTAN à proximité de nos frontières. Ils ont fait de la russophobie totale leur arme de prédilection, y compris les décennies de culture délibérée de la haine de la Russie, notamment en Ukraine, à laquelle ils ont préparé le sort d’une tête de pont anti-russe, et ont transformé le peuple ukrainien en chair à canon pour le pousser à entrer en guerre contre notre pays. Ils ont déclenché cette guerre dès 2014, en utilisant les forces armées contre les civils, en organisant un génocide, un blocus et la terreur contre les personnes qui refusaient de reconnaître le gouvernement qui a émergé en Ukraine à la suite du coup d’État.

Et après que le régime actuel de Kiev ait publiquement rejeté une solution pacifique au problème du Donbass et, de plus, annoncé qu’il revendiquait des armes nucléaires, il est devenu absolument clair qu’une nouvelle, une autre attaque à grande échelle sur le Donbass, comme cela s’était déjà produit deux fois auparavant, était inévitable. Et ensuite, tout aussi inévitablement, une attaque contre la Crimée russe suivrait – contre la Russie.

Dans ce contexte, la décision de mener une opération militaire préventive était absolument nécessaire et la seule option possible. Ses principaux objectifs — la libération de l’ensemble du territoire du Donbass — étaient et restent inchangés.

La République Populaire de Lougansk a déjà été presque entièrement débarrassée des néonazis. Les combats se poursuivent dans la République Populaire de Donetsk. En huit ans, le régime d’occupation de Kiev a créé ici une ligne profondément échelonnée de fortifications pérennes. Les attaquer de front entraînerait de lourdes pertes, c’est pourquoi nos unités, ainsi que les unités militaires des républiques du Donbass, agissent de manière méthodique et compétente, en utilisant les équipements militaires, en économisant du personnel et en libérant pas à pas le territoire de Donetsk, en débarrassant les villes et les villages des néonazis et en aidant les personnes que le régime de Kiev a transformées en otages et en boucliers humains.

Comme vous le savez, l’opération militaire spéciale implique des soldats professionnels servant sous contrat. Des unités de volontaires se battent également à leurs côtés : des personnes de différentes nationalités, professions et âges — de vrais patriotes. Ils se sont levés pour défendre la Russie et le Donbass de tout leur cœur.

À cet égard, j’ai déjà donné instruction au gouvernement et au ministère de la Défense de déterminer intégralement et dans les meilleurs délais le statut juridique des volontaires et des combattants des unités des Républiques Populaires de Donetsk et de Lougansk. Il devrait être identique à celui des militaires de carrière de l’armée russe, y compris le soutien matériel et médical et les garanties sociales. Une attention particulière doit être accordée à l’organisation de la fourniture d’équipements et de matériel aux unités de volontaires et des milices populaires dans le Donbass.

Au cours des principales opérations de défense du Donbass, nos troupes, sur la base des plans et des décisions du ministère de la Défense et de l’état-major général concernant la stratégie générale d’action, ont également libéré des zones importantes des régions de Kherson et de Zaporojié et d’autres zones des néonazis. En conséquence, une longue ligne de front s’est formée, qui s’étend sur plus de mille kilomètres.

Qu’est-ce que je veux dire publiquement pour la première fois aujourd’hui ? Déjà après le début de l’opération militaire spéciale, y compris lors des négociations à Istanbul, les représentants de Kiev ont réagi très positivement à nos propositions, et ces propositions étaient principalement liées à la garantie de la sécurité de la Russie, de nos intérêts. Mais il est clair qu’une solution pacifique ne convenait pas à l’Occident, de sorte qu’après avoir atteint certains compromis, Kiev a en fait reçu l’ordre direct de démolir tous les accords.

L’Ukraine a encore été gavée d’armes. Le régime de Kiev a déployé de nouvelles bandes de mercenaires et de nationalistes étrangers, des unités militaires formées aux normes de l’OTAN et placées sous le commandement de facto de conseillers occidentaux.

Dans le même temps, le régime de répression à travers l’Ukraine contre ses propres citoyens, établi immédiatement après le coup d’État armé de 2014, a été intensifié de la manière la plus dure possible. La politique d’intimidation, de terreur et de violence a pris des formes de plus en plus massives, horribles et barbares.

Je voudrais souligner que nous savons que la majorité des personnes vivant dans les territoires libérés des néonazis, avant tout les terres historiques de la Novorussie, ne veulent pas être sous le joug du régime néonazi. À Zaporojié, dans la région de Kherson, à Lougansk et à Donetsk, ils ont vu et constaté les atrocités commises par les néonazis dans les districts occupés de la région de Kharkov. Les descendants des Banderistes et des punisseurs nazis tuent des gens, torturent, emprisonnent, règlent des comptes, massacrent et torturent des civils.

Plus de sept millions et demi de personnes vivaient dans les républiques populaires de Donetsk et de Lougansk et dans les régions de Zaporojié et de Kherson avant le début des hostilités. Beaucoup d’entre eux ont été contraints de devenir des réfugiés, de quitter leur foyer. Et ceux qui sont restés – environ cinq millions de personnes – sont maintenant soumis à des attaques constantes d’artillerie et de roquettes par des militants néo-nazis. Ils frappent des hôpitaux et des écoles et commettent des actes terroristes contre des civils.

Nous ne pouvons pas, nous n’avons aucun droit moral de livrer nos proches aux tortionnaires, nous ne pouvons pas ne pas répondre à leur désir sincère de décider de leur propre destin. Les parlements des républiques populaires du Donbass et les administrations civilo-militaires des régions de Kherson et de Zaporojié ont décidé d’organiser des référendums sur l’avenir de ces territoires et nous ont demandé, à nous la Russie, de soutenir cette démarche.

Je tiens à souligner que nous ferons tout pour garantir des conditions sûres pour les référendums afin que les gens puissent exprimer leur volonté. Et nous soutiendrons la décision sur leur avenir prise par la majorité des résidents des républiques populaires de Donetsk et de Lougansk et des régions de Zaporojié et de Kherson.

Chers amis !

Aujourd’hui, nos forces armées, comme je l’ai déjà dit, opèrent sur une ligne de front qui dépasse les mille kilomètres, affrontant non seulement des formations néonazies, mais en fait toute la machine militaire de l’Occident dans son ensemble.

Dans cette situation, je considère qu’il est nécessaire de prendre la décision suivante — elle est pleinement adaptée aux menaces auxquelles nous sommes confrontés — à savoir, pour protéger notre patrie, sa souveraineté et son intégrité territoriale, pour assurer la sécurité de notre peuple et des populations des territoires libérés, je considère qu’il est nécessaire de soutenir la proposition du ministère de la Défense et de l’état-major général de procéder à une mobilisation partielle en Fédération de Russie.

Je le répète, nous parlons d’une mobilisation partielle, ce qui signifie que seuls les citoyens qui sont actuellement des réservistes seront appelés au service militaire, avant tout ceux qui ont servi dans les forces armées et qui ont certaines spécialités militaires et une expérience pertinente.

Les personnes appelées au service militaire suivront une formation militaire supplémentaire avant d’être déployées dans les unités, en tenant compte de l’expérience de l’opération militaire spéciale.

Le décret sur la mobilisation partielle a été signé.

Conformément à la loi, les chambres de l’Assemblée fédérale – le Conseil de la Fédération et la Douma d’État – en seront officiellement informées par courrier aujourd’hui.

Les mesures de mobilisation commenceront aujourd’hui, le 21 septembre. Je donne instruction aux chefs de région de fournir toute l’assistance nécessaire au travail des commissariats militaires.

J’insiste particulièrement sur le fait que les citoyens russes appelés au service militaire dans le cadre de la mobilisation bénéficieront du statut, des paiements et de toutes les garanties sociales des personnes servant sous contrat.

J’aimerais ajouter que le décret sur la mobilisation partielle prévoit également des mesures supplémentaires pour remplir l’ordre de défense de l’État. Les directeurs du complexe militaro-industriel sont directement responsables de l’augmentation de la production d’armes et d’équipements militaires, ainsi que du déploiement de capacités de production supplémentaires. Par ailleurs, toutes les questions relatives au soutien matériel, financier et en ressources des entreprises de défense doivent être résolues par le gouvernement sans délai.

Chers amis !

Dans sa politique anti-russe agressive, l’Occident a franchi toutes les limites. Nous entendons constamment des menaces contre notre pays et notre peuple. Certains politiciens occidentaux irresponsables ne parlent pas seulement de plans visant à organiser la livraison d’armes offensives à longue portée à l’Ukraine – des systèmes qui permettraient de frapper la Crimée et d’autres régions de Russie.

De telles frappes terroristes, y compris celles utilisant des armes occidentales, ont déjà lieu dans des localités frontalières des régions de Belgorod et de Koursk. L’OTAN effectue une reconnaissance en temps réel dans tout le sud de la Russie en utilisant des systèmes modernes, des avions, des navires, des satellites et des drones stratégiques.

Washington, Londres et Bruxelles poussent directement Kiev à transférer les opérations militaires sur notre territoire. Ils disent déjà ouvertement que la Russie doit être vaincue par tous les moyens sur le champ de bataille, suivie de la privation de sa souveraineté politique, économique, culturelle et de toute autre forme de souveraineté et du pillage complet de notre pays.

Le chantage nucléaire a également été déployé. Nous ne parlons pas seulement du bombardement, encouragé par l’Occident, de la centrale nucléaire de Zaporojié, qui menace de provoquer une catastrophe nucléaire, mais aussi des déclarations de certains hauts représentants des principaux États de l’OTAN sur la possibilité et l’admissibilité d’utiliser des armes de destruction massive – des armes nucléaires – contre la Russie.

Je voudrais rappeler à ceux qui font de telles déclarations sur la Russie que notre pays dispose également de divers moyens de défense, dont certains sont plus avancés que ceux des pays de l’OTAN. Si notre intégrité territoriale est menacée, nous utiliserons bien sûr tous les moyens à notre disposition pour défendre la Russie et notre peuple. Ce n’est pas du bluff.

Les citoyens de Russie peuvent être assurés que l’intégrité territoriale de notre patrie, notre indépendance et notre liberté seront garanties, permettez-moi de le souligner une fois de plus, par tous les moyens à notre disposition. Et ceux qui tentent de nous faire chanter avec des armes nucléaires doivent savoir que la rose des vents pourrait se retourner contre eux.

Il est dans notre tradition historique, dans le destin de notre peuple, d’arrêter ceux qui aspirent à la domination du monde, qui menacent de démembrer et d’asservir notre patrie, notre Mère Patrie. Nous allons le faire maintenant, et nous le ferons.

Je crois en votre soutien.

Vladimir Poutine

Traduction par Christelle Néant pour Donbass Insider

Source : Site officiel du Kremlin




4 heures avec Dre Nicole Delépine

[Source : CANALJAC-K]

Le 16 septembre 2020, la Dre Nicole Delépine, cancérologue et pédiatre retraitée, ancienne cheffe de clinique, apporte son commentaire avec 2 ans ½ de recul sur les propos qu’elle avait tenus le 3 avril 2020, dans une entrevue avec André Bercoff à SudRadio.
Les points traités sont :

  • nouveauté du coronavirus chinois, mais faible mortalité
  • efficacité de l’hydroxychloroquine, associée à l’azithromycine
  • hypocrisie des médecins hospitaliers et leur peur de la hiérarchie
  • refus de soin et injection Rivotril par décrets ministériels
  • médecine théorique, bureaucratique et quantitative contre médecine d’Hippocrate
  • les milliards attendus par Big Pharma du Remdésivir et des vaccins anti-Covid
  • l’inutilité et la toxicité des injections expérimentales pour les enfants et ados.



Pour montrer la cohérence de leur parcours professionnel et de leurs alertes sur la destruction du système de soins en France, diffusion de 6 reportages et entretiens avec la Dre Nicole Delépine et son mari, le Dr Gérard Delépine, entre 2000 et 2018 :



Source de l’entrevue du 3 avril 2020 à SudRadio :
https://www.youtube.com/watch?v=rO_K-yp6LDQ
Adresse de N. Delépine le 10 décembre 2020 via Réinfocovid :
https://odysee.com/@Reinfocovid:2/nicole-del-pine-laissez-les-enfants:8
Site Internet des Drs Nicole et Gérard Delépine :
https://docteur.nicoledelepine.fr/




La face cachée de la campagne de vaccination — cas des « vaccins » à ARNm et ADN

Par Maître NONOBSTANT, avocat au barreau de la Science à l’occasion de la pandémie de Covid-19

(ebook gratuit au format PDF à télécharger et partager)

Découvrez pourquoi la pandémie de Covid-19 est sans doute la plus grosse arnaque de tous les temps et comment les artisans de cette escroquerie se sont organisés pour berner la population mondiale avec la complicité de l’OMS, des gouvernants et des médias mainstream. Découvrez en quoi consiste la démarche scientifique pour ne plus vous faire pigeonner par la propagande covidiste et l’argument d’autorité. Découvrez aussi les objectifs cachés du pass sanitaire/vaccinal et de la campagne de vaccination de masse. Découvrez enfin pourquoi la Résistance contre le covidisme est une nécessité, que vous soyez vacciné ou non.

[Voir aussi les articles complémentaires dans les dossiers :
Vaccins et virus
et
5G et ondes pulsées]

TABLE DES MATIÈRES

Remerciements

Informations juridiques sur les vaccins anti-Covid-19

RÉSUMÉ

Avant-propos

Abréviations, acronymes, conventions

Lexique

INTRODUCTION

Chapitre I. — Le consensus scientifique, la majorité ou l’unanimité font-ils la science ?

Chapitre II. — L’argument d’autorité, l’un des stratagèmes utilisés par l’establishment pour manipuler l’opinion publique

§1. Cas concrets de manipulation de l’opinion publique par les experts médiatiques

§2. Conditions de validité du consensus scientifique, d’une étude scientifique et de l’argument d’autorité

Chapitre III. — Les preuves de mensonges du discours de propagande des autorités, des médias et des experts officiels

§1. Mensonges sur la contagiosité

§2. Mensonges sur la réduction des formes graves

A. Les études princeps n’ont pas apporté la preuve scientifique de l’évitement des formes graves

B. Les études observationnelles ne montrent pas non plus une réduction des formes graves

§3. Contenu caché des vaccins

§4. Toxicité de la protéine Spike

§5. Toxicité des vaccins

§6. Effets indésirables : décès et pathologies multiples

 Décès
 Pathologies multiples
 Effets indésirables en images

§7. Imperfection de la pharmacovigilance

§8. Immunité collective

§9. Surestimation du rapport bénéfices/risques des vaccins

A. Cas des études interventionnelles

B. Cas des études observationnelles

§10. Saturation fictive des hôpitaux par la Covid-19

§11. Laxisme des agences de sécurité des médicaments

§12. Études truquées ou biaisées

A. Du LancetGate à Recovery et consorts

B. Les essais cliniques de Pfizer

C. Les essais cliniques sur les 12-15 ans et les moins de 5 ans

D. L’étude bidonnée de l’institut Pasteur

E. Les études justifiant le confinement

F. L’étude bidonnée de la DREES

 Les études bidonnées d’EPI-PHARE
 L’étude bidonnée du Conseil d’analyse économique
 Les études peu solides invoquées par la HAS et la FDA
 L’article de l’INSEE sur l’impact de l’épidémie de Covid-19

§13. Irresponsabilité pénale et civile de Big Pharma

§14. Vaccination des enfants et des adolescents en bonne santé

§15. Vaccination de masse en période épidémique

Chapitre IV. – Les artisans de la réponse globale à la pandémie et leurs stratagèmes pour cacher diverses arnaques

§1. Les artisans de la réponse globale à la pandémie

A. Dr Anthony Fauci, le patron de la santé publique américaine

B. Klaus Schwab, le fondateur et directeur du Forum économique mondial (Davos)

C. Bill Gates, le cofondateur de Microsoft et de la fondation éponyme

§2. Les diverses arnaques et les stratagèmes utilisés pour les cacher

A. Genèse de la Covid-19

     Origine controversée du SARS-Cov-2
     Succession de faits troublants avant et pendant la pandémie
 Gestion absurde de la crise sanitaire
 Instrumentalisation de la peur
 Contrôle total de la population
     La régulation du stock de la population mondiale
     L’identification biométrique et numérique des Terriens
         Identification biométrique, identité numérique, portefeuille numérique
         Traçage numérique, objets connectés, 5G
         Propagande du rapport sénatorial n° 673
     Un nouvel ordre mondial qui masque une dystopie transhumaniste
         Les prétendus complotistes ont tort d’avoir raison trop tôt
         Le transhumanisme comme horizon
         La nécessité d’une union sacrée pour un autre monde
 Plaintes pour crimes contre l’Humanité
 Bouc émissaire
 Théorie du complot
 Censure et désinformation

Chapitre V. — Bilan de la controverse autour de la balance bénéfices-risques des vaccins

CONCLUSION

BIBLIOGRAPHIE

  • Articles & rapports
  • Collectifs citoyens
  • Conférences
  • Entretiens et confessions
  • Désintoxication contre la protéine Spike et autres toxines vaccinales
  • Documentaires
  • Lanceurs d’alerte
  • Livres
  • Médias indépendants
  • Pfizer Gate
  • Procès Covid-19 pour crime et génocide contre l’Humanité
  • Scientifiques indépendants
  • Observatoires des effets indésirables
  • Observatoires de la pandémie
  • Observatoires des traitements
  • Observatoires de la prophylaxie

ANNEXE

 Le Great Reset et les agendas du Forum énonomique mondial
 Comment retrouver un lien mort ou une vidéo supprimée ?
 Où consulter les liens d’intérêts des professionnels de santé ?
 À l’attention de Monsieur X
 À l’attention des jeunes
 À l’attention des adultes
 Crise alimentaire planifiée pour poursuivre les agendas des globalistes

Article n°1. — Revue de presse internationale n°165 de Pierre Jovanovic
Article n°2. — 20 preuves qu’une pénurie alimentaire va bientôt toucher le monde entier

 Article de Michaël Lord : « Exposed: Klaus Schwab's School For Covid Dictators, Plan for 'Great Reset' (Videos) »
 Qu’en est-il des vaccins anti-Covid classiques, qui n’injectent pas l’ARNm ou l’ADN mais un virus inactivé ?
 Déclaration IV du Global Covid Summit
 Covid-19 : la face cachée de la croisade contre le Pr Raoult et l’hydroxychloroquine




« Survivre avant l’effondrement » — Documentaire

[Source : La Grenouille Gauloise]

Nous sommes en 2056. Un talentueux réalisateur décide d’interviewer des personnes âgées qui sont nées et ont vécu à la fin du 20e siècle, et qui ont connu le monde avant l’effondrement. Ce sont les témoignages de ces survivants de l’ancien monde, qui racontent aux nouvelles générations la folie, l’absurdité, l’iniquité qui régnait alors. Après le grand effondrement de 2020, un monde nouveau voit le jour. Un monde équilibré, raisonnable, pragmatique et sage. Ce documentaire salutaire nous aidera à ne pas oublier le monde d’avant, sa folie, nos erreurs, pour ne plus jamais revivre l’enfer.

[Note de Joseph :
vision d’un avenir hors de notre Système actuel proposée dans le Manifeste pour un nouveau monde
et rendue vivante dans Projet Vulcain.]




Un Évangile de Clovis ?

[Source : Chaîne officielle TVLibertés]

[À partir de la 10e minute, jusqu’à la 20e :]




The Big Reset – Le documentaire non censuré sur la vérité de la pandémie

[Source : Infos et Culture via PG]

Liste des participants : Rashid Buttar, Christian Perronne, Heiko Schöning, Chinda Brandolino, Nadiya Popel, Wolfgang Wodard, Alexandre Juving-Brunet, Alexandra Henrion-Caude, Alfonso Longo, Carlos Vara De Rey, Cristina Martin Jiménez, Luis Miguel Benito, Carlos Astiz, Fernando Lopez Mirones, Gerard Guillaume, German Sarlangue, Grégory Catteau, Javier Villamor, Jean-Dominique Michel, Jon Ander Etxebarria, Louis Aubouin, Luc Montagnier, Michel Maffesoli, Oscar Aguilera, Pablo Campra, Pierre Jovanovic, Pierre Barnérias, Vincent Pavan, Steve Ohana, Valérie Bugault, Xavier Azalbert, Reiner Fullmich. Thebigresetmovie, le 11/09/22 – Version française.






Documentaire : Consentement non éclairé

[Sources : Quantumleap]

Un regard approfondi sur le récit du Covid 19, qui le contrôle et comment il est utilisé pour injecter une nouvelle technologie non testée dans presque chaque personne sur la planète.
Ce film explore notre récente perte des droits de l’homme tout en évoquant l’impact dévastateur des mandats et l’histoire très émouvante de la perte d’un être cher.
Écoutez la vérité de médecins et de scientifiques qui n’ont pas peur de s’opposer à Big Pharma et à l’élite qui profite de ces mandats.



[ou sur Odysee : ]






France — Comment tombera le Pouvoir ?

[Source : ALEXANDRE JUVING-BRUNET]




L’« opération militaire limitée » du Kremlin en Ukraine était une erreur stratégique

[Source : legrandsoir.info]

Par Paul Craig ROBERTS

La troisième guerre mondiale sera la conséquence la plus probable.

Je déteste entendre « Je vous l’avais bien dit » et voilà que j’utilise ces mots.

Comme les lecteurs le savent, je crains depuis de nombreuses années que la tolérance de la Russie à l’égard d’insultes et de provocations sans fin ne continue à encourager des provocations plus nombreuses et plus graves jusqu’à ce que des lignes rouges soient franchies, entraînant un conflit direct entre les deux grandes puissances nucléaires. Pendant toutes ces années, le Kremlin, incapable de comprendre ou d’accepter que son rôle d’ennemi n° 1 de Washington était gravé dans le marbre, s’est appuyé sur une stratégie de réponses nulles ou minimales afin d’atténuer l’image d’une Russie dangereuse et agressive déterminée à restaurer l’empire soviétique.

Cette stratégie diplomatique, comme celle de la Russie en Ukraine, a complètement échoué.

La stratégie désastreuse du Kremlin en Ukraine a commencé lorsque le Kremlin a accordé plus d’attention aux Jeux olympiques de Sotchi qu’au renversement du gouvernement ukrainien par Washington.

Les erreurs du Kremlin se sont accélérées lorsque le Kremlin a refusé la demande du Donbass d’être réuni à la Russie comme l’ancienne province russe de Crimée. Cela a laissé les Russes du Donbass, qui faisaient autrefois partie de la Russie, subir la persécution des milices nazies ukrainiennes, le bombardement de zones civiles et l’occupation partielle par les forces ukrainiennes de 2014 à février 2022, lorsque l’armée russe a commencé à débarrasser le Donbass des forces ukrainiennes afin d’empêcher une invasion ukrainienne préparée des républiques du Donbass. Après avoir attendu 8 ans pour agir, le Kremlin fait maintenant face à une grande armée entraînée et équipée par l’Occident ainsi qu’à des régiments nazis fanatiques.

On aurait pu penser qu’à ce moment-là, le Kremlin aurait appris de ses extraordinaires erreurs et réalisé qu’il devait enfin démontrer qu’il avait été provoqué. Sans aucun doute, ce qui était demandé était une attaque russe qui aurait fermé l’Ukraine, détruisant le gouvernement, toute l’infrastructure civile et mettant fin au conflit immédiatement. Au lieu de cela, le Kremlin a aggravé ses erreurs. Il a annoncé une intervention limitée, dont l’objectif était de chasser les forces ukrainiennes du Donbass. Il n’a pas touché au gouvernement et à l’infrastructure civile de son ennemi, permettant ainsi à ce dernier de résister à l’intervention dans des conditions très favorables.

Pour être clair, il ne fait aucun doute que les Russes peuvent débarrasser le Donbass des forces ukrainiennes et qu’ils ont pratiquement achevé cette tâche. L’erreur du Kremlin a été de ne pas se rendre compte que l’Occident ne permettrait pas que l’intervention soit limitée.

Le Kremlin a mis en garde l’Occident contre toute ingérence dans l’opération, déclarant que si les États-Unis et l’OTAN s’impliquaient, la Russie considérerait ces pays comme des « combattants ». Mais l’Occident s’est impliqué, d’abord lentement et prudemment pour tâter le terrain, puis de plus en plus agressivement, car ce que l’Occident prévoyait à l’origine comme un conflit d’une semaine tout au plus est maintenant dans son septième mois, le Kremlin parlant à nouveau de négociations avec Zelensky et l’avance russe étant apparemment en attente. Loin de traiter les pays de l’OTAN comme des combattants, le Kremlin continue d’approvisionner l’Europe en énergie dans la mesure où l’Europe permet à la Russie de le faire. De hauts responsables russes ont parlé comme si prouver que la Russie est un fournisseur d’énergie fiable était plus important que la vie de ses soldats qui se battent contre des forces ukrainiennes entraînées et équipées par des pays européens dont les industries d’armement fonctionnent grâce à l’énergie russe.

J’ai correctement prédit que les demi-mesures russes entraîneraient l’élargissement de la guerre.

La justesse de mon analyse vient d’être confirmée par un rapport de The Hill, une publication de Washington lue par les initiés. Le rapport s’intitule « Why the US is becoming more brazen with its Ukraine support » et peut être lu ici.

Voici la première phrase du rapport et quelques extraits :

« L’administration Biden arme l’Ukraine avec des armes qui peuvent faire de sérieux dégâts aux forces russes, et, contrairement au début de la guerre, les responsables américains ne semblent pas inquiets de la réaction de Moscou. »

« “Au fil du temps, l’administration a reconnu qu’elle pouvait fournir aux Ukrainiens des armes plus puissantes, plus performantes, plus dangereuses et plus lourdes, et les Russes n’ont pas réagi”, a déclaré l’ancien ambassadeur américain en Ukraine, William Taylor, à The Hill. »

«  “Les Russes ont en quelque sorte bluffé et fanfaronné, mais ils n’ont pas été provoqués. Et il y avait des préoccupations [à ce sujet] dans l’administration au début — il y en a encore dans une certaine mesure — mais la crainte de provoquer les Russes a diminué”, a ajouté Taylor, qui est maintenant à l’Institut américain de la paix. »

« Depuis juin, les États-Unis ont régulièrement augmenté le nombre de systèmes de roquettes d’artillerie à haute mobilité dans le pays, que les membres des services américains ont formé les troupes ukrainiennes à utiliser par lots. »

« À plus long terme, de nombreux rapports indiquent que les États-Unis prévoient d’envoyer prochainement des munitions d’artillerie à guidage de précision Excalibur — des armes qui peuvent parcourir jusqu’à 70 kilomètres et qui aideraient les Ukrainiens à cibler les positions et les postes de commandement russes enfouis. »

« Une partie du changement de message peut être attribuée au fait que Kiev a défié les attentes internationales et n’est pas tombé rapidement lorsque la Russie a attaqué pour la première fois, selon Nathan Sales, un ancien fonctionnaire du département d’État qui a récemment occupé le poste de sous-secrétaire par intérim pour la sécurité civile, la démocratie et les droits de l’homme. »

Comme je l’avais annoncé, l’opération limitée du Kremlin a été perçue en Occident comme une demi-mesure qui a donné à l’Occident l’occasion d’élargir la guerre. Maintenant, à l’approche de l’hiver, le conflit s’élargit avec des livraisons d’armes puissantes à longue portée capables d’attaquer le Donbass, la Crimée et d’autres parties de la Russie depuis l’Ukraine occidentale qui a été épargnée par l’invasion russe.

Comme je l’ai également dit, en prolongeant la guerre avec ses tactiques de ralentissement afin de minimiser les pertes civiles, une noble intention, la Russie a donné à l’Occident la possibilité de caractériser l’intervention russe comme étant à bout de souffle en raison de l’épuisement des munitions et du nombre élevé de victimes russes. L’image de l’échec russe a eu l’effet escompté de rendre l’Occident plus confiant quant à son rôle de combattant. Voici des extraits du rapport de The Hill qui le confirment :

« Une autre partie de l’équation : Des renseignements récents qui indiquent que la Russie ressent la piqûre des sanctions imposées par l’Occident et une force de service militaire qui diminue en puissance à mesure que la guerre s’éternise. »

« Le mois dernier, Reuters a rapporté que les principales compagnies aériennes russes, telles qu’Aeroflot, ont immobilisé leurs avions afin de les dépouiller de leurs pièces détachées, en prélevant des éléments de certains de leurs appareils pour maintenir les autres en état de navigabilité. »

« Et face aux pertes sur le champ de bataille, Poutine a cherché le mois dernier à augmenter les effectifs de combat de la Russie de plus de 130 000 soldats en éliminant la limite d’âge supérieure pour les nouvelles recrues et en encourageant les prisonniers à s’engager. »

« Les responsables américains pensent que cet effort a peu de chances de réussir ».

« Pris dans leur ensemble, les renseignements dressent le portrait d’un pays [la Russie] qui peine à maintenir ses propres institutions, et encore moins à riposter aux nations occidentales pour avoir aidé l’Ukraine. »

« “Je pense que l’instinct des gens dans les départements et les agences, en particulier l’État, la Défense et la communauté du renseignement, est d’aller plus loin et d’être plus agressifs”, a déclaré un ancien haut fonctionnaire du gouvernement. »

« “Nous avons beaucoup plus d’espace de notre côté, je pense, pour prendre des mesures qui aideront l’Ukraine sans avoir une peur injustifiée de la façon dont Poutine va répondre”, ont-ils ajouté. »

On peut raisonner que le Kremlin a fait toutes ces erreurs parce qu’il ne voulait pas effrayer une plus grande partie de l’Europe dans l’OTAN en démontrant ses prouesses militaires dans une conquête éclair de l’Ukraine. Mais ce sont les demi-mesures de la Russie qui ont donné à la Finlande et à la Suède la confiance nécessaire pour rejoindre l’OTAN, car elles ne voient aucune menace pour elles-mêmes du fait d’être membres de l’OTAN. Un coup dévastateur de la Russie en Ukraine aurait amené toute l’Europe à repenser l’adhésion à l’OTAN, car aucun pays européen ne voudrait être confronté à la perspective d’une guerre avec la Russie. Au lieu de cela, ce que le Kremlin a produit, c’est un Premier ministre britannique prêt à engager la Russie dans une guerre nucléaire, et une OTAN qui a l’intention de poursuivre le conflit ukrainien.

Un lecteur négligent ou hostile pourrait conclure de mon article que je suis un partisan du succès militaire russe. Au contraire, je suis un partisan de la minimisation du risque de guerre nucléaire. Steven Cohen et moi sommes les deux personnes qui, dès le début, ont vu comment l’ingérence de Washington en Ukraine avec le renversement du gouvernement traçait une voie qui pouvait aboutir à l’Armageddon nucléaire. Cohen a été honni par sa propre gauche libérale, et j’ai été déclaré « dupe/agent de Poutine ».

Les insultes que nous avons subies ont prouvé notre point de vue. Le monde occidental est aveugle aux conséquences potentielles de ses provocations envers la Russie, et le Kremlin est aveugle aux conséquences potentielles de sa tolérance des provocations. Comme nous pouvons le constater, aucune des deux parties n’a encore pris conscience de cette réalité. Le rapport du Hill démontre la justesse de mon analyse de la situation et de ma prédiction que le résultat serait un élargissement de la guerre et une plus grande probabilité d’erreurs de calcul pouvant aboutir à une guerre nucléaire.

Source : https://www.paulcraigroberts.org/2022/09/06/the-kremlins-limited-milit…

URL de cet article 38221
https://www.legrandsoir.info/l-operation-militaire-limitee-du-kremlin-en-ukraine-etait-une-erreur-strategique.html




L’UE mise à genoux par les Straussiens

[Source : voltairenet.org]

Par Thierry Meyssan

Pour le professeur Leo Strauss, il valait mieux être Hitler que tomber dans ses mains.

À partir de 1949, le philosophe allemand juif Leo Strauss enseigna à l’université de Chicago. Il constitua bientôt un petit groupe de disciples juifs, choisis parmi ses élèves. Il leur délivra un enseignement oral, bien différent de ses écrits. Selon lui, les démocraties avaient montré leur incapacité à protéger les juifs de la solution finale nazie. Pour éviter que ce drame ne se reproduise et que le marteau ne s’abatte à nouveau sur eux, ses disciples devaient donc se placer de l’autre côté du manche. Il leur conseilla d’édifier leur propre dictature.

Organisant ses disciples, Leo Strauss les appela ses « hoplites » (les soldats de Sparte). Il les éduqua à aller perturber les cours de certains de ses collègues professeurs.

Plusieurs des membres de cette secte ont occupé de très hautes fonctions aux États-Unis et en Israël. Le fonctionnement et l’idéologie de ce groupuscule ont fait l’objet de controverses après les attentats du 11 septembre 2001. Une abondante littérature a opposé les partisans et les adversaires du philosophe. Les faits sont cependant indiscutables.(([1] Les spécialistes de la pensée politique de Leo Strauss l’interprètent de manière très contradictoire. Pour ma part, je ne m’intéresse pas à ce que pensait le philosophe d’auteurs classiques, mais à ce que professent ceux qui, à tort ou à raison, se réclament de lui au Pentagone et, désormais, au département d’État. Political Ideas of Leo Strauss, Shadia B. Drury, Palgrave Macmillan (1988.) ; Leo Strauss and the Politics of American Empire, Anne Norton, Yale University Press (2005) ; The Truth About Leo Strauss : Political Philosophy and American Democracy, Catherine H. Zuckert & Michael P. Zuckert, University of Chicago Press (2008) ; Leo Strauss and the conservative movement in America : a critical appraisal, Paul Edward Gottfried, Cambridge University Press (2011) ; Crisis of the Strauss Divided : Essays on Leo Strauss and Straussianism, East and West, Harry V. Jaffa, Rowman & Littlefield (2012) ; Leo Strauss and Anglo-American Democracy : A Conservative Critique, Grant Havers, Cornell University Press (2013) ; Leo Strauss and the Invasion of Iraq : Encountering the Abyss, Aggie Hirst, Routledge (2013) ; Leo Strauss, The Straussians, and the Study of the American Regime, Kenneth L. Deutsch, Rowman & Littlefield (2013) ; Straussophobia : Defending Leo Strauss and Straussians Against Shadia Drury and Other Accusers, Peter Minowitz, Lexington Books (2016) ; Leo Strauss in Northeast Asia, Jun-Hyeok Kwak & Sungwoo Park, Routledge (2019).))

Des auteurs antisémites ont amalgamé, à tort, les straussiens, les communautés juives de la diaspora et l’État d’Israël. Or, jamais l’idéologie de Leo Strauss n’a été discutée dans le monde juif avant le 11-septembre. D’un point de vue sociologique, il s’agit d’un phénomène sectaire, pas du tout représentatif de la culture juive. Toutefois, en 2003, les « sionistes révisionnistes » de Benjamin Netanyahu conclurent un pacte avec les straussiens US, en présence d’autres dirigeants israéliens(([2] « Sommet historique pour sceller l’Alliance des guerriers de Dieu », Réseau Voltaire, 17 octobre 2003.)). Cette alliance ne fut jamais publicisée.

Une des caractéristiques de ce groupuscule est d’être prêt à tout. Par exemple, ils voulaient faire revenir l’Iraq à l’âge de pierre. C’est effectivement ce qu’ils ont fait. Pour eux tous les sacrifices sont possibles, y compris pour eux-mêmes, pourvu qu’ils restent les premiers ; pas les meilleurs, les premiers !(([3] Pour une brève histoire des straussiens, voir : « Vladimir Poutine déclare la guerre aux Straussiens », par Thierry Meyssan, Réseau Voltaire, 5 mars 2022.))

Paul Wolfowitz

En 1992, un conseiller du secrétaire à la Défense, le straussien Paul Wolfowitz, rédigea le Defense Planning Guidance. C’était le premier document officiel US reflétant la pensée de Leo Strauss(([4] Le rapport de 1976 de l’« Équipe B » accusant l’URSS de vouloir dominer le monde n’était pas un exposé de la doctrine, mais un argument de propagande pour la justifier.)). Wolfowitz a été initié à la pensée de Strauss par le philosophe états-unien Allan Bloom (ami du Français Raymond Aron), il n’a lui-même connu que brièvement le maître à la fin de son enseignement à Chicago. Cependant, l’ambassadrice US à l’ONU, Jeane Kirkpatrick, l’a reconnu comme « une des grandes figures straussiennes ».(([5] Entretien avec James Mann, cité dans Rise of the Vulcans : The History of Bush’s War Cabinet, James Mann, Viking (2004).))

Dans le contexte de la dissolution de l’Union soviétique, Wolfowitz développe une stratégie pour maintenir l’hégémonie des États-Unis sur la totalité du reste du monde.

Le Defense Planning Guidance aurait dû rester confidentiel, mais le New York Times en révéla les principales lignes et en publia des extraits(([6] « US Strategy Plan Calls For Insuring No Rivals Develop » Patrick E. Tyler, New York Times, March 8, 1992. Le quotidien publie également de larges extraits en page 14 : « Excerpts from Pentagon’s Plan : « Prevent the Re-Emergence of a New Rival » ».)). Trois jours plus tard, le Washington Post en révéla d’autres détails(([7] « Keeping the US First, Pentagon Would preclude a Rival Superpower » Barton Gellman, The Washington Post, March 11, 1992.)). En définitive, le texte original ne fut jamais rendu public, mais une version retouchée par le secrétaire à la Défense (et futur vice-président), Dick Cheney, circula.

On sait que le document initial se fonde sur une série de réunions auxquelles trois autres personnes, toutes straussiennes, ont participé : Andrew Marshall, le « penseur » du Pentagone (qui fut remplacé trois ans après sa mort par Arthur Cebrowski), Albert Wohlstetter, le penseur de la stratégie de dissuasion atomique, et son gendre Richard Perle, le futur directeur du Defense Policy Board. Le Defense Planning Guidance a été rédigé par un élève de Wohlstetter, Zalmay Khalilzad (futur ambassadeur à l’Onu).

Le document évoque un nouvel « ordre mondial […] au final soutenu par les États-Unis », dans lequel l’unique superpuissance n’aurait plus que des alliances conjoncturelles, au gré des conflits. L’ONU et même l’OTAN seraient de plus en plus mises sur la touche. Plus largement, la doctrine Wolfowitz théorise la nécessité pour les États-Unis de bloquer l’émergence de tout compétiteur potentiel à l’hégémonie états-unienne, notamment les « nations industrielles avancées » telles que l’Allemagne et le Japon. Particulièrement visée, l’Union européenne :

« Bien que les États-Unis soutiennent le projet d’intégration européenne, nous devons veiller à prévenir l’émergence d’un système de sécurité purement européen qui minerait l’OTAN, et particulièrement sa structure de commandement militaire intégré ».

Les Européens seront ainsi priés d’inclure dans le Traité de Maastricht une clause subordonnant leur politique de défense à celle de l’OTAN, tandis que le rapport du Pentagone préconise l’intégration des nouveaux États d’Europe centrale et orientale au sein de l’Union européenne, tout en leur faisant bénéficier d’un accord militaire avec les États-Unis les protégeant contre une éventuelle attaque russe.(([8] « Paul Wolfowitz, l’âme du Pentagone », par Paul Labarique, Réseau Voltaire, 4 octobre 2004.))

Or, depuis trente ans, ce document est patiemment mis en œuvre.

Le Traité de Maastricht inclut effectivement au titre V, article J4, un paragraphe 4 qui stipule :

« La politique de l’Union au sens du présent article n’affecte pas le caractère spécifique de la politique de sécurité et de défense de certains États membres, elle respecte les obligations découlant pour certains États membres du traité de l’Atlantique Nord et elle est compatible avec la politique commune de sécurité et de défense arrêtée dans ce cadre ».

Ces dispositions ont été reprises dans les différents textes jusqu’à l’article 42 du traité sur l’Union européenne. Les États, anciennement membres du Pacte de Varsovie, ont presque tous adhéré à l’Union européenne. Cette décision a été un choix imposé par Washington et annoncé par le secrétaire d’État James Baker juste avant la réunion du Conseil européen qui l’a avalisée.

En 2000, Paul Wolfowitz fut, avec Zbignew Brzezinki, l’orateur principal d’un vaste colloque ukraino-US à Washington, organisé par les « nationalistes intégraux » ukrainiens réfugiés aux USA. Il y prit l’engagement de soutenir l’Ukraine indépendante, de provoquer une entrée en guerre de la Russie contre elle, et au final de financer la destruction du rival renaissant des États-Unis.(([9] Cf. « Ukraine : la Seconde Guerre mondiale ne s’est jamais terminée », par Thierry Meyssan, Réseau Voltaire, 26 avril 2022.))

Ces engagements ont été mis en application avec l’adoption, le 28 avril 2022, de l’Ukraine Democracy Defense Lend-Lease Act of 2022(([10] Ukraine Democracy Defense Lend-Lease Act of 2022, US Congress.)). L’Ukraine est désormais dispensée de toutes les procédures de contrôle des armements, notamment des certificats de destination finale. Des armes très coûteuses sont cédées en prêt-bail par les USA à l’UE pour défendre l’Ukraine. Lorsque la guerre sera finie, les Européens devront payer ce qu’ils auront consommé. Et l’addition sera lourde.

Victoria Nuland et Anthony Blinken dans le bureau de John Kerry

Bien que les élites européennes aient jusqu’à présent bénéficié de leur alliance avec les États-Unis, elles ne doivent pas s’étonner, au vu du Defense Planning Guidance, que ceux-ci tentent de les détruire aujourd’hui. Elles ont déjà vu ce dont Washington était capable après les attentats du 11 — Septembre : Paul Wolfowitz interdit aux pays qui avaient exprimé des réserves sur cette guerre, comme l’Allemagne et la France, de conclure des contrats pour la reconstruction de l’Iraq.(([11] « Instructions et conclusions sur les marchés de reconstruction et d’aide en Irak », par Paul Wolfowitz, Réseau Voltaire, 10 décembre 2003.))

Actuellement, la hausse des prix des sources d’énergie à laquelle s’ajoute désormais leur raréfaction menace non seulement le chauffage et le transport des particuliers, mais surtout la survie de toutes leurs industries. Si ce phénomène se prolonge, c’est l’économie de l’Union européenne dans son ensemble qui s’effondrera brutalement ramenant sa population au moins un siècle en arrière.

Ce phénomène est difficile à analyser, car les prix et la disponibilité des sources d’énergie varient en fonction de nombreux facteurs.

En premier lieu, les prix dépendent de l’offre et de la demande. Ils ont donc remonté avec le redémarrage économique global de la fin de l’épidémie de Covid-19.

En second lieu, les sources d’énergie sont les principales cibles des spéculateurs. Plus encore que les monnaies. Le prix mondial du pétrole peut être multiplié par 2,5 uniquement par effet de la spéculation.

Jusque là, tout est habituel et connu. Mais les sanctions occidentales contre la Russie, à la suite de son application de l’Accord de Minsk II dont elle s’était portée garante devant le Conseil de sécurité, ont cassé le marché mondial. Désormais, il n’y a plus de prix global, mais des prix différents selon les pays des vendeurs et des clients. Il existe toujours des prix cotés en bourse à Wall Street et à la City, mais ils n’ont aucun rapport avec ceux pratiqués à Beijing et à New Delhi.

Surtout, le pétrole et le gaz, qui étaient abondants dans l’Union européenne, commencent à y manquer, alors qu’au plan global, ils sont toujours surabondants.

Tous nos repères sont bousculés. Nos outils statistiques, conçus pour le marché global, ne sont absolument pas adaptés à la période actuelle. Nous ne pouvons donc que poser des hypothèses, sans aucun moyen de les vérifier. Cette situation permet à beaucoup de raconter n’importe quoi avec un air docte ; en fait nous évoluons tous au jugé.

L’un des facteurs actuels est le reflux des dollars qui servaient aux échanges et à la spéculation et qui ne sont plus utilisables pour ces transactions dans certains pays. Cette monnaie, principalement virtuelle, quitte la Russie et ses alliés pour aller ou revenir dans les pays où elle a encore cours. Il s’agit là d’un phénomène gigantesque que la Réserve fédérale et les armées US ont toujours voulu éviter, mais que les straussiens de l’administration Biden (le secrétaire d’État Antony Blinken et son adjointe Victoria Nuland) ont délibérément provoqué.

Persuadés à tort que la Russie a envahi l’Ukraine et tente de l’annexer, les Européens s’interdisent de commercer avec Moscou. En pratique, ils consomment toujours du gaz russe, mais ils se persuadent que Gazprom va leur couper le robinet. Leur presse a, par exemple, annoncé que la compagnie russe fermait le gazoduc Nord Stream, alors qu’elle avait annoncé une interruption technique de trois jours. Habituellement, les livraisons des gazoducs sont interrompues pour maintenance pendant deux jours, tous les deux mois. Ici, Gazprom a été entravé dans son entretien par le blocus occidental qui empêchait qu’on lui retourne les turbines qu’il avait envoyées en réparation au Canada. Peu importe, les populations ont compris que les méchants Russes leur avaient coupé le gaz à la veille de l’hiver.

La propagande européenne vise à préparer l’opinion publique à une fermeture définitive du gazoduc et à en faire porter la responsabilité à la Russie.

Dans cette affaire, les dirigeants de l’Union ne font qu’appliquer les directives des straussiens. Ce faisant, ils sabordent l’industrie européenne au détriment de leurs citoyens. Déjà quelques usines à forte consommation d’énergie ont réduit leur production, voire ont fermé.

Ladislav Vrábel a organisé la première manifestation pro-russe dans l’Union européenne. Cet entrepreneur de 44 ans s’était déjà fait remarquer en contestant les mesures contraignantes de Bruxelles contre l’épidémie de Covid-19.

Le processus de décrépitude de l’Union européenne se poursuivra tant que personne n’osera s’y opposer. À la surprise générale, une première manifestation favorable à la Russie s’est tenue, le 3 septembre à Prague. La police a admis la présence de 70 000 personnes (pour un pays de 10 millions d’habitants), mais ils étaient probablement beaucoup plus nombreux. Les commentateurs politiques les méprisent et les considèrent comme les « idiots utiles de Poutine ». Mais ces insultes masquent mal le malaise des élites européennes.

Les experts en matière d’énergie considèrent inévitables des coupures de courant dans toute l’Union. Seule la Hongrie, qui a obtenu préalablement des dispenses, pourrait échapper aux règles du marché unique de l’énergie. Ceux qui pourront produire de l’électricité devront la partager avec ceux qui en sont incapables. Peu importe que cette incapacité soit le fruit d’une malchance ou d’une imprévoyance.

Bruxelles devrait commencer par des baisses de tension, puis décréter des coupures la nuit, et enfin le jour. Les particuliers auront des difficultés à entretenir des ascenseurs, à chauffer leurs logements en hiver, à faire la cuisine s’ils utilisent des plaques électriques et ceux qui utilisent des trains, des autobus ou des voitures électriques, devraient avoir des difficultés pour se déplacer. Les entreprises qui consomment beaucoup d’énergie, comme les hauts fourneaux, devraient fermer. Des infrastructures devraient devenir impraticables, comme les tunnels longs qui ne pourront plus être aérés. Surtout les installations électroniques conçues pour fonctionner en continu ne supporteront pas des coupures répétées. Ce sera par exemple le cas des antennes indispensables aux réseaux de téléphonie mobile qui seront bonnes à jeter au bout de trois mois de ce traitement.

Dans les pays du tiers-monde où l’électricité est rare, on utilise des leds à batterie pour s’éclairer et des UPS pour alimenter des machines à faible consommation, comme les ordinateurs ou des télévisions. Mais ces matériels sont pour le moment absents des commerces dans l’Union.

Le PIB de l’UE a déjà baissé de près de 1 %. Cette récession se poursuivra-t-elle comme le planifient les straussiens ou les citoyens de l’Union l’interrompront-ils comme tente de le faire une partie du peuple tchèque ?

Les straussiens iront jusqu’au bout. Ils ont profité de la décadence états-unienne pour s’arroger le vrai Pouvoir. Puisqu’un junkie, jamais élu, peut utiliser des avions officiels à gogo pour faire des affaires partout dans le monde(([12] « La décadence de l’Empire états-unien », par Thierry Meyssan, Réseau Voltaire, 6 septembre 2022.)), ils se sont discrètement installés dans l’ombre du président Biden et gouvernent à sa place. Les dirigeants européens, eux, sont soit aveugles, soit trop engagés pour s’arrêter, reconnaître leurs trente ans d’erreurs et faire demi-tour.

Ce qu’il faut retenir :
► Les straussiens forment une secte fanatique prête à tout pour maintenir la suprématie des États-Unis sur le monde. Ils ont imaginé les guerres qui endeuillent le monde depuis trente ans et celle d’Ukraine aujourd’hui.
► Ils ont persuadé l’Union européenne que Moscou voulait annexer d’abord l’Ukraine, puis toute l’Europe centrale. Sur ce, ils ont convaincu Bruxelles de stopper tout commerce avec la Russie.
► La crise énergétique qui débute dirige l’Union européenne vers des coupures d’électricité et de courant qui feront des ravages sur le mode de vie de ses citoyens et sur son économie.





Pourquoi il faut se méfier de l’Europe d’Ursula von der Leyen

[Source : Marianne]

Habillée aux couleurs du drapeau ukrainien, la présidente de la commission européenne Ursula von der Leyen a prononcé ce 14 septembre son troisième discours sur l’état de l’union. S’y esquisse une vision d’un futur européen qui peut inquiéter…

[Voir aussi :
Discours fou de Ursula Von der Leyen
SMS entre Ursula von der Leyen et le PDG de Pfizer : la Cour des comptes européenne tire la sonnette d’alarme]




Que deviendrait une société sans psychopathes ?

[Source : Les Quinquas Citoyens]

Le principe de dominance et de soumission n’est pas une fatalité chez les babouins
[Pourquoi devrait-il être une fatalité pour les humains ?]




Rappel : comment un tyran se fait-il obéir ?

[Extrait (par Fenice PANOZZO) du film I comme Icare]




Et encore un gros média-mensonge sur le conflit en Ukraine

Le paroxysme d’une outrance mensongère !

[Source : alawata-rebellion]

Par Erwan Castel

Le 11 septembre dernier, dans un article titré « Population russe en danger », j’avais évoqué la forte probabilité de voir apparaître des cadavres dans le sillage médiatique de l’offensive ukrainienne de Balajlaïa, et dans l’intention réchauffée depuis des mois de diaboliser encore et toujours Poutine cet ennemi public n° 1 intergalactique de la pensée unique occidentale dont je rappelle que les pays qu’elle prétend représenter ne constituent que 17,8 % de la population mondiale. 

Et bien, cela n’a pas loupé ! Et les caniveaux médiatiques occidentaux de déverser dans les rues un nouveau « média-mensonge », pour reprendre l’expression de Michel Collon, exhibant un « charnier » de l’armée russe découvert près d’Izioum (front de Kharkov, au nord de Slaviansk).

Donc rien de surprenant concernant cette nouvelle théâtralisation russophobe du conflit, sauf peut-être le paroxysme toujours plus haut de cette grossièreté du narratif mensonger dont l’outrance et l’aplomb propagandistes révèlent surtout à mes yeux l’extrême naufrage du sens critique des populations occidentalisées dont la liberté de conscience est ravalée dans les culs de basse fosse de l’esclavage de la pensée unique.

Car il suffit, même pour un quidam arrivant dans cette tragédie européenne, d’ouvrir les yeux quelques secondes pour comprendre de qui sont les corps exhumés par les autorités ukrainiennes près d’Izioum !

De quoi s’agit-il ?

Car il s’agit ni plus ni moins que d’un cimetière où ont été enterrés des soldats ukrainiens (environ 500 au total) tués lors des combats d’Izioum de mars 2022. Les forces russes, devant le refus du commandement ukrainien de récupérer immédiatement leurs corps ont donc enterré ces soldats plutôt que de les laisser pourrir et en leur donnant de surcroît une sépulture chrétienne !

Et la bien-pensance occidentale veut aujourd’hui nous faire croire que ces cadavres déterrés « présentant des traces de morts violentes » (comme généralement tout soldat mort au combat !) seraient les victimes d’un crime de guerre de masse, mais dont les auteurs, plutôt que de faire disparaître les corps, se seraient donné la peine de les enterrer individuellement et de marquer leur sépulture ? 

Sérieusement de qui se moque-t-on dans les officines médiatiques occidentales ?

Ici encore, les thuriféraires occidentaux de ce manichéisme dominant toutes les propagandes, coiffant leur arrogance du mortier des procureurs, n’attendent même pas comme d’habitude ni la conclusion ni même le début d’une quelconque enquête pour nous jeter à la figure des conclusions fantasmées par leur haine russophobe incontrôlée. Et dans les forêts d’Izioum, ces Torquemada et ces tartuffes de la bien-pensance ukro-atlantiste tentent de nous rejouer cette fois le théâtre de Timisoara avec une dramaturgie mode Katyn !

Mais le plus pathétique reste certainement ce troupeau de drogués cathodiques qui — dans leurs salles de shoot que sont France 24, BFM TV, France 2, etc. — avalent des anacondas en s’agenouillant en chœur devant l’autel d’une bien-pensance occidentale qui pourtant, de plus en plus ouvertement, les prend pour des cons.

Jamais la « servitude volontaire » occidentale qu’Étienne de la Boétie décrivait déjà en 1574 n’a atteint un tel paroxysme de stupidité suicidaire que celui de cette russophobie hystérique !

Erwan Castel


Boutcha 2.0 à Izioum : L’Ukraine utilise des civils tués par des bombardements et les tombes de ses soldats pour jouer la carte du massacre

[Source : donbass-insider.com]

Par Christelle Néant

Sans surprise après la reprise d’Izioum, près de Kharkiv, par les forces armées ukrainiennes (FAU), l’Ukraine nous fait une réédition de Boutcha, en essayant d’utiliser les tombes de civils tués par des bombardements et celles de ses soldats tués pendant la bataille pour la prise de contrôle de la ville, pour faire croire à un massacre de civils par les Russes.

Si le « massacre d’Izioum » est une réédition de celui de Boutcha, ce dernier était lui-même une réédition de celui de Timisoara. Après autopsie des corps de Boutcha, la presse britannique a annoncé que des dizaines de civils trouvés dans les fosses communes à Boutcha avaient été tués par des tirs d’artillerie et non exécutés.

Plus précisément, ils ont été tués par des fléchettes en métal qui se trouvaient dans des obus. Sans surprise les médias britanniques disent qu’il s’agit d’obus russes, sauf que personnellement j’ai pu constater que les fameuses fléchettes métalliques sont utilisées par l’armée ukrainienne dans le Donbass depuis 2014 (j’en ai trouvé plusieurs à Zaïtsevo, qui est quotidiennement bombardé par l’armée ukrainienne depuis le début du conflit) !

D’ailleurs, les officiers du bataillon Vostok (que nous avions interviewés il y a quatre ans sur la mort d’Andrea Rocchelli, un reporter italien) à Slaviansk en 2014) en parlaient déjà :

https://www.youtube.com/embed/UxOB1iAazT0

La Russie qui a de bien meilleures armes que l’Ukraine n’a pas besoin d’utiliser ces fléchettes métalliques pour infliger un maximum de dégâts aux troupes adverses. L’armée ukrainienne oui (information pour mes « confrères » britanniques, l’Ukraine aussi dispose d’obus d’artillerie de 122 mm, et pas seulement la Russie). En clair, une bonne partie des civils morts à Boutcha l’ont été lors de bombardements ukrainiens !

Et pour ceux qui montrent des traces d’exécutions, je rappelle ce que j’ai déjà démontré dans mon deuxième article sur Boutcha, à savoir que les forces ukrainiennes qui ont « nettoyé » la ville ont exécuté ceux considérés comme des collaborateurs des Russes.



Méthode qu’elles utilisent de nouveau en région de Kharkiv, sans s’en cacher.





Le conseiller de Zelensky, Alexeï Arestovitch a d’ailleurs clairement menacé de mort ou de prison les gens qui collaborent avec la Russie, y compris de simples maîtresses d’école !



Des groupes ukrainiens sur Telegram publient même les données personnelles des « collaborateurs » façon Mirotvorets pour qu’ils soient traqués. Et si ces gens se font assassiner par les Ukrainiens, nul doute que leur exécution sera mise sur le dos des Russes.

L’Ukraine peut aussi compter sur un autre facteur pour jouer la carte du massacre : ses nombreux soldats tués lors des combats pour la prise de contrôle d’Izioum, dont l’armée ukrainienne avait abandonné les corps dans sa retraite. Au lieu de laisser les corps pourrir dehors, les soldats russes les ont enterrés dignement, dans des tombes collectives ou individuelles, surmontées d’une croix portant la mention « ВСУ» (Forces Armées Ukrainiennes), comme on peut le voir sur les photos de Radio Svoboda. Sur l’une d’elles, il y a même une photo avec le nom du soldat concerné.

Dans l’article, l’auteur parle de tombes de soldats et de civils ukrainiens, en disant que ces derniers sont enterrés dans des tombes sans nom. Sauf que sur les photos, on voit bien que plusieurs tombes comportent des plaques nominatives, et certaines sont même fleuries, ce qui indique qu’il s’agit de tombes d’habitants de la ville qui y ont encore de la famille !

De plus, si les Russes avaient réellement massivement exécuté des civils à Izioum, pourquoi se seraient-ils embêtés à les enterrer individuellement avec une croix et tout le rituel funéraire adéquat ?

Le fait d’avoir enterré civils et soldats ukrainiens autant que faire se peut dans des tombes individuelles avec une croix, et le nom de la personne, ou une indication du fait qu’il s’agisse de soldats, montre que les Russes ont fait preuve d’humanité envers les morts qu’ils ont trouvés après les combats pour la prise d’Izioum.

D’ailleurs dans un autre article de Radio Svoboda, un responsable ukrainien, Oleg Kotenko, dit que sur certaines tombes la date de la mort est indiquée et qu’elle correspond à des moments d’intenses bombardements de la ville.

« Certains ont la date du décès écrite dessus, nous comprenons que pendant ces jours, il y a eu de lourds bombardements d’Izioum. Les personnes décédées dans des maisons, des appartements, dans la rue ont été enterrées ici », a déclaré Kotenko.

En clair, comme à Boutcha, une bonne partie des civils enterrés ont été tués lors des combats par des bombardements. Rien à voir avec des exécutions de masse.

Pour se faire une idée de la façon dont les civils vivaient sous contrôle russe dans cette zone, allez voir le reportage de Patrick Lancaster (en anglais) :

https://www.youtube.com/embed/3iFv5jxInOc

Le premier homme interviewé dit clairement que 70 % des bâtiments endommagés l’ont été par des bombardements ukrainiens, et seulement 30 % par les bombardements russes. Le deuxième raconte comment des soldats russes ont sauvé un homme touché par des shrapnels. Plusieurs hommes se trouvant à l’hôpital racontent comment l’armée ukrainienne a détruit leur maison, ou les a blessés en bombardant une zone civile.

Pour en revenir au « massacre » d’Izioum, je passerai rapidement sur les tentatives pitoyables de nous inventer des histoires de chambre de torture en filmant une cave où rien n’indique que quoi que ce soit s’y soit passé. À part qu’il y a du linoléum au sol et que c’est bien pratique pour nettoyer le sang au cas où (oui on est tombé aussi bas niveau propagande éco+)… Mais il n’y a aucun moyen de savoir où se trouve cette cave, et il n’y a aucune trace de quoi que ce soit.https://t.me/warfakes/6681?embed=1

Quant au chiffre annoncé du nombre de corps de soldats ukrainiens enterrés dans cette forêt (à peine 20 à 25 sur plus de 400 tombes) il ne tient pas la route au vu de l’intensité des combats qui ont eu lieu pour la prise de contrôle de la ville il y a quelques mois. Surtout que l’abandon des cadavres de ses soldats par l’armée ukrainienne est une constante depuis le début du conflit dans le Donbass. Régulièrement la RPD et la RPL (Républiques populaires de Donetsk et de Lougansk) devaient publiquement rappeler à l’Ukraine qu’elles avaient des corps de leurs soldats pour que ces derniers soient enfin récupérés.

De plus, un post de la chaîne Telegram russe « Zapiski Veterana » datant de juillet indique qu’environ 500 corps de soldats avaient été abandonnés par l’armée ukrainienne près d’Izioum, et enterrés là par les soldats russes. D’après cette même chaîne, le commandement russe avait contacté à plusieurs reprises les commandants ukrainiens pour leur demander d’envoyer des équipes funéraires afin qu’ils récupèrent leurs morts.

Un couloir humanitaire était même prévu pour ça afin de garantir la sécurité de ces équipes. Mais le commandement ukrainien n’a jamais répondu et les soldats ukrainiens ont été enterrés par les soldats russes.

Un fait confirmé par Andreï Medvedev, un journaliste russe, qui a filmé la récupération et l’inhumation de soldats ukrainiens abandonnés en plein champ par les FAU près d’Izioum. Or on voit à la fin de la deuxième vidéo, filmée en mai 2022, un endroit ressemblant à celui des photos de Radio Svoboda !

Au vu de tous ces éléments, il devient évident que le nombre de soldats ukrainiens enterrés dans cette forêt à Izioum est très certainement supérieur au chiffre donné par les autorités ukrainiennes, qui « convertissent » ces soldats ainsi que les civils tués lors des bombardements, en « civils exécutés par les Russes ». Une technique bien pratique pour hurler au massacre…




Comment je vis Hors Système : Simplicité Volontaire — Autonomie — Vie Alternative

[Source : Solo Frey]




Le Tétralogue — Roman — Chapitre 3

[Voir :
Le Tétralogue — Roman — Prologue & Chapitre 1
Le Tétralogue — Roman — Chapitre 2]

Par Joseph Stroberg

​3 — Soin urgent

Le chemin vers la demeure de Jiliern fut parcouru sans encombre. Elle habitait dans une modeste maison de pierres à plusieurs centaines de pas de Tilnern. Elle se sentait ainsi plus proche des lieux sauvages où elle devait rechercher les cristaux. La façade avant ne présentait que deux fenêtres et une porte en bois. La blessée se détacha de Tulvarn pour ouvrir cette dernière avant de rentrer et de lui demander de le suivre à l’intérieur. Ils se retrouvèrent dans une petite pièce équipée d’une simple table et d’un meuble accoté au mur qui leur faisait face. Les pierres des murs, la charpente de bois et les tuiles en terre cuite de la toiture étaient classiquement apparentes. Jiliern rangeait sa maigre vaisselle dans ce dernier sur l’étagère centrale, profitant de la place restante pour y stocker une grande variété de cristaux et de roches aux propriétés diverses. Elle vouait sa vie à ces derniers et n’entretenait qu’un rapport minimal avec la cuisine et les tâches ménagères. Sur la gauche de la cuisine se trouvait sa chambre et sur la droite, un garde-manger moyennement garni, surtout de fruits séchés et de conserves, ainsi qu’une pièce pour ses besoins corporels et d’hygiène.

— Votre demeure ressemble beaucoup à celle de mes parents, mentionna Tulvarn en s’approchant de la table.

— Oh ! vous savez, presque toutes celles du continent sont similaires, à quelques détails près, répondit Jiliern. Certaines, devant abriter des familles plus nombreuses, disposent de pièces plus grandes, mais rarement de davantage d’entre elles. Il paraît que sur les autres continents, elles peuvent être différentes, mais je n’y suis pas allée moi-même. La différence fondamentale entre les divers logis réside bien davantage dans leur mobilier, les artisans du bois se faisant une fierté d’apporter leur touche personnelle à leurs œuvres. Pour ceux de la pierre, il n’y a pas trente-six manières de construire des maisons solides qui peuvent franchir les siècles. Ceci explique leurs ressemblances.

— Je ne saurais dire, car j’ai vécu toute ma jeunesse sans sortir de mon village natal. Il a fallu le meurtre de mes parents pour m’en chasser. Je n’ai pas d’autre famille que mes relations au temple.

— Eh bien, je ne suis pas loin d’être dans la même situation que vous. Je n’ai qu’un lointain cousin qui réside sur le continent Gworni. Je ne l’ai jamais vu.

— Que sont devenus vos parents ? Vous n’avez pas non plus de frères et de sœurs ?

— Ils sont tous morts lors de l’épidémie de zeldis.

— Oh ! vous m’en voyez navré !

— Personne n’y peut rien. Ils sont dans un monde meilleur maintenant, s’il a plu au Grand Satchan.

— Soyez sûr que ça lui plaît toujours. Mon maître nous a souvent dit qu’il n’existait aucune ségrégation à ce niveau. Le processus de la mort est universel et tout le monde passe par les mêmes étapes, même si la perception de ces dernières peut différer pour différentes raisons, notamment à cause des croyances préalables de l’individu.

— Et vous le croyez ? Comment pourrait-il en être si sûr ?

— Lui-même est revenu de la mort, et lui et quelques autres maîtres du temple savent communiquer avec les trépassés.

— Mais comment être sûr qu’ils racontent la vérité ? Ce pourrait être des histoires pour nous rassurer, non ?

— Je ne pense pas. Nous avons appris aussi divers moyens de reconnaître quelqu’un qui ment. Tout d’abord, il se trahit par des gestes particuliers, tels que des rictus dissymétriques du visage. Mais surtout, sa vibration change.

— Comment pouvez-vous reconnaître cette « vibration » ?

— C’est une lecture subtile de l’individu, « psychique » si vous voulez. Et nous l’avons éprouvée lors d’exercices en commun avec certaines personnes qui mentaient volontairement et d’autres qui disaient la vérité sur divers sujets. Nous sentons lorsque quelqu’un ment, à condition de faire le vide d’émotions et de pensées, afin que celles-ci n’interfèrent pas sur le résultat de la lecture. Autrement, nous pourrions ne pas accepter le verdict, si je puis dire, et par exemple trouver que quelqu’un ment parce qu’il nous déplaît, engendre en nous des sentiments négatifs, alors qu’il dit la vérité. Et inversement, nous pourrions accorder du crédit à quelqu’un qui nous plaît alors qu’il ment manifestement et que nous le sentons bien. Nous tendons alors à nous baser sur les perceptions émotionnelles au lieu des plus subtiles et bien plus fiables. Nous refusons d’écouter la sensation de mensonge au détriment du caractère agréable de la présence ou de l’allure de l’individu.

— Je comprends. Mais je ne saurais pour ma part comment faire pour repérer cette vibration.

— Cela s’apprend. Et je pourrais vous montrer si vous m’accompagniez dans mon voyage. En fait, la plupart des gens l’ont déjà fait, mais ne le réalisent pas. Et je suis presque sûr que vous-mêmes savez déjà repérer ainsi le mensonge. Seulement, vous n’en avez pas pris conscience, peut-être parce que vous avez laissé cela se noyer dans des émotions ou des pensées diverses.

— Je ne sais pas. Je veux bien vous croire.

— Il ne s’agit pas de me croire sur parole. Je pourrais vous raconter des histoires ou simplement le résultat de mes propres illusions.

— Ha ! Ha ! Oui, je vois. Nous sommes en plein dans le sujet : apprendre à discerner la vérité du mensonge.

— En effet, confirma Tulvarn en souriant.

— Pour revenir à des préoccupations plus concrètes, voulez-vous manger quelque chose ? Pour ma part, j’ai horriblement faim.

— Dans votre état, c’est normal. Vous devez reconstituer votre volume sanguin perdu. Mais avant tout, il vous faudrait boire. Pour répondre à votre question, je mangerais bien quelque chose en effet, sauf peut-être des abats de tulkarn.

— Ha ! Ha ! Un fin connaisseur. Vous savez ce qu’il vaut mieux éviter. Pour ce qui est de boire, oui, je n’y manquerai pas. J’ai également dramatiquement soif. Je vais chercher de l’eau au puits.

— Je vous accompagne. Vous êtes encore faible.

— Si vous y tenez. Mais c’est tout prêt. Il ne devrait pas m’arriver grand-chose en si peu de temps.

— On ne sait jamais. Ce qui vous a attaqué pourrait nous avoir suivis.

— C’est vrai. Je n’y pensais plus. Bon, venez dans ce cas. Je serai plus rassurée de vous avoir près de moi, le sabre prêt à servir.

— Bien, alors allons chercher cette eau !

Jiliern et Tulvarn sortirent aussitôt, apercevant en face d’eux Matronix partiellement visible sur l’horizon. Vivement éclairé par Dévonia qui se trouvait derrière eux, l’astre énorme était magnifique. Ils contournèrent la maison par la gauche pour se diriger vers le puits qui se trouvait derrière, à l’abri d’un grand arbre aux larges feuilles. Son feuillage avait la propriété de faire s’écouler l’eau vers la périphérie. Celle-ci s’infiltrait progressivement dans le sol et se trouvait plus tard récupérée par le large réseau de racines. Le tronc et les branches demeuraient secs en permanence, évitant ainsi plus facilement la présence de champignons parasites.

Le puits lui-même était alimenté par une nappe d’eau plus profonde en provenance de la montagne. Dès qu’ils furent à sa hauteur, Jiliern se saisit d’un seau au pied du puits et l’accrocha à la corde du moulinet. Quelques instants plus tard, alors que Tulvarn surveillait les alentours, elle remonta le seau plein, puis ils rentrèrent sans problème à la maison.

— Finalement, nous n’avons eu aucune mauvaise surprise, constata Jiliern soulagée.

— En effet, mais tant que nous ignorons ce qui vous a blessée, peut-être vaut-il mieux se montrer trop prudent que pas assez. Vous sentez-vous d’ailleurs capable de rester seule ici ensuite, lorsque je serai parti ?

— Hum, je crains que non, maintenant. Jamais je n’avais eu pareille mésaventure. Peu de bêtes agressives demeurent maintenant dans la vallée, la plupart d’entre elles ayant été chassées par la Horde. Mais ignorer quelle en est la cause de ma blessure me paraît plus effrayant. Je ne pourrais plus continuer à chercher les cristaux comme avant en pleine nuit. Et le faire en plein jour m’est plus difficile, comme je vous l’ai mentionné.

— Alors, que comptez-vous faire ? Préférez-vous vous joindre à moi dans ma folle entreprise dont rien ne dit qu’elle aboutira ?

— Quelle entreprise ?

— Je pars chercher une relique mystérieuse nommée le Tétralogue.

— Jamais entendu parler !

— Pas étonnant, malheureusement. Même mon maître ne sait presque rien du sujet, à part le fait qu’elle aurait appartenu à un Saint-Homme de Zénovia. Je ne sais rien de lui, absolument rien, à supposer qu’il ait effectivement vécu.

— Mais alors, pourquoi partir à la recherche de cette relique ?

— Parce que j’ai rêvé d’elle et que je sens que je dois la chercher.

— Vous agissez toujours en fonction de vos rêves ?

— Non, c’est la première fois.

— Pourquoi seulement cette fois-ci ?

— Ce rêve était vraiment spécial. Je ne peux pas facilement expliquer en quoi. Son intensité. Son caractère très réel. Son étrangeté… Et son message. Je dois y aller ! Je n’aurai pas de repos tant que je n’aurai pas trouvé la relique.

— Eh bien, j’espère pour vous qu’elle existe !

— Je l’espère aussi. Maintenant que vous en savez un peu plus, je réitère ma question : voulez-vous vous joindre à moi ou préférez-vous rester ici ?

— En temps ordinaire, je vous aurais certainement répondu par la négative. Mais vous m’avez pratiquement sauvé la vie et j’ai désormais peur de rester seule ici.

— Vous ne connaissez personne au village qui pourrait vous aider ?

— Oui et non. Je connais presque tous les villageois, oui, car il est petit : quelques centaines d’habitants. Mais j’ai toujours été un peu marginale ici, n’en étant pas originaire et pratiquant un métier qui ne favorise pas l’intégration.

— Pourtant vos cristaux semblent prisés ?

— Les peaux de la Horde aussi, si on va par là. Mais ce n’est pas suffisant pour lier des relations profondes. Il faut quelque chose d’autre que je n’ai pas su trouver. Je me sens toujours comme une étrangère. Et les villageois le sentent aussi, même si par ailleurs ils sont très gentils. Alors, je dois être aussi folle que votre projet, car je vais vous suivre.

— Cela vous paraît plus facile de vous intégrer à un moine ? interrogea Tulvarn avec une pointe d’amusement dans la voix.

— Ha ! Ha ! Ha ! Vous ne manquez pas d’humour. Sérieusement, ce sera certainement plus facile pour moi de m’adapter à votre présence qu’à Tilnern.

— J’ose l’espérer, sinon vous risquez de regretter votre décision. En attendant, il vaut mieux que votre blessure soit suffisamment guérie avant de nous mettre en route.

— Oh pour ça, je vais accélérer le processus en utilisant un de mes cristaux de guérison, une teclonite dont la propriété est d’accélérer grandement la cicatrisation et la régénération des tissus lésés. En quelques heures de traitement, je devrais être de nouveau capable de marcher sans boiter.

— Alors, je vous laisse procéder. Et si vous n’y voyez pas d’inconvénient, je vais me reposer.

— Allez-y ! Vous pouvez vous allonger sur mon lit dans la chambre. Ce sera plus confortable que par terre ou que sur cette chaise.

— Merci, répondit Tulvarn en se dirigeant tranquillement vers la chambre.

Jiliern resta seule dans la pièce principale et alla chercher sa teclonite dans le meuble, avant de la déplacer à un pouce de sa blessure en suivant des mouvements apparemment aléatoires. En réalité, elle dessinait un motif complexe lié à ses méridiens énergétiques, ses vaisseaux sanguins principaux et les nerfs dont elle connaissait instinctivement la localisation précise. C’était inné chez elle, comme pour sa perception des roches et des cristaux, même si elle ignorait pourquoi.

(Suite : Le Tétralogue — Roman — Chapitre 4)




Nicolas Vidal : « La France est une immense réserve naturelle d’autruches et de tubes digestifs. »




Opposition contrôlée et infiltration : comment les reconnaître ?

[Source : LMDR]






Le FRANC LIBRE : deux mois plus tard. Point de situation et perspectives

[Source : ALEXANDRE JUVING-BRUNET]

[Voir aussi :
Devenez la Force qui se dressera quand le vent de l’Histoire va souffler
Franc Libre et tournée CSP : point de situation
Résilience et Résistance pour la France]




France — RSA : le parcours du combattant !

[Source : LMDR]






REVUE DE PRESSE DU 15 SEPTEMBRE 2022

Par MF

ÉDITO
Le début du bon sens commence au Danemark ?

Un frémissement se fait jour, du Danemark à la marine américaine, reconnaissant que la maladie Covid ne présente pas de risque pour les enfants et adultes de moins de 50 ans, ou renonçant à l’obligation vaccinale pour certains personnels, tandis qu’en France les « suspendus » sont toujours sans ressource depuis un an, que l’inefficacité des vaccins n’a d’égale que la corruption et la fraude qui les entourent, et que la chasse aux lanceurs d’alerte se poursuit.

POLITIQUE ET SOCIÉTÉ

Le Pr Perronne, marqueur de la répression gouvernementale

« Dans le monde tordu du COVID, Perronne est forcément un dissident. Il croit que l’on peut soigner sans vacciner. Il croit que la bureaucratie passe après l’intelligence. Il croit que l’intérêt général précède les turpitudes politiques ».

La répétition générale a eu lieu en 2009

https://www.aimsib.org/2022/09/11/la-pseudo-pandemie-grippale-de-2009-en-france-etait-une-repetition-generale/

«  la « gestion » de la grippe A(H1N1)v s’est appuyée sur une menace sanitaire exagérée pour organiser de grandes manœuvres sanitaires, financières, politiques et militaires dont l’ampleur et le coût collectif restent encore à préciser ».

ÉTRANGER

Danemark, avant 50 ans les vaccins anti-covid ne sont plus recommandés

https://www.francesoir.fr/societe-sante/danemark-le-vaccination-anti-covid-n-est-plus-recommandee-aux-moins-de-50-ans#.YyIUkxlsUgk.twitter

« Les personnes âgées de moins de 50 ans n’encourent généralement pas de risque particulièrement élevé de faire une forme grave de la maladie/les enfants et les adolescents contractent rarement des formes graves de la maladie grâce au variant Omicron du Covid-19 ».

USA – la marine renonce à l’obligation vaccinale pour son personnel

https://www.aubedigitale.com/la-marine-americaine-renonce-discretement-a-la-vaccination-obligatoire-des-seals/

« Le gouvernement américain persiste à refuser de reconnaître l’immunité naturelle comme un statut acceptable pour l’armée ou les employés fédéraux, bien que leurs tentatives d’imposer la preuve de la vaccination (passeports vaccinaux) aient de toute façon échoué. »

USA – les fausses informations du CDC sur la sécurité des vaccins

https://www.anguillesousroche.com/coronavirus/la-directrice-des-cdc-admet-que-lagence-a-donne-de-fausses-informations-sur-le-suivi-de-la-securite-du-vaccin-covid-19/

Le « manque global de transparence des CDC est inacceptable, en particulier à la lumière des déclarations incohérentes des CDC sur cette question ».

JUSTICE

Soignants suspendus, un an sans salaire

https://www.francesoir.fr/societe-sante/suspendus-les-professionnels-de-sante-sans-salaire-depuis-le-15-septembre-2021

« Un an après la suspension des soignants non vaccinés contre le Covid-19, de nombreux Français n’ont pas conscience de leurs conditions de vie, certains pensant qu’ils ont été réintégrés suite l’abolition du passe sanitaire. Une ignorance qui s’explique par le silence des grands médias à ce sujet. »

La justice examine la plainte de Didier Raoult contre Karine Lacombe

https://www.ouest-france.fr/sante/virus/coronavirus/covid-19-la-justice-examine-la-plainte-de-didier-raoult-contre-l-infectiologue-karine-lacombe-ae4f1308-3040-11ed-9e46-e8e99a9e99a0

INJECTIONS

Pas de protection contre les formes graves

https://reinfocovid.fr/science/efficacite-du-vaccin-contre-une-forme-grave-le-deces/

« Au niveau mondial… l’évolution du nombre de décès n’est pas impactée significativement par l’introduction des vaccins. Le discours qui consiste à répéter que les vaccins protègent des formes graves, ici le décès, n’est pas fondé. Au bout de 18 mois, et des milliards de doses administrées, le doute n’est plus permis. »

EFFETS INDÉSIRABLES

La preuve des lésions provoquées par les vaccins à ARNm

https://www.epochtimes.fr/preuve-irrefutable-que-les-vaccins-a-arnm-provoquent-des-lesions-vasculaires-et-organiques-etude-2108059.html

« Cette étude, de par le type de colorants qu’ils utilisent, apporte la preuve irréfutable que la protéine spike va partout – le cœur, les ovaires, le foie, la rate – et dans une moindre mesure, les testicules »

MAIS :

« Ceux qui ont attiré l’attention sur les dangers que représentent ces injections Covid ont été largement censurés et tournés en dérision. »

RÉSISTANCES

CSI n°71 du 15 septembre 2022



« Invité : Jean Dominique MICHEL membre du CSI, pratique l’anthropologie depuis 25 ans. Il intervient en santé publique auprès d’universités et de hautes écoles Sujet : Les mesures de confinement : est-elle la plus grande erreur de santé publique de l’histoire ? »

Colloque de Lisbonne, corruption et fraude dans la crise Covid

https://coroinfo.wordpress.com/2022/09/11/corruption-et-fraude-dans-la-crise-covid-depuis-2020-colloque-des-10-et-11-septembre-2022/

« Le tableau complet reflétera le rôle de la corruption dans la dérive totalitaire, la fraude qui permet la manipulation des masses et l’obtention de leur consentement.
Il est donc essentiel d’y voir clair, et l’enjeu de cette conférence est de
fournir des outils pour un discernement plus aiguisé. »




La Fondation Rockefeller investit des millions dans le projet Mercury afin de soumettre les peuples à la vaccination

[Source : lemediaen442.fr]

Par Jacqueline

Un groupe de milliardaires « philanthropes » américains consacrent des millions de dollars à la recherche en psychologie comportementale pour inciter à se faire vacciner contre le covid-19. Il s’agit d’une énorme opération de communication appelée Projet Mercury. Son slogan est « Ensemble, nous pouvons construire un environnement d’information plus sain ».


Certains mauvais esprits ont décrit ce projet comme de la propagande, du nudging (une méthode d’influence discrète), de la publicité. Il faut dire que Mercure est le dieu romain du commerce et des voleurs. L’objectif du projet Mercury est que chacun ait l’illusion de vouloir librement se faire vacciner, alors que ce sont des procédés marketing qui l’ont convaincu. Notons que le jeu de mots « con vaincu » indique une sacrée défaite de la pensée. L’intérêt du projet Mercury serait, lors de la prochaine pandémie programmée, d’éviter des méthodes musclées (confinement, pass sanitaire), jugées incompatibles avec la paix sociale.

La Fondation Rockefeller — du nom du philanthrope bien connu — a financé le projet Mercury à hauteur de 7,2 millions de dollars en novembre 2021. La National Science Foundation (une agence « indépendante » du gouvernement américain) a apporté 20 millions de dollars supplémentaires. Les autres partenaires sont le Conseil de recherche en sciences sociales (SSRC), la Fondation Robert Wood Johnson, Craig Newmark Philanthropies et la Fondation Alfred P. Sloan. La Fondation Rockefeller est partenaire, membre du conseil d’administration et donateur de GAVI, aux côtés du WEF, de la Fondation Bill & Melinda Gates et de la Johns Hopkins Bloomberg School of Public Health, qui a accueilli l’événement 201 (simulation de la propagation d’un coronavirus juste avant la véritable pandémie de covid-19).

Convaincre la clientèle de la prochaine pandémie

Les fonds soutiendront des universitaires américains. Selon Décoder l’éco, les pauvres seraient les premiers à se méfier des vaccins, donc les premiers à convaincre (voir à 22’53 de cette vidéo). La plupart des chercheurs sont donc dans des pays au faible niveau de vie : en Afrique du Sud, Bolivie, Brésil, Côte-d’Ivoire, Ghana, Haïti, Inde, Kenya, Malawi, Mexique, Nigeria, Rwanda, Sénégal, Sierra Leone, Tanzanie et Zimbabwe. On suppose que, grâce à la Fondation Rockefeller, ces chercheurs auront accès à de meilleurs revenus que leurs compatriotes. Les recherches, sur trois ans, ont pour objectif d’adapter les récits sur les bienfaits de la vaccination covid aux différents milieux ethniques et politiques pour les convaincre de se faire vacciner.

De surcroît, convaincre les pays pauvres d’accepter les vaccins dont les pays développés ne veulent pas pourrait éviter le dépassement des dates de péremption. En France, McKinsey a oublié ce malencontreux problème de date de péremption. Mérite-t-il le milliard versé par les Français ? Conséquence de cette imprévoyance : Covax (Bill Gates) a distribué au Nigeria 2,6 millions de doses d’AstraZeneca, dont 500 000 venant de France avec une durée de vie de cinq à sept semaines. Plus d’un million de doses polluantes ont dû être enfouies dans la décharge de Gosa, près d’Abuja, capitale du Nigeria.

La manipulation des masses par les cabinets-conseils en France

Les ministères ont entièrement délégué les appels d’offres à l’Union des Groupements d’Achats Publics. Le 13 août 2022, un accord a été signé avec divers cabinets-conseils pour 375 millions d’euros sur 4 ans. Ce sont les cabinets-conseils qui, depuis 1990, ont trouvé la meilleure politique de santé pour la France : réduire le nombre de lits d’hôpitaux. Pourquoi ne pas continuer ? Certes, mais à condition d’employer leurs techniques de manipulation, afin de convaincre que réduire le nombre de lits est la solution aux problèmes créés par ces irresponsables qui tombent malades. À ce sujet, voir et revoir l’inoubliable déclaration de Jean Castex.

B. A.-BA de manipulation des masses

Chomsky nous explique les bases de la manipulation de masse. Nul doute que McKinsey et sa marionnette présidentielle s’en sont inspirés.

1. La stratégie de la distraction. Détourner l’attention du vrai problème. Le dernier exemple de détournement de la pensée, nous le devons à Emmanuel Macron. Il a trouvé la solution au manque de lits : une grande consultation sur l’euthanasie, et tellement moins coûteuse que des soins palliatifs qui encombrent les lits d’hôpitaux.
2. Créer des problèmes puis offrir une solution. François Braun, ministre de la Santé, a avoué devant le Sénat que la variole du singe est une arme chimique (le bon terme serait plutôt « biologique ») et que son vaccin est secret défense ! De là à penser que le coronavirus serait d’une origine similaire, il a fallu un prix Nobel pour oser évoquer cette hypothèse. Les médias, bien plus compétents que lui, l’ont d’ailleurs traité de complotiste, de savant fou controversé, etc.
3. Faire accepter l’inacceptable progressivement. Emmanuel Macron le 27 décembre 2020 : « Je l’ai dit, je le répète : le vaccin ne sera pas obligatoire. Ayons confiance en nos chercheurs et médecins. Nous sommes le pays des Lumières et de Pasteur, la raison et la science doivent nous guider. » Après ces belles paroles, le 18 août 2021, la vaccination est devenue obligatoire pour les soignants.
4. La stratégie du différé. Pour faire accepter une décision impopulaire, la présenter comme « douloureuse mais nécessaire », en obtenant l’accord du public dans le présent pour une application dans l’avenir. Macron annonce « la fin de l’abondance », « des évidences » et « de l’insouciance ». De la même façon que les vaccins étaient présentés comme « sûrs et efficaces », la prochaine politique de restrictions et d’inflation est justifiée ainsi : « Il faut d’abord raisonner en se demandant si c’est efficace et utile ».
5. S’adresser au public comme à des enfants en bas âge. (Regarder les médias pour les exemples.)
6. Faire appel à l’émotionnel plutôt qu’à la réflexion. (Regarder les médias pour les exemples.)
7. Maintenir le public dans l’ignorance et la bêtise. (Regarder les médias pour les exemples.)
8. Encourager le public à se complaire dans la médiocrité. Encourager le public à trouver « cool » le fait d’être bête, vulgaire, et inculte… (Hanouna sur TPMP, McFly et Carlito à l’Élysée, etc.).
9. Remplacer la révolte par la culpabilité. Voir l’intervention de Sarah Saldmann à propos des Français en arrêt de maladie (c’est quoi ces feignasses ?)
10. Connaître les individus mieux qu’ils ne se connaissent eux-mêmes. Là on touche à l’arrogance de classe. On est loin du proverbe paysan, Nul ne me connaît mieux que moi-même, mais en pleine théorie marketing. Voir là.

Sur la théorie de la manipulation, les amateurs de BD peuvent se plonger dans Manipulator, par Makyo, éditions les arènes BD.

Le but de la manipulation de masse est : comment mieux entourlouper. Rendre les foules plus libres et plus heureuses sans arnaque (métaverse, illusions) n’a donné lieu à aucune théorie. Un projet de ce genre ne semble pas intéresser les fondations philanthropiques. À contempler leurs merveilleux sites et leurs équipes souriantes, on se demande pourquoi, avec tant de moyens, de bienveillance et d’intelligence déployés, le monde n’est pas devenu meilleur.

Jacqueline pour Le Média en 4-4-2.