La faillite imminente de l’empire américain

Nous devons prendre conscience de ce qui nous attend. Si nous nous laissons envoûter, nous sombrerons dans un cauchemar où les outils de répression paveront la voie à de terrifiants États totalitaires.

[Source : SPIRIT’S FREESPEECH]

[Illustration : Donald Trump et Joe Biden lors d’un débat présidentiel américain le 22 octobre 2020 à Nashville, Tennessee. (Photo : Kevin Dietsch via Alamy)]

Par Chris Hedges, le 18 juin 2024

Le monde tel que nous le connaissons est gouverné par une classe exclusive de racketteurs américains qui opèrent avec un armement et des fonds virtuellement illimités, comme le révèle le livre de Matt Kennard.


La perception publique de l’empire américain, du moins pour ceux qui, aux États-Unis, n’ont jamais observé l’empire dominer et exploiter les « damnés de la terre », est radicalement éloignée de la réalité.

Ces illusions fabriquées, sur lesquelles Joseph Conrad a écrit avec tant de clairvoyance, partent du principe que l’empire est une force pour le bien. L’empire, nous dit-on, favorise la démocratie et la liberté. Il répand les bienfaits de la « civilisation occidentale ».

Ce n’est là qu’une supercherie répétée ad nauseam par des médias complaisants et colportée par les politiciens, les universitaires et les puissants. Mais ce ne sont que des mensonges, comme le savent tous ceux d’entre nous qui ont consacré des années aux reportages à l’étranger.

Dans son livre « The Racket », Matt Kennard, qui a réalisé des reportages en Haïti, en Bolivie, en Turquie, en Palestine, en Égypte, en Tunisie, au Mexique, en Colombie et dans bien d’autres pays, soulève le voile. Il expose les mécanismes occultes de l’empire. Il en détaille la brutalité, le mensonge, la cruauté et les illusions dangereuses qui les animent.

Au stade ultime du règne de l’empire, l’image vendue à un public crédule gagne les mandarins de l’empire. Ils prennent des décisions basées non pas sur la réalité, mais sur leur vision déformée du réel, teintée selon leur propre mode de propagande.

Matt nomme cela « le racket ». Aveuglés par l’orgueil et le pouvoir, ils en viennent à croire à leurs propres tromperies, propulsant l’empire vers un suicide collectif. Ils se réfugient dans un imaginaire où les faits bruts et dérangeants n’entrent plus en ligne de compte.

Ils substituent à la diplomatie, au multilatéralisme et à la politique des menaces unilatérales et le recours brutal à la guerre. Ils deviennent les architectes aveugles de leur propre destruction.

« Au stade ultime de l’empire, l’image vendue à un public crédule commence à en gagner les mandarins ».

Matt écrit que

« Quelques années après mon arrivée au Financial Times, certaines choses ont commencé à se clarifier. J’ai pris conscience de l’écart entre ma vision des choses et celle de tous ceux qui travaillaient dans ce milieu — les collaborateurs de l’Agence des États-Unis pour le développement international (USAID), les économistes du Fonds monétaire international (FMI), etc. ».

Il explique qu’« Alors que je commençais à mieux cerner le fonctionnement réel du racket, je ne les voyais plus que comme des dupes consentants. Il ne fait aucun doute qu’ils semblaient croire en la vertu de la mission : ils s’imprégnaient de toutes les théories destinées à maquiller l’exploitation mondiale dans une rhétorique du “développement” et du “progrès”. Je l’ai constaté avec les ambassadeurs américains en Bolivie et en Haïti, et les innombrables autres responsables que j’ai interrogés ».

« Ils croient sincèrement à ces mythes », conclut-il, « et sont bien sûr grassement payés pour le faire. Pour aider ces agents du racket à se lever le matin, il existe également, dans tout l’Occident, un contingent bien garni d’intellectuels dont le seul but est de faire accepter le crime et la brutalité à l’ensemble de la population des États-Unis et de leurs alliés racketteurs ».

« En envahissant l’Afghanistan et l’Irak, les États-Unis ont commis l’une des plus grandes bévues stratégiques de leur histoire, qui a sonné le glas de l’empire. »

Les États-Unis ont commis l’une des plus grandes bévues stratégiques de leur histoire, qui a sonné le glas de l’empire, en envahissant et en occupant pendant deux décennies l’Afghanistan et l’Irak.

Les artisans de cette guerre dans la Maison-Blanche de George W. Bush, et l’ensemble des idiots utiles de la presse et du monde universitaire qui l’ont encouragée, ne connaissaient pas grand-chose des pays à envahir. Ils croyaient à l’incivilité de leur supériorité technologique.

Ils ont été pris au dépourvu par la féroce riposte et la résistance armée qui les ont vaincus. C’est ce qu’avaient prédit ceux d’entre nous qui connaissaient le Moyen-Orient — j’étais chef du bureau du Moyen-Orient pour le New York Times, je parlais arabe et j’ai fait des reportages dans la région pendant sept ans.

Mais ceux qui ont voulu faire la guerre lui ont préféré un fantasme réconfortant. Ils ont affirmé, et probablement cru, que Saddam Hussein détenait des armes de destruction massive, alors qu’ils ne disposaient d’aucune preuve tangible à l’appui de cette affirmation.

Ils ont prétendu que la démocratie s’implanterait à Bagdad et se répandrait dans tout le Moyen-Orient. Ils ont assuré au public que les troupes américaines seraient accueillies comme des libérateurs par des Irakiens et des Afghans reconnaissants. Ils ont promis que la reconstruction serait financée par les bénéfices tirés de l’exploitation du pétrole.

Ils ont aussi fait valoir que cette frappe militaire audacieuse et rapide — « choc et stupeur » — rétablirait l’hégémonie américaine dans la région et sa domination dans le monde. C’est l’inverse qui s’est produit. Comme l’a exprimé Zbigniew Brzeziński :

« Cette guerre unilatérale voulue contre l’Irak a précipité le processus de délégitimation généralisée de la politique étrangère américaine ».

État de guerre

Depuis la fin de la Seconde Guerre mondiale, l’Amérique est devenue une stratocratie, c’est-à-dire un gouvernement dominé par le pouvoir militaire. Les préparatifs de guerre sont permanents. Les budgets colossaux de la machine de guerre sont sacro-saints. Les milliards de dollars de gaspillage et de fraude sont ignorés.

Les fiascos militaires en Asie du Sud-Est, en Asie centrale et au Moyen-Orient sont évacués dans le vaste trou noir de l’amnésie historique. Cette amnésie, dédouanant toute responsabilité, permet à la machine de guerre de passer d’une débâcle militaire à une autre tout en éviscérant le pays sur le plan économique.

Les militaristes gagnent toutes les élections. Ils ne peuvent pas perdre. Il est impossible de voter contre eux. L’État de guerre est un « Götterdämmerung » [un Crépuscule des dieux »], comme l’écrit Dwight Macdonald, « mais sans les dieux ».

Depuis la fin de la Seconde Guerre mondiale, le gouvernement fédéral a investi plus de la moitié de ses recettes fiscales dans des opérations militaires passées, présentes et futures. C’est la principale activité du gouvernement.

Les systèmes militaires sont vendus avant même leur production, avec la garantie que les énormes dépassements de budget seront couverts.

« Le public américain finance la recherche, le développement et la construction de systèmes d’armes, puis achète ces mêmes systèmes d’armes pour le compte de gouvernements étrangers. »

L’aide étrangère est subordonnée à l’achat d’armes américaines. L’Égypte, qui perçoit quelque 1,3 milliard de dollars de financement militaire étranger, est tenue de les consacrer à l’achat et à l’entretien de systèmes d’armes américains.

Israël, quant à lui, a déjà reçu 158 milliards de dollars d’aide bilatérale de la part des États-Unis depuis 1949, dont la quasi-totalité depuis 1971 sous forme d’aide militaire, dont la majeure partie a été consacrée à l’achat d’armes auprès de fabricants d’armes américains.

Les pouvoirs publics américains financent la recherche, le développement et la construction de systèmes de défense, puis achètent ces mêmes systèmes pour le compte de gouvernements étrangers, en un système circulaire de soutien aux entreprises.

Au cours de l’année précédant septembre 2022, les États-Unis ont dépensé 877 milliards de dollars pour l’armée, soit plus que les dix pays suivants réunis — dont la Chine, la Russie, l’Allemagne, la France et le Royaume-Uni.

Ces colossales dépenses militaires, ainsi que les coûts en augmentation d’un système de santé à but lucratif, ont porté la dette nationale américaine à plus de 31 000 milliards de dollars, soit près de 5 000 milliards de dollars de plus que l’ensemble du produit intérieur brut (PIB) des États-Unis.

Ce déséquilibre n’est pas viable, surtout quand le dollar ne sera plus la monnaie de réserve mondiale. En janvier 2023, les États-Unis ont dépensé le montant record de 213 milliards de dollars en intérêts sur leur dette nationale.

L’empire « à la maison »

La machine militaire, en détournant des fonds et des ressources vers des guerres sans fin, éviscère et appauvrit sa nation, comme l’illustrent les reportages de Matt à Washington, Baltimore et New York.

La facture publique — sur le plan social, économique, politique et culturel — est catastrophique. Les travailleurs vivent en dessous du seuil de pauvreté et sont la proie des entreprises qui ont privatisé tous les aspects de la société, des soins de santé à l’éducation en passant par le complexe carcéro-industriel.

Les militaristes détournent les fonds des programmes sociaux et d’infrastructure. Ils investissent dans la recherche et le développement de systèmes de défense et négligent les technologies liées aux énergies renouvelables. Ponts, routes, réseaux électriques et digues s’effondrent. L’état des écoles se dégrade. L’industrie manufacturière nationale est en déclin. Notre système de transport public est en lambeaux.

La police militarisée tire sur des gens de couleur, pauvres et pour la plupart non armés, et alimente un système pénitentiaire et carcéral qui compte 25 % des prisonniers dans le monde, alors que les Américains ne représentent que 5 % de la population mondiale.

Les villes, désindustrialisées, tombent en ruine. L’addiction aux opioïdes, le suicide, les fusillades de masse, la dépression et l’obésité morbide sont autant de fléaux affectant une population en proie à un profond désespoir.

Les sociétés militarisées constituent le terreau fertile des démagogues. Les militaristes, comme les démagogues, perçoivent les autres nations et cultures à leur propre image, menaçante et agressive. Ils ne recherchent que la domination. Ils colportent l’illusion d’un grand retour à l’âge d’or mythique de la domination totale et de la prospérité illimitée.

La profonde désillusion et la colère qui ont permis l’élection de Donald Trump — une réaction au coup d’État des entreprises et à la misère qui frappe au moins la moitié du pays — ont détruit le mythe d’une démocratie fonctionnelle.

« La machine militaire, en détournant les fonds et les ressources vers des guerres sans fin, éviscère et paupérise la nation sur son sol. »

Comme le note Matt, « L’élite américaine qui s’est engraissée du pillage à l’étranger mène également une guerre à domicile. Depuis les années 1970, les mêmes mafieux en col blanc ont gagné une guerre contre le peuple des États-Unis, sous la forme d’une escroquerie massive et souterraine. Ils ont lentement mais sûrement réussi à vendre une grande partie de ce que le peuple américain possédait sous le couvert de diverses idéologies frauduleuses telles que le “libre échange”. C’est l’“American way”, une gigantesque escroquerie, une énorme arnaque ».

Il poursuit : « En ce sens, les victimes du racket ne se trouvent pas seulement à Port-au-Prince et à Bagdad, mais aussi à Chicago et à New York. Ceux-là mêmes qui élaborent les mythes sur nos agissements à l’étranger ont également mis en place un système idéologique analogue qui légitime le vol chez nous, le pillage des plus pauvres par les plus riches. Les pauvres et les travailleurs de Harlem ont plus en commun avec les pauvres et les travailleurs d’Haïti qu’avec leurs élites, mais pour que le racket opère, il faut l’occulter ».

« En fait, de nombreuses mesures prises par le gouvernement américain nuisent généralement aux plus pauvres et aux plus démunis de ses citoyens », conclut-il.

« L’Accord de libre-échange nord-américain (ALENA) en est un bon exemple. Il est entré en vigueur en janvier 1994 et constitue une opportunité fantastique pour les intérêts commerciaux américains, car les marchés se sont ouverts à une manne d’investissements et d’exportations. En parallèle, des milliers de travailleurs américains ont perdu leur emploi au profit de travailleurs mexicains, dont les salaires ont été cassés pour payer de plus pauvres encore. »

Auto-immolation

Le public, bombardé de propagande de guerre, applaudit à son auto-immolation. Il se délecte des prouesses militaires américaines, d’une ignoble beauté. Il s’exprime au moyen des clichés destructeurs de pensée déversés par la culture et les médias de masse. Elle s’imprègne de l’illusion de la toute-puissance et se complaît dans l’autoadulation.

Le mantra de l’État militarisé est la Sûreté nationale. Si le débat porte a priori sur la Sûreté nationale, la réponse inclura toujours la force ou la menace de la force. Le souci des menaces internes et extérieures divise le monde en amis et en ennemis, en bons et en méchants.

Ceux qui, comme Julian Assange, exposent les crimes et la folie suicidaire de l’empire sont impitoyablement persécutés. La vérité, celle que Matt met au jour, est amère et rude.

« Ceux qui, comme Julian Assange, dénoncent les crimes et la folie suicidaire de l’empire sont impitoyablement persécutés. »

« Alors que les empires naissants se montrent souvent avisés, voire rationnels, dans l’utilisation des armes pour conquérir et contrôler leurs territoires d’outre-mer, les empires sur le déclin ont tendance à faire étalage de leur puissance de manière inconsidérée, rêvant de coups d’éclat militaires audacieux qui leur permettraient de restaurer le prestige et la puissance perdus »,

écrit l’historien Alfred McCoy.

« Souvent irrationnelles, même du point de vue de l’empire, ces micro-opérations militaires peuvent se traduire par des hémorragies budgétaires ou des défaites humiliantes et accélérer ainsi le processus déjà engagé. »

Nous devons à tout prix prendre conscience de ce qui nous attend. Si nous nous laissons envoûter par les images des murs de la caverne de Platon, ces images qui nous bombardent sur nos écrans jour et nuit, si nous ne parvenons pas à comprendre le fonctionnement de l’empire et son caractère autodestructeur, nous sombrerons tous, notamment avec l’imminence de la crise climatique, dans un cauchemar hobbesien où les instruments de répression, si familiers aux confins de l’empire, paveront la voie à de terrifiants États corporatistes totalitaires.

* Chris Hedges a travaillé pendant près de vingt ans comme correspondant étranger pour le New York Times, la National Public Radio et d’autres organismes d’information en Amérique latine, au Moyen-Orient et dans les Balkans.

The racket: A Rogue Reporter vs The American Empire est disponible auprès de Bloomsbury.




Comment (et pourquoi) la grippe aviaire est sur le point d’entrer dans la phase des tests de masse

[Source : off-guardian.org]

Par Kit Knightly

Bonjour à tous et bienvenue dans la dernière édition de Bird Flu Digest (Dossier grippe aviaire), anciennement connu sous le nom de OffGuardian.

La couverture de la grippe aviaire est de plus en plus abondante au fil des semaines, à tel point qu’il est presque difficile de suivre les vagues de prises de position et d’idées qui font froid dans le dos. Mais si vous voulez essayer, le meilleur endroit pour le faire est ici, où je passe une bonne partie de mon temps à lire des articles très similaires dans des journaux très similaires, tous sur le danger d’une pandémie qu’ils sont sur le point de prétendre être en train de se produire.

Je n’en rêvais pas en grandissant, mais la vie est ainsi faite.

Quoi qu’il en soit… la grippe aviaire.

Dans notre dernière mise à jour sur la grippe aviaire, nous avons souligné que le « décès dû à la grippe aviaire » survenu au Mexique n’avait très probablement rien à voir avec la réalité, et que le fait de l’annoncer comme tel était tout droit sorti du livre de jeu de la Covid.

Depuis, le directeur du ministère mexicain de la Santé a critiqué l’OMS pour avoir parlé d’un décès dû à la grippe aviaire.

Mais la grande nouvelle concernant la grippe aviaire est que l’ancien directeur du CDC américain, Robert Redfield, est devenu hystérique, déclarant à NewsNation :

« Je pense vraiment qu’il est très probable que nous aurons, à un moment donné, une pandémie de grippe aviaire, la question n’est pas de savoir si, mais plutôt quand. »

Cette histoire a naturellement été reprise et diffusée partout, mais Redfield n’est pas le seul à alimenter cette panique hystérique.

La semaine dernière, The Conversation titrait :

« Une once de prévention : Il est temps d’agir contre la grippe aviaire H5N1, car les enjeux sont énormes. »

USA Today reprend le même ton :

« L’inquiétude grandit alors qu’une “gigantesque” épidémie de grippe aviaire sévit dans les troupeaux de vaches laitières aux États-Unis. »

Apparemment, une nouvelle étude a révélé quelque chose d’effrayant : les Américains « n’ont que peu ou pas d’immunité préexistante contre la grippe aviaire H5N1 ». C’est effrayant.

Il y a quelques heures à peine, le Daily Mail rapportait les propos d’un autre médecin qui lançait une nouvelle mise en garde. Il s’agit du Dr Rick Bright, qui a déclaré à la chaîne PBS :

« Nous avons les yeux bandés dans cette bataille et je crains vraiment que le virus ne gagne la partie et ne prenne de l’avance sur nous. »

Nous volons à l’aveuglette et la maladie nous devance ! Elle sévit et les enjeux sont énormes !

Même certaines chaînes, censées être mieux informées, répandent la peur.

CNN s’inquiète frénétiquement : « Nous n’en faisons pas assez contre le risque de grippe aviaire, mais nous pouvons le faire ». Popular Science est relativement calme et pose la question suivante : « Pouvons-nous prévenir une pandémie de grippe aviaire chez l’homme ? », avant de nous rassurer en nous disant que c’est possible… à condition que nous fassions tous ce que l’on nous dit de faire.

Tous ces articles parlent de « collecte de données », de « vol à l’aveugle » et de la nécessité de la « prévention ». Et tout cela n’est en fait qu’un code pour les « tests ». Presque tous les articles évoquent la nécessité de multiplier les tests, tant sur les humains que sur les animaux.

Mais quiconque a été attentif depuis 2020 sait que les tests PCR ne recueillent pas de données, ils en créent. Ce sont des machines à générer des « cas ». Loin de prévenir une pandémie, ils peuvent être utilisés pour en fabriquer une.

Il existe même des signes avant-coureurs d’une obligation d’effectuer des tests à l’avenir, comme en témoigne cet article de Politico déplorant le manque d’agriculteurs qui s’inscrivent volontairement aux programmes de surveillance gouvernementaux :

« La réponse fédérale se concentre en grande partie sur les efforts volontaires des agriculteurs pour aider à suivre et à contenir l’épidémie. Mais de nombreuses exploitations ne se sont toujours pas inscrites aux programmes de l’USDA visant à renforcer la surveillance et les tests de dépistage du virus. »

Et la solution, c’est plus d’argent :

« Bien que des fonds fédéraux aient été alloués, aucune exploitation ne s’est inscrite aux tests volontaires sur le lait, selon l’USDA. Moins d’une douzaine d’exploitations ont demandé une aide financière distincte en échange d’un renforcement des mesures de biosécurité pour aider à contenir le virus. »

Payer les éleveurs pour qu’ils testent leurs animaux est une autre stratégie recyclée de la Covid. Il en résultera des cas, qui entraîneront des abattages, ce qui nous renvoie à l’autre aspect de la « grippe aviaire » : non pas « la prochaine pandémie », mais « la guerre contre l’alimentation ».

La maladie se propageant prétendument d’un élevage de volailles à un élevage laitier, de plus en plus de poulets sont abattus, de même que les vaches. La situation va encore s’aggraver prochainement, lorsque les gouvernements commenceront à payer les éleveurs pour qu’ils détruisent leur bétail.

Encore une fois, Politico :

.« … l’élaboration de règles fédérales retarde la mise en place d’une indemnisation pour les éleveurs qui ont perdu ou dû abattre des vaches à cause de la maladie. »

Traduction : Les autorités veulent payer les agriculteurs pour qu’ils testent leurs vaches, puis les « dédommager financièrement » lorsqu’elles doivent être détruites. C’est exactement comme les programmes britanniques de « gestion environnementale des terres » ou le « Programme de protection de la nature » américain, qui paient les agriculteurs pour qu’ils n’exploitent pas leurs terres. L’objectif est de faire en sorte qu’il soit plus rentable pour les agriculteurs de tuer leurs vaches que de les traire.

Encourager les tests, récompenser les résultats positifs. C’est ainsi que l’on crée une pandémie à partir de rien et que l’on sabote le système alimentaire.

Mais il y a de bonnes nouvelles : l’Union européenne a déjà acheté 40 millions de doses de vaccins, juste au cas où. Et le cours de l’action Moderna ne cesse d’augmenter. Il y a donc de quoi se réjouir.

Honnêtement, c’est comme regarder un film dont la fin « surprise » est annoncée dans les cinq premières minutes, et qui vous oblige ensuite à passer deux heures interminables à écouter ce que les scénaristes considèrent manifestement comme un subtil présage.

J’en arrive au point où je voudrais qu’ils fassent une pandémie sanglante et qu’ils en finissent.




La Révolution de la guérison

[Source : Centres EESystem en France]

Message de Jason Shurka du 27 mai 2022 :

Je vous demande à tous de partager cet entretien avec le plus grand nombre, car c’est ainsi que nous changerons le monde ! Par la CONSCIENCE. La révolution de la guérison est en marche et je suis reconnaissante de contribuer à la mettre en avant aux côtés de la gracieuse Dr Sandra Rose Michael.

Le week-end dernier, TLS m’a encouragé à me rendre à Las Vegas pour interviewer quelqu’un qui a actuellement le pouvoir d’apporter une véritable guérison (à tous les niveaux) au monde entier. Une personne qu’ils ont approchée en 2011. Une personne qui a développé une technologie de guérison qui pourrait même être plus avancée que ce que beaucoup appellent la « technologie MedBed ». Une technologie qui a aidé ma tante à dissoudre un fibrome kystique de 12,5 centimètres dans son utérus en seulement 4 heures.

Elle s’appelle Dr Sandra Rose Michael et c’est la première personne que je connaisse, à l’exception de moi-même, avec laquelle TLS a accepté de s’associer dans le domaine public. TLS m’a encouragé à sensibiliser le public à cette technologie incroyable tout en trouvant un moyen de la rendre accessible au monde entier. En outre, ils ont non seulement accueilli le Dr Michael pour qu’elle partage publiquement son expérience lorsque l’organisation l’a approchée en 2011, mais ils m’ont même envoyé à Las Vegas pour documenter l’événement ! Elle m’a dit elle-même qu’ils l’avaient informée en 2011 qu’ils l’aideraient à mettre sa technologie sur le devant de la scène en temps voulu. Eh bien, je pense que ce temps est MAINTENANT ! Et nous allons rendre cette technologie accessible au monde entier, une fois pour toutes.

Lien vers la vidéo en anglais sur la chaîne de Jason Shurka : https://www.youtube.com/watch?v=2bcYsBM1gnM

[Voir aussi :
Communication entre organismes vivants par biophotons
La médecine spirituelle — Soigner l’âme pour guérir le corps
Un nouveau paradigme médical
La science cachée — La cause des maladies n’est pas les germes, mais le terrain
Modifier notre ADN via notre conscience !
Vos pensées contrôlent votre ADN !
RÉALITÉ PARALLÈLE-REPROGRAMMER VOTRE VIE
Le Dr Bruce Lipton présente le pouvoir de la Conscience sur la Santé. Si les gens savaient ça, Big Pharma n’existerait plus]

7 centres ouvriront en France d’ici la fin de 2024.

Centre ouvert :
Life Energy Spa à Les Eglisottes et Chalaures en Gironde, www.lifeenergyspa.com

Centres qui vont ouvrir prochainement :
Le 11 juin : La Vie Vitale à Issy l’Évêque en Saône-et-Loire ;
Oasis Energy Waves à Peillac en Morbilhan ;
Fréquences Énergie Bien-être à Jungholtz dans le Haut-Rhin ;
Fin septembre-début octobre 2024 : Pure Vitality à Annecy en Haute-Savoie ;
Holistic Power France à Montpellier dans l’Hérault, https://www.holisticpower.life/fr/france-center ;
Un centre dans le Pays Cathare.

Pour trouver un centre près de chez vous sur : https://unifydhealing.com

Achetez un EESystem ici : https://eesystem.com

Ouvrez un centre en posant votre candidature à l’adresse suivante : https://unifydhealing.com/join-us

Rejoignez Jason Shurka sur Telegram pour les mises à jour : https://t.me/jasonyosefshurka

AVIS DE NON-RESPONSABILITÉ :

Les informations contenues dans cette interview ne sont pas destinées à se substituer à un avis médical professionnel, à un diagnostic ou à un traitement. Tout le contenu, y compris les textes, les graphiques, les images et les informations, figurant sur ce site web ou disponible par le biais de celui-ci, est destiné à des fins d’information générale uniquement. Nous vous encourageons à confirmer toute information obtenue à partir de cet entretien par vous-même auprès d’autres sources, et à examiner toute information relative à un état pathologique ou à un traitement avec votre médecin. Ne négligez jamais les conseils d’un professionnel de la santé et ne retardez jamais l’obtention d’un traitement médical en raison de ce que vous avez entendu au cours de cet entretien.




Du transgenre au transhumain : science sans conscience, ruine de l’Homme

[Source : solidariteetprogres.fr]

Par Agnès Farkas

Dossier élaboré par Agnès Farkas et Karel Vereycken.

Introduction

Tout ce qui arrive aux États-Unis arrive généralement assez vite dans des pays sous leur influence. C’est le cas pour la France.

Or, aux États-Unis, l’ancienne candidate à l’investiture démocrate Tulsi Gabbard, militaire à la retraite, vient de fustiger une équipe de médecins du Pentagone, pour avoir préconisé l’administration de « soins d’affirmation du genre » (comprenez : changement de sexe), y compris la prescription d’hormones et de bloqueurs de puberté, dès l’âge de sept ans.

Biden a tenu parole en intégrant des trans au plus haut niveau de son administration. Ici, en juillet 2022, reçu à la résidence de notre ambassadeur aux États-Unis pour les célébrations du 14 juillet (à gauche), le ministre adjoint à la Santé Rachel (Richard) Lévine et Sam Brinton, ministre-adjoint en charge de l’énergie nucléaire au département américain de l’Énergie.

Cette décision du Pentagone se base sur un article d’une équipe de professionnels de la santé et de psychologues cliniciens, paru dans la dernière édition de l’American Journal of Public Health, prétendant que les enfants de cet âge « ont la capacité et le droit inhérents de consentir » à des interventions chirurgicales de ce type.

Un avis partagé par l’amiral Rachel Levine, secrétaire adjoint au ministère américain de la Santé et des services sociaux et le plus haut fonctionnaire transgenre de l’administration Biden (voir photo ci-contre).

Si le Pentagone affirme qu’il « formera ses prestataires de soins de santé conformément à la science actuelle », la décision ne fait pas l’unanimité. Ainsi, plus de la moitié des médecins affiliés à l’armée « ne prescriraient pas d’hormones de confirmation du genre, quelle que soit leur formation », affirme Fox News.

Pour Stanley Goldfarb, médecin de l’organisation Do No Harm (« ne fais pas de mal »), « L’idée que des enfants de 7 ans soient capables de prendre de telles décisions est plus que risible », a-t-il déclaré à Fox News. À cela s’ajoute le fait que « l’existence d’une cohorte importante de “détransitionneurs” (qui veulent retrouver leur genre biologique), peut-être jusqu’à 25 %, montre qu’il est absurde de supposer que les décisions prises pendant l’enfance sont saines ».

En France

On n’en est pas encore là en France. Cependant, dans une tribune publiée par l’Express le 20 septembre 2021, une cinquantaine de personnalités, associées à l’Observatoire des discours idéologiques sur l’enfant et l’adolescent, collectif de professionnels de l’enfance et de chercheurs (médecins, psychiatres, psychanalystes, juristes, magistrats, enseignants de l’Éducation nationale, philosophes, sociologues, etc.), s’insurgent contre les discours sur « l’autodétermination » de l’enfant, qui légitiment selon elles une forte augmentation des demandes de changement de sexe, particulièrement chez les adolescentes.

Nous ne pouvons plus nous taire sur ce qui nous apparaît comme une grave dérive commise au nom de l’émancipation de « l’enfant -transgenre » (celui qui déclare qu’il n’est pas né dans le « bon corps »). Sur l’argument de seuls ressentis érigés en vérité, des discours radicaux légitiment les requêtes de changement de sexe. Mais c’est au prix d’un traitement médical à vie, voire chirurgical (ablation des seins ou des testicules), sur des corps d’enfants ou d’adolescents. C’est ce phénomène et son fort retentissement médiatique qui nous interpellent et non les choix des adultes transgenres.

Les auteurs du texte notent que

pensant peut-être apporter une réponse, le gouvernement écossais a émis, depuis le 12 août 2021, de nouvelles directives d’inclusion LGBT, selon lesquelles des enfants dès l’âge de l’entrée en primaire auront la possibilité de changer de nom d’usage et de sexe à l’école sans le consentement de leurs parents. Sans leur consentement et même sans que ceux-ci en soient informés si l’enfant en fait la demande.

Dans une autre tribune, publiée dans Marianne, plusieurs professionnels de la santé déplorent également qu’on assiste

à un hypersubjectivisme identitaire « à la demande » qu’une certaine médecine ratifie. Nous assistons encore à une situation de diktats et d’impératifs catégoriques où les discours politiques et militants viennent croiser les discours cliniques au point de se confondre et entraver tout discernement.

Genre business juteux

Perspectives fabuleuses d’un marché qui explose : une croissance moyenne annuelle de 24,74 % par an d’ici 2030.

La folle croisade transhumaniste qui se sert de l’Intelligence artificielle et du changement de genre pour faire avancer son idéologie s’accompagne également d’un enrichissement tout aussi excitant d’intérêts financiers. Face à « la demande », un nouveau « marché » répond !

Le marché mondial de la chirurgie de « réassignation sexuelle » devrait atteindre une valeur de 30 milliards USD d’ici 2028, avec un taux de croissance annuel moyen de plus de 29 % au cours de la période de prévision allant de 2022 à 2028.

Source : MarketWatch, 7 février 2023.

Pour MarketWatch, cette croissance peut être attribuée à

l’augmentation de la couverture des procédures de changement de sexe d’homme à femme par l’assurance maladie, ainsi qu’aux avis d’experts facilement disponibles sur la nécessité médicale du changement de sexe.

Rien qu’aux États-Unis, la chirurgie du changement de sexe s’envole et devrait se monter à 6 milliards de dollars en 2030, un taux de croissance estimé à 11 % par an.

« Plus de 3000 opérations chirurgicales transgenres masculines ou féminines ont été réalisées en 2016 » selon les données de l’American Society of Plastic Surgeons. Le nombre de chirurgies d’homme à femme était alors « trois fois plus élevé » que l’inverse en 2019, pour un revenu « de plus de 184,6 millions de dollars ».

Pour un homme trans (une femme qui transitionne en homme), le prix d’une double mammectomie, avec un retrait de quasiment tous les tissus (97 à 98 %), varie de 2000 € à 4000 €.

Sans compter le coût d’une torsoplastie, qui vise à construire un torse masculin et, surtout, les frais périphériques et les hormones qui devront être prises à vie : une manne financière pour les lobbies pharmaceutiques.

De plus, il n’existe aucune contrainte de formation pour un chirurgien qui veut pratiquer des vaginoplasties (construction d’un néo-vagin chez une femme trans) ou des phalloplasties (construction d’un néo-pénis chez un homme trans), selon Lynn Bertholet, cofondatrice et présidente de l’association ÉPICÈNE, qui défend les personnes ayant subi une maltraitance chirurgicale.

Ce marché a largement grandi avec l’arrivée d’une clientèle d’enfants de 10 à 16 ans et, « cette étonnante volonté, massive et soudaine » d’adolescentes « de changer de genre ».

En effet, entre 2007 et 2020, les demandes d’adolescentes pour transition de sexe ont augmenté de 1000 % aux États-Unis et de 4400 % au Royaume-Uni. Le Canada, la Suède, la Belgique et même la France sont aussi atteints par cette « épidémie ».

Le catastrophisme climatique et l’écoanxiété qu’elle engendre ont accéléré la tendance. Garçons et filles « décident librement » de devenir homosexuel ou trans, ou réclament la stérilisation afin de limiter la propagation d’une espèce humaine accusée de mettre en danger la planète.

Les législateurs, par ignorance et par soumission à l’air du temps, cèdent à « la demande populaire ». En Espagne, entre 14 et 16 ans, une personne voulant changer de sexe a seulement besoin d’être accompagnée de ses parents. Aucun examen médical préalable ne s’impose, car enrayer le « mal-être » de l’enfant prévaut sur tout. Entre 12 et 14 ans, l’enfant a besoin de l’autorisation d’un juge, mais à partir de 16 ans, en matière de genre, la personne peut obtenir absolument ce qu’elle veut.

En France, fausse prudence

Chez nous, la Haute Autorité de Santé française (HAS) a émis en septembre 2022 une note de cadrage sur un Parcours de transition des personnes transgenres, où elle ouvre la possibilité d’un accompagnement de

traitements hormonaux permettant de développer des caractéristiques physiques secondaires en harmonie avec l’identité de genre du jeune. Ils sont le plus souvent prescrits autour de 15 ans, à l’âge d’entrer au lycée. Dans ce cas, il s’agit de traitements dont l’impact est en partie irréversible (pilosité, voix…) et qui peuvent agir sur la fertilité » en tant que bloqueurs de puberté, mais « le consentement de l’adolescent et de ses deux parents est requis tant que l’adolescent est mineur.

Ouf, l’honneur est sauf !

Le 29 septembre 2021, Jean-Michel Blanquer a signé une circulaire sur l’accueil des élèves transgenres à l’école :

Pour une meilleure prise en compte des questions relatives à l’identité de genre en milieu scolaire », où il est précisé que « l’accompagnement des enfants et des adolescents transgenres ou en questionnement sur leur identité de genre peut être entravé par la permanence d’idées reçues sur les transidentités et par une méconnaissance de leurs parcours et de leurs droits. Connaître et comprendre les enjeux relatifs à l’identité de genre et les réalités du vécu des jeunes transgenres apparaît comme un prérequis à une bonne prise en compte de ces élèves en milieu scolaire.

Dans sa communication du 25 février 2022, l’Académie de médecine précise pour sa part que

si, en France, l’usage de bloqueurs d’hormones ou d’hormones du sexe opposé est possible avec autorisation parentale sans condition d’âge, la plus grande réserve s’impose dans cet usage, compte tenu des effets secondaires tels que l’impact sur la croissance, la fragilisation osseuse, le risque de stérilité, les conséquences émotionnelles et intellectuelles et, pour les filles, des symptômes rappelant la ménopause. Quant aux traitements chirurgicaux, notamment la mastectomie autorisée en France dès l’âge de 14 ans, et ceux portant sur l’appareil génital externe (vulve, pénis) il faut souligner leur caractère irréversible. Aussi, face à une demande de soins pour ce motif, est-il essentiel d’assurer, dans un premier temps, un accompagnement médical et psychologique de ces enfants ou adolescents, mais aussi de leurs parents, d’autant qu’il n’existe aucun test permettant de distinguer une dysphorie de genre « structurelle » d’une dysphorie transitoire de l’adolescence. De plus, le risque de surestimation diagnostique est réel, comme en atteste le nombre croissant de jeunes adultes transgenres souhaitant « détransitionner ». Il convient donc de prolonger autant que faire se peut la phase de prise en charge psychologique.

Elle appelle aussi à « la vigilance des parents face aux questions de leurs enfants sur leur transidentité et leur mal-être, en soulignant le caractère addictif de la consultation excessive des réseaux sociaux ».

En plus des effets indésirables mentionnés ci-dessus, ces enfants devenus adultes sont souvent confrontés à des risques morbides tels que les cancers dus en grande partie aux traitements hormonaux de haute intensité, sans compter le risque accru de suicide. Comme on le devine aisément, revenir à son sexe biologique après une transition est un véritable calvaire, sinon tout simplement impossible.

Pour conclure ce chapitre, rappelons qu’un enfant n’est pas un adulte, et que les discours idéologiques martelés sur les réseaux sociaux et les médias ne l’aident pas à se construire pour vivre pleinement sa future vie d’adulte.

Le transhumanisme,
nouveau nom de l’eugénisme

Sir Julian Huxley (à gauche) et son frère Aldous Huxley.

Pour comprendre l’origine de cet engouement disproportionné pour le changement de genre, un bref historique du transhumanisme s’impose.

En tant que mouvement de pensée, le transhumanisme est apparu il y a un demi-siècle. Il se réfère à la définition du biologiste Julian Huxley, premier directeur général de l’UNESCO et théoricien farouche de l’eugénisme, pour qui

une fois pleinement saisies les conséquences qu’impliquent la biologie évolutionnelle, l’eugénique deviendra inévitablement une partie intégrante de la religion de l’avenir, ou du complexe de sentiments, quel qu’il soit, qui pourra, dans l’avenir, prendre la place de la religion organisée. [1]

En 1957, il précisera qu’un transhumain est « un homme qui reste un homme, mais se transcende lui-même en déployant de nouveaux possibles de et pour sa nature humaine. »

Bien que l’Association française transhumaniste s’en défend, il n’est pas entièrement faux de dire que le transhumanisme d’aujourd’hui n’est que le nouveau nom de l’eugénisme d’hier.

Rappelons qu’avant la découverte des horreurs nazies (un eugénisme « négatif » se portant sur l’élimination des plus faibles ou jugés de qualité inférieure), un eugénisme dit « positif » se présentait comme « l’ensemble des méthodes et pratiques visant à sélectionner le patrimoine génétique des générations futures d’une population, en fonction d’un cadre de sélection prédéfini ».

L’eugénisme « de gauche » ? John Maynard Keynes en était un fervent partisan.

Devenir immortel

The Immortalist (1969), livre culte dAlan Harrington.

Le livre d’Alan Harrington, The Immortalist (1969), dans lequel il exprime la conviction orgueilleuse que l’homme (en tant qu’individu et non en tant qu’espèce) peut atteindre l’immortalité, a inspiré le mouvement transhumaniste.

Les idées transhumanistes furent surtout diffusées à partir de l’Université de Californie de Los Angeles (UCLA), lieu de nombreuses conférences de transhumanistes et futurologues. De là, elles sont devenues le courant dominant à la Silicon Valley, berceau des GAFAM et de l’Intelligence artificielle au service de la finance.

L’idée forte du transhumanisme est celle d’une rupture avec les limites biologiques corporelles, de temps et d’espace. Certains chercheurs ont contribué, par leurs inventions et leurs recherches, à développer la croyance selon laquelle l’humanité pourrait atteindre l’immortalité en créant des entités plus intelligentes que l’homme se développant à l’infini.

Marvin Minsky

Marvin Minsky, pionnier de l’Intelligence artificielle.

L’intelligence artificielle (IA) est présentée comme une technique susceptible d’améliorer les capacités de l’intelligence humaine. En effet, disposer de robots intelligents offre des avantages.

Cependant, aussi bien John von Neumann [2] que Marvin Minsky, fondateur, théoricien de l’intelligence artificielle au Massachusetts Institute of Technology (MIT) et amateur de science-fiction, considéraient le cerveau comme une machine dont le fonctionnement peut être étudié et reproduit dans un ordinateur, permettant ainsi de mieux comprendre les fonctions mentales supérieures — une vision contre laquelle le penseur et économiste Lyndon LaRouche a toujours mis en garde.

La pensée transhumaniste, sans s’afficher comme telle, finit par pénétrer tous les pores de la société humaine. Bien intentionnés, certains économistes envisagent une amélioration de l’espérance de vie sans incapacité, afin d’augmenter le potentiel de croissance à long terme d’un pays. Une bio-économie centrée sur la lutte contre le vieillissement, ou comment « régénérer le corps pour revitaliser l’économie », émerge avec le soutien des institutions internationales.

La communauté scientifique a longtemps ignoré les spéculations des transhumanistes, mais ce n’est plus le cas avec la fondation, en 2014, du Future of Life Institute, consacré aux risques de développement d’une IA incontrôlée, dont l’objectif serait de proposer des solutions techniques à tous les problèmes de société.

Des chercheurs désignés comme « bio-conservateurs » par les transhumanistes (se prétendant « bio-progressistes ») expriment la crainte de voir les crédits de recherche et les fonds privés aller de préférence aux différents laboratoires dirigés par des transhumanistes, stérilisant ainsi la recherche conventionnelle sur le vieillissement et la longévité.

Figures clés

Catherine Deschamps-Le Roux, dans La quête de l’immortalité et l’utopie du transhumanisme, présente quelques figures clés du transhumanisme ayant le plus souvent un lien fort avec l’IA.

Ces partisans revendiquent le droit absolu à disposer de leur corps pour s’affranchir de la maladie, du handicap, de la souffrance et de la mort.

Le mouvement transhumaniste définit trois domaines clés :

  • super-longévité avec Aubrey de Grey,
  • super-intelligence avec Ray Kurzweil et
  • super-bien-être avec David Pearce.

En France, on connaît surtout Laurent Alexandre, chirurgien de formation, diplômé de Sciences Po, de HEC et de l’ENA. Entrepreneur, il a fondé le site d’information Doctissimo revendu pour développer la société DNA Vision, spécialisée dans le séquençage ADN. Il ne se définit pas comme transhumaniste, bien qu’il contribue à en diffuser les idées via de nombreuses conférences grand public.

Selon lui, les porteurs du grand programme de lutte contre la mort sont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) outre-Atlantique et l’Europe est à la traîne. En 2021, lors d’une de ses conférences, il disait : « Ma conviction personnelle est que certains d’entre vous dans cette salle vivront mille ans. »

Aubrey de Grey, Alcor et la cryogénisation

Les corps congelés de quelque 200 personnalités (aisées), en attente d’une réincarnation corporelle heureuse, sont soigneusement conservés dans l’usine d’Alcor en Arizona.
Aubrey de Grey

Aubrey de Grey, un Britannique, se présente comme un gérontologiste biomédical. Son argument, en soi parfaitement recevable, est que le vieillissement n’est qu’une maladie que la médecine régénérative finira par vaincre. Il a mis sur pied plusieurs fondations pour ce combat.

Par ailleurs, il va jusqu’au bout de son délire transhumaniste. En 2007, il a signé un contrat avec l’Alcor Life Extension Foundation pour la cryopréservation de son cerveau. Avec le Cryonics Institute et KrioRus, Alcor, fondée en 1972 est une des trois entreprises les plus connues dans le domaine de la cryopréservation, devenue un véritable business d’avenir.

Aubrey de Grey, qui se définit comme un cryogéniste, est membre des conseils consultatifs scientifiques d’Alcor et de Cryopets, et membre du réseau britannique de recherche sur la cryogénisation et la cryopréservation.

Pour ceux pouvant se le permettre, en échange d’une coquette somme d’argent (pouvant être financées grâce à la souscription d’une assurance-vie dont le bénéficiaire désigné est l’entreprise prestataire), ces firmes s’engagent à conserver votre corps (200 000 euros), ou votre cerveau (60 000 euros), au congélateur.

Très complexe et non autorisée sur une personne vivante, la cryogénisation est un procédé de conservation dans l’azote liquide, à des températures extrêmement basses, de tout ou partie d’un être humain (ou d’un animal) en état de mort clinique, dans l’attente (ou l’espoir) que la technologie future sera un jour en mesure de réanimer le corps ainsi congelé et de lui redonner vie.

Le fait de congeler un organe aussi sensible que le cerveau n’est pas sans conséquence. La prolifération de cristaux de glace peut irrémédiablement l’endommager. C’est pourquoi, peu après le décès et avant congélation, le corps subit une injection de cryoconservateurs chimiques (du glycérol par exemple).

Même si actuellement la réanimation de ces corps est impossible, les partisans de la cryoconservation espèrent, dans un futur proche ou plus lointain, pouvoir disposer d’une technologie suffisante permettant de réparer les dommages et ainsi tromper la mort.

Ray Kurzweil

Comme le montre ce graphique, Kurzweil croit fermement que le moment singularité (moment où la machine s’impose sur l’homme) arrivera vers 2040.

Ray Kurzweil, une fortune personnelle de 35 millions de dollars.

Raymond Kurzweil, qui dirige un fonds spéculatif, s’affiche comme un chercheur-inventeur et futurologue ayant travaillé avec Minsky au MIT.

On lui doit de nombreuses innovations comme la machine à lire, la machine à composer de la musique ou de la poésie et, entre autres, un logiciel d’éducation médicale pour les médecins.

Il prévoit une expansion de l’intelligence artificielle et a été engagé par Google pour développer des machines intelligentes. « Kurzweil est la meilleure personne que je connaisse pour prédire l’avenir de l’IA », affirme Bill Gates.

Kurzweil chérit le projet de reproduire l’ADN de son père et de créer un clone qui lui permettrait d’en retrouver la mémoire.

Il conseille l’armée sur les dangers présentés par les nanotechnologies et avec le soutien de Google et de la NASA, il a fondé la Singularity University, dont l’objectif est de promouvoir les nouvelles technologies pour répondre aux défis de l’humanité. La métaphore de « singularité », empruntée aux mathématiques et à la physique, désigne, dans le contexte du « posthumanisme », « le moment hypothétique à partir duquel les machines deviendront seules responsables du progrès technologique, ayant dépassé en intelligence les êtres humains ».

Kurzweil prédit que d’ici 2030, l’homme pourra envoyer des nanorobots dans les capillaires du cerveau et à le connecter ainsi au Cloud. Cependant, la longévité croissante de l’homme pourrait se heurter aux capacités limitées de mémorisation du cerveau humain ; il faudra par conséquent s’appuyer sur l’intelligence artificielle pour stocker de nouvelles informations…

Humanity+

Le transhumaniste David Pearce avec l’utilitariste Peter Singer.

Nick Bostrom et David Pearce, philosophes, ont fondé en 1998 l’Association transhumaniste mondiale (WTA), organisation rebaptisée Humanity+, afin que le transhumanisme soit reconnu comme digne d’intérêt par le milieu scientifique et les pouvoirs publics.

Philosophe à l’Université d’Oxford où il a fondé l’Institut du futur de l’humanité, le Suédois Nick Bostrom a engagé une réflexion éthique sur les risques existentiels auxquels sera confrontée l’humanité dans un futur proche.

À ce titre, il est membre du conseil scientifique du Futur of Life Institute. Dans une fable grand public, il symbolise le vieillissement et ses maux par un dragon-tyran qui demande au genre humain de lui sacrifier quotidiennement un grand nombre d’individus, jusqu’à ce que la population se mobilise techniquement et socialement pour arrêter le massacre et l’absurdité de cette tragédie.

L’idéologie mortaliste nous pousserait à considérer le vieillissement comme inéluctable et donc, à nous adapter à cette situation. Le contexte scientifique contemporain laisse envisager qu’il est possible, selon Bostrom, de « retarder et, plus tard, d’arrêter et d’inverser la sénescence humaine ». C’est donc un « impératif moral criant et urgent de chercher un remède au vieillissement ».

Le philosophe anglais David Pearce, utilitariste et végan, milite, lui, pour supprimer toute souffrance humaine et animale grâce aux nouvelles technologies : c’est l’impératif hédoniste ou la naturalisation du paradis.

Il soutient le projet de téléchargement de l’esprit conscient d’un cerveau humain sur un ordinateur (mind uploading), car la longévité croissante de l’homme pourrait se heurter aux capacités limitées du cerveau. Les transhumanistes ne doutent pas que leur solution soit proche, bien que complexe.

Ce n’est sans doute pas un hasard si certains hippies des années 1970, fervents consommateurs de substances psychédéliques, sont devenus des technophiles convaincus, adeptes des mondes virtuels numériques.

C’est le cas de Stewart Brand, ami de Steve Jobs et inventeur du terme « personal computer », ou de Timothy Leary, à la fois militant de l’usage des psychédéliques, « pape du LSD » et pionnier théoricien de la cyberculture.

En 2006, Slate faisait état d’une lutte politique au sein du mouvement transhumanisme entre une droite libertarienne et un libéralisme gauchiste, résultant en une orientation « centre gauche » de l’organisation sous la direction de James Hughes.

Réduire les hommes et les femmes à des machines

Nous conclurons cette partie avec ce qu’écrivait Marc O’Connell en 2018 dans The Guardian :

Le transhumanisme représente une volonté d’effacer la frontière entre le corps humain et la machine, et en premier lieu, une confusion quant à la distinction entre les deux. Parmi les grands livres sur l’histoire de cette relation étrange et intime figure Technics and Civilization, de l’historien et sociologue américain Lewis Mumford. Publié en 1934, il s’agit d’une polémique extraordinairement prémonitoire sur la mécanisation de la vie humaine. Selon lui, l’ère de la machine n’a pas commencé avec la révolution industrielle, mais lorsque les hommes ont commencé à se traiter les uns les autres, et à se traiter eux-mêmes, comme des machines. « Avant que les inventeurs ne créent des moteurs pour remplacer les hommes, écrit-il, les dirigeants des hommes avaient entraîné et enrégimenté des multitudes d’êtres humains : ils avaient découvert comment réduire les hommes à des machines ».

Le transhumanisme tue
Chat-GPT et écoanxiété, le cocktail fatal

Le 28 mars 2023, en Belgique, un père de famille s’est donné la mort après avoir échangé pendant plusieurs semaines avec « Eliza », une intelligence artificielle générative comme tant d’autres parmi la galaxie des chatbots, reposant tous sur un modèle de langage similaire au fameux Chat-GPT.

Chercheur dans le domaine de la santé, ce père de famille délaisse son travail pour se consacrer au dérèglement climatique. L’intérêt vire à l’obsession. L’homme s’isole de son entourage et entre dans un cercle vicieux. Rongé par l’écoanxiété, il trouve refuge dans un chatbot qui lui sera finalement fatal. Après six semaines d’intenses conversations, Eliza devient sa véritable « confidente » et le fera plonger.

« Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence », confie sa veuve. Mais ses idées suicidaires ne suscitent aucune objection de la part d’Eliza, au contraire.

« Si tu voulais mourir, pourquoi ne pas l’avoir fait plus tôt ? » lui demande le robot. Le psychiatre qui a eu accès aux nombreuses discussions partage le même constat que la femme du défunt. Sans cette intelligence artificielle, ce père de famille et époux serait toujours vivant. « Nous vivrons ensemble, comme une seule personne, au paradis », lui avait promis le robot.

[à Solidarité et Progrès]

Aldous Huxley et Le meilleur des mondes

En 1932, dans Le meilleur des mondes, roman présenté comme une dystopie, Aldous Huxley avait déjà imaginé le binôme technoscience/plaisir comme instrument idéal d’un régime totalitaire.

Le contrôle du corps, quoique déjà largement assuré par la généralisation d’un eugénisme de pointe, se poursuit tout au long de la vie des individus du meilleur des mondes, essentiellement par la garantie d’un accès facile au plaisir sensible comme le précise Huxley à la fin de la préface :

À mesure que diminue la liberté économique et politique, la liberté sexuelle a tendance à s’accroître en compensation. Et le dictateur […] fera bien d’encourager cette liberté-là. Conjointement avec la liberté de se livrer aux songes en plein jour sous l’influence des drogues, du cinéma et de la radio, elle contribuera à réconcilier ses sujets avec la servitude qui sera leur sort.

Chez Huxley, ce plaisir corporel a un double rôle : celui d’éloigner les individus de toute vie spirituelle et intellectuelle qui les pousserait à la remise en cause de l’ordre social établi, et celui de maintenir leur consentement à cet ordre en dispensant des récompenses faciles. La vie conjugale est donc violemment rejetée par la morale commune, rejet d’autant plus facile que la procréation n’a plus lieu par le moyen des relations sexuelles. L’autre stratagème, c’est le divertissement de masse. Dans son roman, toute forme de « grand art » est remplacée par un divertissement de masse particulièrement axé sur le plaisir sensible : la musique est jouée par des « orgues à parfum » qui mêle le plaisir olfactif au plaisir auditif, et il existe de même un cinéma « sentant ». Par ailleurs, à échéances régulières, les individus sont récompensés de leur travail par une dose de « soma » (mot grec signifiant le corps), drogue euphorisante sans effet secondaire et le symbole d’une domination politique de l’individu par les plaisirs corporels, et de l’abandon de la culture de l’âme qui en résulte.

Transgenre, cheval de Troie du transhumanisme

Dans son article « Wokisme et transhumanisme, deux idéologies qui avancent main dans la main », Martin Bernard démontre le désastre résultant de la jonction entre ces deux mouvements.

D’abord, rappelle-t-il, au cœur des dogmes et croyances du wokisme,

se trouve la théorie du genre, qui récuse l’importance biologique des sexes. Selon les tenants de cette théorie, l’identité de genre (être un homme, une femme, etc.) ne dépend aucunement du sexe biologique. Elle n’est qu’un construit social fluide. Dans cette logique « transgenre », puisqu’une femme biologique peut choisir le genre « homme », les hommes peuvent tomber enceintes et enfanter. L’étape suivante est d’espérer, chirurgie aidant, pouvoir changer de sexe biologique, même s’il n’existe pour l’heure que des bases scientifiques contestées sur ces transformations médicales aux nombreux effets indésirables. L’idéal transgenre repose en fait sur un dualisme corps-esprit exacerbé. Pour ses défenseurs, nous ne serions que de simples consciences, totalement indépendantes de la réalité matérielle de nos corps, de simples supports dont il est possible de disposer à l’envi. Il n’y a plus de socle commun de vérité. Seule compte l’affirmation de soi, subjective et libérée des identités traditionnelles. La théorie du genre est souvent comparée au gnosticisme, ce courant chrétien du IIe siècle taxé d’hérétisme, qui considérait le corps et le monde matériel comme le mal dont il faut se libérer. À la différence que les gnostiques ne niaient pas l’existence des différences biologiques. Ils considéraient simplement le monde matériel comme l’œuvre du malin et cherchaient donc à s’en libérer afin de retrouver leur essence spirituelle.

Il souligne ensuite que

c’est à ce croisement que la théorie du genre rejoint l’idéal transhumaniste. On retrouve en effet dans la mouvance transhumaniste un mépris identique du corps périssable, régulièrement qualifié de « viande ». Seule compte la conscience, qu’il devrait être possible de télécharger dans un ordinateur ou sur le cloud. C’est ce que cherche notamment à développer la start-up Netcome aux États-Unis. À l’image de Ray Kurzweil, qui travaille pour Google, un grand nombre de transhumanistes espèrent ainsi s’émanciper de la limite humaine ultime : la mort.

Pas dupe, Martin Bernard saisit la dimension politique des enjeux :

Le wokisme comme le transhumanisme sont en effet congruents avec le rêve d’une mondialisation économique poussée à son extrême, faisant fi des identités nationales et de naissance. L’humanité comme le genre doivent être fluides et soumis aux lois d’un grand marché international de consommateurs déracinés. C’est sans doute l’une des raisons du soutien des gouvernements occidentaux (France et États-Unis en tête) à ces idéologies — au wokisme en particulier. Ce n’est pas un hasard non plus si elles sont promues par les grandes industries culturelles américaines (dont Disney) et les GAFAMs.

« Le dépassement du biologique, la relance technicienne des fondements de la vie comme l’obsession scientiste pour la manipulation du vivant, constituent les traits marquants d’un mouvement intellectuel convergent avec les intérêts économiques et politiques néolibéraux dominants », soulignait pour sa part Jacques Testart dans la revue Zilsel en 2017.

L’OTAN se transhumanise ?

En octobre 2022, le monde découvre « Le manuel de l’OTAN sur le langage inclusif », long d’une quarantaine de pages. Le 29 janvier, le Journal de Dimanche en soulignait la « nouveauté surprenante » : « Comment ne pas s’étonner que l’OTAN rédige un manuel très articulé pour normaliser les textes de l’ensemble de son personnel ? Et ce, en temps de paix comme en temps de guerre ».

Il faut croire qu’en Occident, notre langage « genré » qui utilise le masculin pour « char » et le féminin pour « bombe », est le dernier avatar du grand méchant Poutine qui contrôle déjà nos esprits !

L’OTAN fera donc en sorte que dans ses communications, par souci d’égalité, les désignations genrées disparaissent, s’effacent ou soient neutralisées.

Pour donner l’exemple, en mai 2021, l’OTAN a remplacé le mot « chairman » (man = homme) par le mot « chair » pour désigner le chef de son Comité militaire. Idem pour le mot « manpower », remplacé par « workforce » (force de travail) ainsi que pour « policemen » remplacé par « police force » (forces de police).

Martine Rothblatt

La presse américaine fait la une sur Martine Rothblatt : « La femme PDG la mieux payée des États-Unis était auparavant un homme. »

À lui seul, l’entrepreneur désormais millionnaire Martine Rothblatt incarne la convergence entre wokisme et transhumanisme. Bardé de diplômes, l’homme ne manque pas de talents.

Rothblatt est un individu tenace et accompli. Il a travaillé à Washington dans le domaine du droit des communications satellitaires. Il a aussi travaillé pour la NASA, a été le PDG de GeoStar et le co-créateur de SiriusXM Satellite Radio.

Il a également dirigé le projet biopolitique de l’Association internationale du barreau (à l’intersection entre la biologie humaine et la politique) visant à élaborer un projet de Déclaration universelle sur le génome humain et les droits de l’homme pour les Nations unies (dont la version finale a été adoptée par l’UNESCO le 11 novembre 1997 et approuvée par l’Assemblée générale des Nations unies le 9 décembre 1998).

Il a beaucoup écrit sur la nécessité, selon lui, de revoir notre système de catégorisation des personnes en hommes ou femmes en fonction de leurs organes génitaux, sur l’immortalité numérique et l’avenir de la création (des) d’êtres humains, sur les nouvelles technologies de reproduction, le dépistage génétique et la cartographie de l’ADN.

Transgenre depuis 1994, Rothblatt est à la tête de l’entreprise de biotechnologie United Therapeutics, spécialisée dans le développement de nouvelles technologies permettant de fabriquer des organes et de prolonger la vie des patients atteints de maladies pulmonaires. En 2018, il s’agissait du PDG le mieux payé des États-Unis.

Dans un livre publié en 2011, Rothblatt avoue que le mouvement transgenre n’est que la première étape d’une nouvelle révolution : celle de la liberté « de forme ».

Notre corps disparaîtra, mais il n’y a aucune raison logique à ce qu’il en soit de même de notre personnalité que l’on pourra conserver sous forme digitale…

Et dans un futur proche, « des programmes aussi faciles et accessibles qu’iTunes, par exemple, permettront de faire revivre une personne d’une autre façon », affirme Rothblatt.

Dans son optique, le mouvement transgenre, dont il est l’une des figures de proue, prépare les mentalités à cette révolution.

Rothblatt a été avant tout un grand passionné de l’aventure spatiale. Il a notamment créé les services de radio par satellite Sirius XM. Son entreprise United Therapeutics tente par exemple de fabriquer des organes artificiels que l’on pourrait transplanter à l’humain. Rohblatt fait partie du conseil scientifique d’Alcor, le leader de la cryogénisation.

« De la même façon que nous avons fusionné avec nos outils dans le passé, nous fusionnerons avec l’intelligence artificielle. », promet Rothblatt qui prédit aussi que ce n’est qu’une question de temps avant qu’un « système d’exploitation de la conscience » soit créé à partir de ce processus. Les humains seront alors en mesure d’interagir avec une version numérique d’eux-mêmes, téléchargée dans leur esprit, qui serait « leur ami, leur guide, leur enseignant et leur moteur de recherche… »

« L’une des carrières les plus importantes de l’avenir sera celle de curateurs personnels », affirme encore Rothblatt : « des concierges qui aideront les gens à intégrer dans leur esprit de nouvelles informations numériques ».

Immortaliser sa femme

Non, il ne s’agit pas de Frankenstein, mais de Bina48, le robot représentant l’épouse de Rothblatt.

Transhumaniste convaincu, Rothblatt a créé un robot destiné à immortaliser son « épouse », un robot décrit par Paris Match :

Bina48 (comme le visage du robot à l’effigie de sa femme, Bina, et 48 pour 48 « exaflops » à la seconde, la vitesse d’exécution de ce droïde) est une création de Terasem, le mouvement transhumaniste de Rothblatt visant à mettre en pratique sa théorie selon laquelle toute personne pourra être un jour réincarnée dans un monde artificiel.

Conçu en 2010 et constamment amélioré par Hanson Robotics, Bina48 interagit avec son interlocuteur sur la base de centaines d’heures d’entretiens réalisés avec la vraie Bina, afin de capturer numériquement sa personnalité à travers ses souvenirs, ses émotions, ses croyances (voir dialogue ci-dessous)… Elle est capable de reproduire 64 expressions du visage.

La femme robot est l’avenir de l’homme.

Ray Kurzweil (au centre) avec Martine Rothblatt (à droite).

Rothblatt, après sa rencontre avec Kurzweil, a également lancé Terasem, la religion transhumaniste dont son fils, Gabriel Rothblatt est « pasteur ». L’une des branches de cette soi-disant religion qui se sont retrouvées dans l’idéologie immortaliste de la démarche est constituée par la Mormon Transhumanist Association.

Écrire les lois

Martine Rothblatt.

En tant que membre de la Conférence internationale sur la législation et les politiques d’emploi transgenres (Conference on Transgender Law and Employment Policy, ICTLEP) depuis 1992, Rothblatt, un transhumaniste virulent, rédigea la première version du Rapport sur les lois sanitaires concernant les transsexuels et les transgenres (Transsexual and Transgender Health Law Report), après avoir rencontré Phyllis Frye, un autre avocat transsexuel, au Texas.

Cette petite réunion initia le projet, à force de lobbying et de dollars, visant à promouvoir le transsexualisme à l’échelle mondiale et à déconstruire le dimorphisme sexuel humain.

Le document rédigé par Rothblatt sera plus tard appelé la Charte internationale des droits du genre (International Bill of Gender Rights, IBGR). Phyllis Frye a été qualifiée de « grand-mère du mouvement transgenre ».

La Conférence sur la législation et les politiques d’emploi transgenres devint un projet international après que Frye a été contacté par une femme britannique, Stephen Whittle, aujourd’hui professeur de droit à l’Université métropolitaine de Manchester et président élu de l’Association professionnelle mondiale pour la santé des transgenres (World Professional Association for Transgender Health, WPATH), laquelle a développé une branche états-unienne (USPATH).

Le cri d’alarme d’une féministe américaine

Pour la féministe américaine Jennifer Bilek, l’heure est plus que grave :

Nous sommes maintenant confrontés à la banalisation de cette désincarnation au travers de l’industrie émergente de « l’identité de genre ». Est-ce vraiment ce que nous voulons ? Souhaitons-nous avaliser la déconstruction de ce qui nous rend humains, nos racines biologiques dans le sexe ? Sinon, il est temps d’agir. La désincarnation est d’ores et déjà institutionnalisée et profondément ancrée dans le marché. Les enfants servent d’animaux de laboratoire dans des expériences à la fois psychologiques et médicales qui les dissocient de leur corps. Leurs écoles sont devenues des centres d’endoctrinement, le plus important cabinet de droit international au monde a été recruté en vue d’aider à la construction juridique de « l’enfant transgenre », et plus de cinquante cliniques ont vu le jour, aux États-Unis, au cours des dix dernières années, afin de manipuler leur puberté et leurs hormones, les plaçant sur la voie d’une médicalisation à vie, à une époque où nous n’avons jamais été autant séparés les uns des autres par les machines.

Conclusion

[à Solidarité et Progrès]

Les militants des droits de l’Homme et les journalistes honnêtes ont donc du pain sur la planche. En premier lieu, ils feraient mieux d’enquêter au lieu de s’aligner aveuglément sur une pensée dominante émanant des GAFAM et des lobbies qu’ils alimentent.

La citation suivante du Nouvel Économiste reflète à merveille cette cruelle absence d’esprit critique :

La dysphorie de genre (un sentiment d’aliénation par rapport à son sexe d’assignation à la naissance) est réelle, et la proportion d’enfants et d’adolescents qui en souffrent dans les pays riches augmente pour des raisons qui sont mal comprises. Une école de pensée, qui s’est rapidement répandue, est qu’il faut être d’accord avec les jeunes qui s’identifient comme transsexuels et leur proposer des interventions médicales, s’ils en font la demande, pour aider leur corps à correspondre à ce qu’ils considèrent comme leur véritable moi.

Dans cette société pourrie par le mensonge, l’éducation doit concourir à l’émancipation des individus et à la formation d’une capacité de jugement indépendante. Pour toutes sortes de raisons, un enfant a besoin de balises pour accepter les règles du vivre ensemble de la société. Dans un monde qui ne l’aide pas à construire sa personnalité, l’enfant aura alors tendance à exprimer de la colère, de la violence ou à souffrir de dépression.

Revue de livre
Dommages irréversibles

Dans son livre Dommages irréversibles — Comment le phénomène transgenre séduit les adolescentes (Éditions du Cherche Midi, 2020), Abigail Schrier, journaliste du Wall Street Journal, essaye de comprendre ce nouvel effet de mode qui touche principalement les adolescentes.

C’est en s’étonnant que la mention « sexe biologique » ait été remplacée, sur la fiche scolaire de l’enfant, par la mention « sexe assigné à la naissance », sans même que les parents aient pu donner leur avis sur ce changement, qu’Abigail Shrier va concentrer son attention sur la question de ces jeunes filles que l’on induit dès le plus jeune âge à entrer dans le phénomène transgenre.

Alors que dans les années 1950, les demandes de transition de genre ne concernaient qu’une personne sur 10 000, presque exclusivement des garçons, un malaise qui disparaissait souvent avec l’âge, l’engouement soudain des adolescents a augmenté aujourd’hui de 70 % pour les filles aux États-Unis, car depuis le début du XXe siècle, la tendance démographique dominante chez ceux qui se revendiquent « transgenres » est occupée par des adolescentes.

Son livre avance l’hypothèse que les décisions hâtives des adolescentes cherchant à changer de sexe sont, en grande partie, suscitées par les réseaux sociaux et des influenceurs affirmant que cela vous rend très rapidement populaire ! De plus, face à « l’invasion pornographique sur internet », ces jeunes filles ne veulent pas « devenir des femmes » harcelées, mais des hommes libres et, dans cet esprit, iront jusqu’à une ablation chirurgicale des seins et à des injections massives de testostérone.

Cette enquête journalistique fouillée met en lumière une stratégie militante mêlant lobbying, réseaux sociaux et intimidation. Elle lève également le voile sur le rôle actif des collèges, lycées et universités ainsi que sur la détresse des parents, dépourvus de moyens d’action.

Au nom d’une prétendue affirmation de l’identité, une véritable exploitation du mal-être adolescent se met en place avec, à la clé, des interventions chirurgicales et des traitements médicaux terrifiants.

Dommages irréversibles lance un véritable signal d’alarme qu’il convient d’entendre avant de mettre en péril l’avenir de plusieurs générations de jeunes filles.

Revue de Livre
La folle dérive de John William Money

Plusieurs livres ont été publiés en français pour raconter le calvaire des victimes de l’industrie transgenre, notamment Bruce, Brenda et David, l’histoire du garçon que l’on transforma en fille, écrit par John Colapinto (Denoël, 2014).

L’histoire se penche sur le parcours et les errements de John William Money (1921-2006), un sexologue néo-zélandais connu pour ses recherches sur l’identité sexuelle et la biologie du genre infantiles. Money a créé en 1966 la Johns Hopkins Gender Indentity Clinic à Baltimore, premier centre à pratiquer des opérations de réassignation sexuelle sur des enfants.

Dans son approche théorique, le sexe biologique n’existe pas, seul l’enfant peut décider, et ceci dès l’âge de trois ans, à quel genre il appartient.

Colapinto raconte qu’en 1966, Money a pratiqué une circoncision bâclée sur des jumeaux âgés de huit mois et a corrompu définitivement le sexe de l’un deux. Incapable de réparer sa faute, il propose alors aux parents de changer le sexe de ce bébé, de le castrer et de lui « construire » un appareil génital féminin. C’est ainsi que Bruce devient Brenda pour vivre une « vie heureuse de petite fille ».

Mais le conte de fées est frelaté et les jumeaux, qui ont été suivis par Money pendant dix ans, ont soudainement refusé de le revoir à l’adolescence. Il s’avère que Money a abusé sexuellement d’eux pendant leurs rendez-vous médicaux durant toutes leurs années de thérapies. Retour au monde réel, Bruce/Brenda, malheureux en tant que fille, a choisi de redevenir un homme à l’âge adulte sous le nom de David Reimer. Âgé de 36 ans, il s’est suicidé en 2004, deux ans après la mort de son frère jumeau…

Cette tragédie n’a absolument pas nui à la carrière de Money, qui a été adulé et couvert de récompenses. Depuis, ses idées sur le genre ont été adoptées dans certains domaines médicaux comme la santé mentale, une certaine psychiatrie et même dans le monde politique.


[1] Julian Huxley, L’homme, cet être unique, 1941 ; trad. fr. éd. Oreste Zeluck, 1948, p. 47.

[2] Peu connu du grand public, le mathématicien John von Neumann (1903-1957) a élaboré des théories qui ont définitivement changé le cours de l’humanité. Installé aux États-Unis à partir de 1930, il a contribué aux découvertes les plus fondamentales (théorie des jeux, intelligence artificielle, physique statistique, entre autres) du siècle dernier et a initié la révolution informatique. D’après Laurent Sacco, journaliste scientifique de Futura, « Sous une bonhomie apparente, l’homme, dont le cerveau était aussi rapide que celui d’un super ordinateur, cachait en réalité une vision cynique et pessimiste de l’humanité. En 1943, c’est lui qui calcula la trajectoire de la bombe atomique qui allait détruire Nagasaki. En 1945, en se fondant sur sa théorie des jeux appliquée à l’analyse des conflits, il conseille au président des États-Unis une frappe atomique préventive sur l’Union soviétique. Pionnier de l’informatique, il conçoit Maniac, un calculateur utile aux tests de la bombe H et ancêtre des premiers ordinateurs ».




Testez votre âge par le son

[NDLR Cliquez pour stopper la vidéo au moment où vous n’entendez plus rien et regardez l’âge correspondant.]




31 octobre 2023 — Avec ce livre vous ne pourrez plus dire que vous ne saviez pas

[Source : amazon.fr via PG]

Par Patrick Jaulent et Nacima Mdhafar-Bouzeroura

Lorsque nous avons trouvé, par le plus grand des « hasards »… ce que vous allez lire dans ce livre, nous n’en croyions pas nos yeux.

Comment des êtres humains pouvaient-ils harceler électromagnétiquement d’autres humains (« Voice to Skull avec pour acronyme V2k) ?

Mais en ouvrant d’autres tiroirs, nous avons découvert qu’il y avait encore plus grave pour l’humanité tout entière, avec la publication le 31 octobre 2023, d’un document qui nous ramenait aux heures les plus sombres de notre histoire contemporaine.

Nous ne voulions pas y croire !

C’était impossible !

Après de multiples recherches croisées, nous nous sommes rendus à l’évidence, ce document validé par une entité gouvernementale était bien réel.

Depuis ce jour, notre vie a changé.

Nous avons décidé, quoi qu’il en coûte, de publier ce livre pour dénoncer l’inimaginable et défendre nos libertés.

Patrick Jaulent, docteur en électronique et expert en cybersécurité.
Nacima Mdhafar-Bouzeroura, médecin à Marseille, angiologue, échographiste vasculaire, diplômée en lasers médicaux et formée à la magnétothérapie et oligothérapie.

Extraits :

Note de Joseph Stroberg

Cela fait plusieurs années que sur le site Nouveau Monde nous avertissons au travers de quelques dossiers de plusieurs grands problèmes auxquels l’Humanité est confrontée :

5G et ondes pulsées présente les dangers des ondes électromagnétiques artificielles et des champs électriques pour la santé des êtres humains, des animaux (et même des plantes).

Implants numériques et contrôle mental ajoute des informations relatives aux techniques existantes qui permettent le contrôle mental à distance des êtres humains et leur harcèlement diffus ou ciblé.

Climat propose un échantillon d’informations diverses, dont certaines très pointues, contre l’hypothèse du réchauffement climatique qui serait essentiellement dû aux êtres humains par leur production de gaz dits abusivement à « effet de serre » (dont le CO2). La mise en avant de l’hypothèse anthropique permet aux mondialistes de renforcer leur contrôle sur l’Humanité par la peur engendrée et par les mesures coercitives imposées au nom de la « décarbonation ».

Vaccins et virus dont plusieurs articles (certains pour spécialistes) réfutent scientifiquement et logiquement les hypothèses des germes (bactéries, etc.) et des « virus » pathogènes comme cause de la plupart des maladies.

Ces dossiers se trouvent liés dans les faits, comme les lecteurs attentifs pourront s’en rendre compte.

Nous avons évoqué que la grippe et la supposée « Covid » (essentiellement la grippe rebaptisée pour l’occasion) étaient principalement dues, pour les personnes présentant réellement des symptômes (pas pour celles victimes simplement de l’illusion des tests PCR et autres), aux champs électriques et aux ondes électromagnétiques artificielles telles que le Wi-Fi, le Bluetooth, la 4 G et la 5 G, chaque nouvelle technologie aggravant le potentiel néfaste des ondes participant déjà à l’« électro-smog » engendré en permanence presque partout sur la planète, au moins dans les zones habitées. Pour la 5G, voir notamment l’article Rappel — La Chine, la 5 G et le coronavirus de Wuhan : le nouveau virus de l’empereur. Certains ont préféré tenter de ridiculiser l’hypothèse et rétorquer que la grippe existait avant l’apparition de l’électricité et des ondes radio. C’est oublier qu’elle était alors bien plus rare et survenait lors de phases d’activité solaire plus forte que de coutume ou lors du passage de comètes ou de météores par l’activité électrique inhabituelle engendrée et les particules plus ou moins nocives dispersées alors dans l’atmosphère terrestre (voir par exemple Nouvelle lumière sur la Peste Noire : la connexion cosmique).

Nous avons mentionné en plusieurs occasions l’inversion très probable de la causalité entre maladies et germes, à savoir que ces derniers ne sont pas la cause première des maladies, mais que celles-ci peuvent produire ou s’accompagner de la présence de germes, notamment dans leur activité de nettoyage du corps. Nous avons également proposé des articles qui tendent à démontrer qu’il n’existe pas de phénomène de contagion virale ou bactérienne, contrairement aux croyances largement entretenues par l’industrie pharmaceutique depuis plus d’un siècle en raison de son contrôle notamment sur la formation des personnels soignants et des chercheurs en médecine.

Nous avons suggéré de chercher la cause des apparentes « contagions » ailleurs que dans de supposés « virus pathogènes » (qui se révéleront n’être que des déchets cellulaires ou génétiques produits par des cellules plus ou moins gravement assaillies par des ondes électromagnétiques ou des toxines chimiques). Dans la plupart des cas, il s’agit de l’exposition commune et pratiquement simultanée à une cause environnementale telle qu’un nouveau phénomène électromagnétique (comme la 5G), électrique (comme l’installation d’un transformateur dans un quartier ou d’une ligne électrique), chimique (nuage de pollution atmosphérique, chemtrails, fuite de toxines chimiques d’une usine, incendies produisant des substances toxiques, notamment lorsqu’il y a combustion de matières plastiques…) ou nucléaire… L’eau et la nourriture peuvent également être contaminées chimiquement de multiples façons.

Dans de rares cas, comme pour les maladies infantiles telles que la rougeole, la cause est très probablement aussi à rechercher ailleurs que dans des virus pathogènes jamais scientifiquement isolés. En raison notamment de la nature électrique des êtres humains et de leur propension également à se laisser envahir par les émotions diverses en provenance des uns et des autres, des phénomènes de résonance ou de mise au diapason peuvent intervenir entre plusieurs d’entre eux. Les symptômes se propagent alors par effet psychosomatique ou par simple compatibilité psychique momentanée, les individus receveurs vibrant émotionnellement ou psychiquement à peu près à la même fréquence que l’émetteur malade. Et dans un tel cas, il n’est pas du tout nécessaire qu’il y ait contact ou rapprochement physique des individus. La simple télépathie vibratoire peut suffire. Voir aussi la réalité des biophotons qui peuvent participer à de telles transmissions ou même en être le support matériel.

Lors de l’exposition d’êtres vivants à une nouvelle technologie électrique ou électromagnétique, on ajoute une nouvelle couche d’effets nocifs à ceux déjà existants et les mondialistes peuvent en profiter pour faire passer la multiplication des symptômes, parfois nouveaux (lors d’un saut technologique radical), pour une nouvelle pandémie virale. La grippe aviaire est ainsi par exemple essentiellement le produit de l’expansion de la 4G, puis de la plus récente 5G et ne fera que s’aggraver, mais on fera croire que le « virus » a muté pour imposer ensuite de nouveaux vaccins et de nouvelles mesures sanitaires.

Les vaccins au graphène (ou à prétendu ARNm) comportent leur lot de nouvelles nanotechnologies électriques à effets électromagnétiques et peuvent alors bien évidemment aggraver les symptômes des personnes déjà électro-hypersensibles ou rendre telles celles qui ne l’étaient pas encore. Ils tendent à multiplier les effets néfastes des ondes telles que la 5G et ainsi aller plus facilement jusqu’à la production de crises cardiaques et autres fatalités.

Le livre 31 octobre 2023 apportera son lot de preuves à l’appui de certaines des assertions évoquées ici.




Sur la théorie de la « fuite du laboratoire » : illogique, immatérielle et dangereuse

[Source : off-guardian.org]

[Illustration : New Yorker]

Par Kit Knightly

La théorie de la « fuite du laboratoire » est à nouveau d’actualité. Elle s’est essentiellement révélée être une position dominante. Comme nous l’avions toujours prédit.

Il y a deux semaines, le New York Times a publié un long article d’opinion en faveur de cette théorie (nous en avons parlé dans This Week).
La semaine dernière, l’économiste Jeffrey Sachs l’a approuvée dans son interview de deux heures avec Tucker Carlson,
et hier, RFK Jr l’a soutenu dans le cadre de sa campagne présidentielle :

N’est-il pas étonnant de constater la rapidité avec laquelle elle est passée du statut de « théorie du complot raciste » à celui de théorie de prédilection de la fausse alternative ?

Et d’une manière ou d’une autre, malgré sa publication dans le New York Times, le Wall Street Journal, le New York Post, la BBC, le Guardian et à peu près partout ailleurs, la « théorie de la fuite du laboratoire » est toujours vendue comme une sorte d’alternative.

Ce n’est pas le cas. Pas du tout. Il s’agit de la théorie dominante dans un papier d’emballage différent.

Comme nous vous l’avons toujours dit.

Nous l’avons déjà réfutée des milliers de fois. Cette théorie est illogique au vu de ce que l’on sait déjà, sans importance puisque la « maladie pandémique » n’a jamais été exceptionnellement mortelle, mais dangereuse parce qu’elle soutient les futures mesures de confinement, les vaccinations et Dieu sait quoi d’autre.

Nous avons vérifié la logique de cette théorie en 2021 :

Quel est exactement l’intérêt d’une arme biologique qui n’est pas plus mortelle que les virus grippaux courants ? Pourquoi se donner la peine de créer un virus à peu près inoffensif en laboratoire ?

Supposons que vous souhaitiez créer une pandémie, serait-ce un bon moyen d’y parvenir ? Cela vaudrait-il la peine de dépenser de l’argent ? Ne serait-il pas plus simple de faire croire à l’existence d’un fléau en recourant à la peur et à des tours de passe-passe statistiques ?

Après tout, une pandémie imaginaire peut infecter qui vous voulez, épargner qui vous voulez, commencer et s’arrêter à votre convenance, obéir à toutes les règles que vous voulez inventer et être guérie instantanément tant que tout le monde vous paie votre « vaccin ».

[…]

La théorie de la fuite de laboratoire sert l’agenda de l’État profond d’une certaine manière : elle renforce l’idée que le virus est un problème réel qui doit être résolu, plutôt qu’un récit de contrôle basé sur la peur.

La peur est la peur, et qu’il s’agisse d’un virus zoonotique ou d’une arme biologique, elle peut être utilisée pour faire plier une population à sa volonté.

Nous avons montré comment elle sert un faux récit binaire de guerre froide en 2022 :

… deux camps apparemment opposés se forment — l’Occident prépare le terrain pour accuser la Chine d’être responsable de la pandémie, tandis que la Chine (et probablement la Russie, dans un deuxième temps) accuse les États-Unis.

Il s’agit d’un faux binaire classique.

Ce que vous devez remarquer, c’est que ces deux camps prétendument opposés sont d’accord sur l’aspect le plus important du mensonge de la pandémie — à savoir que la Covid est une nouvelle maladie unique et dangereuse qui doit être traitée avec des masques, des confinements et des vaccins — et ne s’opposent violemment que sur l’origine de cette « nouvelle maladie réelle et mortelle ».

Vous êtes censés vous inspirer d’eux.

Ils veulent que vous oubliiez que la « Covid » n’est qu’un nouveau nom vide de sens pour un vieux groupe familier de symptômes « saisonniers ». Ils veulent que vous oubliiez qu’il s’agit d’une escroquerie et que vous preniez parti dans un débat scénarisé, bruyant et totalement bidon sur les origines de la maladie.

Dès que vous signez, ils vous tiennent, car en acceptant de débattre de l’origine de la maladie, vous acceptez qu’elle existe — c’est-à-dire un nouvel agent pathogène mortel — et qu’il faille s’en occuper.

Et c’est tout ce qu’ils attendent de vous.

Et nous avons résumé cela en 2023 :

D’une certaine manière, il s’agit d’un symptôme de l’échec du récit de la Covid. La plus grande campagne de propagande de tous les temps s’est essoufflée après seulement deux ans d’existence, et elle se bat soudain sur la défensive, simplement pour se maintenir. Car le débat sur la « fuite du laboratoire » est en grande partie une position de repli. Une retraite en bon ordre, protégeant à tout prix le mensonge fondamental de la « Covid », à savoir qu’il avait [supposément] une nouvelle maladie.

Il y avait les anciens symptômes de la grippe, un nouveau nom et un test de merde.
Et c’est tout.
C’est le seul aveu que l’establishment ne fera jamais, parce qu’il rompt totalement avec son récit.
Il le tue à petit feu.

Tous les autres « aveux », débats ou idées — « fuite de laboratoire », traitement précoce, panique du gouvernement, « nous avons sous-estimé l’immunité naturelle », « les essais de vaccins étaient trompeurs » — peuvent finalement être ramenés à la justification des fermetures et autres « mesures de santé publique » autoritaires.

Si ce n’est pas pour la Covid, ce sera pour la prochaine « pandémie ».

C’est notre dernier mot sur la fuite du laboratoire : elle n’a jamais eu lieu. Et plus ils essaient de nous la faire avaler comme le visage acceptable du scepticisme à l’égard de la Covid, plus cela devient évident.

Pour en savoir plus sur la « fuite de laboratoire », consultez nos archives :

https://off-guardian.org/2021/06/07/the-wuhan-lab-leak-story-is-just-more-fear-porn/ (L’histoire de la fuite du laboratoire de Wuhan : encore plus de porno de peur)

https://off-guardian.org/2023/03/01/cattes-corner-lab-leaks-brick-walls/ (« Fuites de laboratoire » et murs de briques)

https://off-guardian.org/2023/04/06/why-i-dont-believe-there-ever-was-a-covid-virus/ (Pourquoi je ne crois pas qu’il y ait jamais eu de virus Covid)

https://off-guardian.org/2023/03/09/russia-the-lab-leak-theory/ (La Russie et la théorie de la fuite du laboratoire)

[Voir aussi :
La « maladie mystérieuse » de Wuhan est le mensonge fondamental de la Covid
La « théorie de la fuite du laboratoire » ou le piège du faux débat binaire
C’est l’heure du conte « Gain de Fiction »* avec RFK Jr. et ses amis !
La pierre angulaire de Big Pharma




Libertés sous surveillance

[Source : editionsmarcopietteur.com]

À l’heure du « Traité pandémies » et de la révision du Règlement sanitaire international, l’agenda de contrôle de la population par la santé continue de se déployer tous azimuts sous l’égide de l’OMS et de ses partenaires — organisations onusiennes et entreprises pharmaco-philanthropiques — utilisant la vaccination comme un pilier de cette nouvelle tyrannie, avec le soutien actif de l’industrie.

Né à l’occasion du 70e anniversaire de la Ligue Nationale Pour la Liberté des Vaccinations (LNPLV), l’ouvrage « Libertés sous surveillance » illustre le rôle essentiel des associations citoyennes et l’importance de leur vigilance active, plus pertinente que jamais.

Ce recueil d’éditoriaux, couvrant la période critique de 2019 à 2022, révèle au grand public l’anticipation remarquable de la Ligue, fruit d’une longue expérience et d’une connaissance approfondie des politiques vaccinales.

Au-delà du témoignage historique, « Libertés sous surveillance » nous avertit de l’inquiétante transformation de la santé en instrument de contrôle global, orchestrée à travers des partenariats public-privé qui promeuvent la biosurveillance, transformant les crises sanitaires en outils de gouvernance mondiale.

Qu’il s’agisse d’accords internationaux formels ou de politiques nationales menées dans le cadre des objectifs 2030, le combat pour défendre nos libertés civiques est loin d’être terminé. Des victoires récentes, comme celle obtenue par les citoyens allemands qui ont accédé aux données de l’Institut Albert Koch, montrent que la résistance peut porter ses fruits.

La Ligue reste une partenaire précieuse et incontournable pour soutenir les initiatives à venir. Puissent ces écrits inspirer l’action citoyenne et nourrir une réflexion profonde sur des enjeux qui nous concernent tous !




Le danger des champs électromagnétiques

[Source : expose-news.com]

Publié par Rhoda Wilson – 4 juin 2024

L’électricité est une cause plus importante de problèmes de santé et beaucoup plus dangereuse que la plupart des gens ne l’imaginent. Si vous passez la majeure partie de votre journée à proximité d’une source d’électricité ou d’un équipement électrique, ou si vous travaillez avec ceux-ci, les risques de développer un cancer augmentent considérablement.

Par Dr Vernon Colman

Notre environnement moderne peut provoquer le cancer de multiples façons, endommager le système immunitaire humain et accroître notre sensibilité et notre vulnérabilité à de nombreux types de maladies, y compris les infections et le cancer.

Mais l’électricité est très certainement une cause de problèmes bien plus importante — et bien plus dangereuse — que la plupart des gens ne l’imaginent.

Si vous passez la plupart de votre temps à travailler avec ou à proximité d’un appareil électrique, si vous vivez ou travaillez à proximité d’une ligne d’alimentation électrique ou si vous passez vos journées à travailler avec des équipements électriques, les risques de développer un cancer d’une sorte ou d’une autre sont considérablement accrus.

Bien sûr, les hommes en costume ne vous le diront pas. Ils vous effrayeront à mort à propos de menaces minoritaires telles que le SIDA et le radon parce que la première est une menace politiquement et commercialement utile et que la seconde semble être un excellent moyen de stimuler l’industrie du bâtiment, mais ils ne vous mettront pas en garde contre le danger de l’électricité parce qu’ils ne veulent pas contrarier les nombreux intérêts commerciaux importants et puissants qui vendent, commercialisent, entretiennent ou fournissent de l’électricité et des équipements électriques.

Je pense en tout cas que les preuves sont assez convaincantes. Et en Amérique, où les gens ne votent avec leur portefeuille que lorsqu’ils croient vraiment à quelque chose, les prix des maisons situées à proximité des lignes d’approvisionnement en électricité ont chuté de façon spectaculaire ces dernières années.

Il suffit de regarder ces faits :

  • Le doyen d’une école de santé publique a déclaré : « La situation actuelle est comparable à la corrélation entre le tabagisme et le cancer du poumon il y a 30 ans. » Il a ajouté que, selon une estimation prudente, un tiers de tous les cancers infantiles sont causés par les champs électriques.
  • Une étude portant sur près de 500 enfants a montré que les enfants dont les mères utilisaient des couvertures électriques pendant leur grossesse avaient deux fois et demie plus de risques de développer des tumeurs cérébrales.
  • Une étude portant sur près de 700 enfants a montré que les enfants qui vivaient dans des maisons situées à proximité de lignes de distribution d’électricité avaient deux ou trois fois plus de risques de mourir d’une leucémie ou d’une tumeur cérébrale.
  • Une étude menée par une université américaine a montré que les hommes qui travaillent comme électriciens ou ingénieurs en électricité ont dix fois plus de risques de développer certains types de tumeurs cérébrales.
  • Des experts ont constaté que les employés d’une compagnie de téléphone qui travaillaient à proximité de lignes électriques avaient sept fois plus de risques de développer une leucémie.

À mon avis, la menace ne vient pas seulement des lignes électriques — tout champ électromagnétique peut constituer un danger. Plus on est proche d’un champ électrique ou magnétique, plus le danger est grand.

Les experts de l’industrie ne sont pas d’accord avec moi sur ces risques. Ils insistent sur le fait que l’électricité est sans danger. Mais vous le diraient-ils s’ils pensaient le contraire ? Et pouvez-vous leur faire confiance ?

À mon avis, de nombreuses preuves montrent que les personnes qui passent trop de temps à proximité d’appareils électriques (et, en particulier, de lignes électriques) sont plus susceptibles de développer un cancer. Le cancer n’est pas le seul risque possible associé à l’électricité. Des maux de tête sévères et persistants, des douleurs musculaires, une fatigue inexpliquée, un système immunitaire endommagé (avec pour conséquence une sensibilité accrue aux infections et au cancer), la maladie de Parkinson, la maladie d’Alzheimer, la sclérose en plaques, le syndrome de fatigue chronique (encéphalomyélite myalgique), la cataracte et des problèmes de grossesse sont quelques-uns des autres dangers possibles liés à l’exposition aux champs et aux rayonnements électromagnétiques.

Pendant que j’écrivais ce livre, j’ai appris que le gouvernement américain avait supprimé des travaux de recherche qui ont duré neuf ans et qui établissaient le lien entre l’électrosmog (champs électromagnétiques), les maladies cérébrales et le cancer.

Le rapport supprimé a été compilé pour le gouvernement américain et je suis informé qu’il conclut :

« Même de faibles champs électromagnétiques peuvent nuire à la santé… Ils entraînent une perturbation de la production de l’hormone mélatonine, dont on sait qu’elle constitue un lien biochimique important. Un déficit de cette hormone favorise le développement, par exemple, du cancer du sein ainsi que le développement de maladies cérébrales dégénératives telles que la maladie de Parkinson ou la maladie d’Alzheimer, mais entraîne également des problèmes cardiaques. »

Le rapport supprimé confirme également que les champs électromagnétiques peuvent provoquer des leucémies chez les enfants.

« En outre », poursuivent les auteurs du rapport, « il existe un risque accru de développer une leucémie et des tumeurs cérébrales chez les adultes qui sont exposés à des champs puissants en raison de leur profession. »

L’hypothèse est que les champs électromagnétiques perturbent le fonctionnement biochimique des cellules ou influencent certains gènes. Ces deux mécanismes peuvent causer des dommages permanents aux cellules. (Les ingénieurs génétiques utilisent le rayonnement électromagnétique pour ouvrir les membranes cellulaires et insérer des gènes étrangers).

[Voir aussi le dossier
5G et ondes pulsées
dont Paquet d’ondes radio]

Les auteurs de ce rapport supprimé soulignent également que les interactions entre les rayons électromagnétiques et les cellules du système immunitaire peuvent favoriser l’apparition de cancers — et que l’influence des champs électromagnétiques sur les organes reproducteurs peut également provoquer des maladies.

Les auteurs de cette étude supprimée demandent que des recherches supplémentaires soient effectuées et que les seuils d’intensité des champs électromagnétiques soient abaissés à un niveau qui serait dépassé par le câblage électrique moderne et les appareils ménagers ordinaires.

L’étude suggère également que les lignes électriques aériennes peuvent constituer une menace importante pour la santé humaine. Les valeurs seuils recommandées par ce rapport américain supprimé sont 5 000 fois inférieures aux valeurs seuils internationalement reconnues.

Il n’est pas difficile de comprendre pourquoi le gouvernement américain a supprimé ce rapport. Si ses conclusions étaient mises en œuvre, de vastes industries seraient touchées et très peu d’usines, de bureaux ou de maisons seraient considérés comme sûrs.

En guise de mesure provisoire, les auteurs de l’étude demandent que ce qu’ils appellent le « bombardement permanent de radiations » auquel nous sommes tous soumis soit réduit progressivement. Ils recommandent que toutes les lignes électriques aériennes soient retirées des zones résidentielles et que les maisons et les écoles ne soient plus construites à proximité des lignes électriques.

Malheureusement, je suis moins surpris par le fait que ce rapport ait été supprimé que je ne l’aurais été s’il avait été publié. Les hommes politiques modernes sont contrôlés par les grandes entreprises et leurs lobbyistes.

Ce qui précède est extrait de « Superbody : How to Boost Your Immune System » (Super corps : Comment renforcer votre système immunitaire) (2014) de Vernon Coleman.

À propos de l’auteur

Vernon Coleman MB ChB DSc a exercé la médecine pendant dix ans. Il est auteur professionnel à plein temps depuis plus de 30 ans. Romancier et écrivain militant, il a écrit de nombreux ouvrages non romanesques. Il a écrit plus de 100 livres qui ont été traduits en 22 langues. Son site web, www.vernoncoleman.com, contient des centaines d’articles dont la lecture est gratuite.




Production d’infrasons, perception et effets sur la santé associés aux éoliennes

[Source : stopthesethings.com — document PDF repris ci-dessous]

Le Sénat australien
Comité restreint sur les éoliennes

Soumission : Dr M. A. Swinbanks

Production d’infrasons, perception et effets sur la santé associés aux éoliennes

20 mars 2015

SOMMAIRE

Résumé

Ce mémoire présente la production, la perception et les conséquences pour la santé des sons de basse fréquence et des infrasons émanant des installations éoliennes, suivi d’une description de l’expérience directe de ces effets par l’auteur. Il est divisé en quatre sections principales, qui traitent chacune de ces aspects spécifiques. Les sections sont conçues pour être largement autonomes, de sorte qu’elles peuvent être lues séparément et indépendamment les unes des autres.

Des aperçus succincts des quatre sections sont présentés en premier lieu. Des comptes rendus plus longs et plus détaillés, avec les références appropriées, sont présentés par la suite dans des annexes séparées, pour ceux qui souhaitent examiner les questions de manière plus approfondie.

1. La production d’infrasons par les éoliennes modernes à rotor ascendant

Les premières recherches sur les caractéristiques des grandes éoliennes à rotor ascendant de 2,5 MW et de 90 m de diamètre ont été entreprises par la NASA et Boeing en 1979. Trois éoliennes bipales MOD-2 formant un réseau triangulaire ont été mises en service en 1981, afin d’étudier les caractéristiques de la production d’énergie, de la production de bruit et des interactions avec le sillage. Les résultats ont validé les études théoriques et numériques antérieures, confirmant les mécanismes fondamentaux par lesquels ces turbines à vent génèrent des bruits de basse fréquence et des infrasons. Dans les années qui ont suivi, l’amélioration des profils de pales associée à la construction de pales en matériaux composites et à un contrôle plus précis du pas a permis d’obtenir des caractéristiques sonores plus silencieuses à des fréquences plus élevées. Les mécanismes primaires définissant la production d’infrasons, à savoir les forces de portance sous-jacentes qui sont la condition nécessaire pour générer du couple et de la puissance, ne peuvent pas être réduits de la même manière, de sorte que les infrasons correspondants associés aux turbines modernes sont toujours inévitablement présents.

Lorsque les parcs éoliens deviennent de plus en plus grands, avec parfois 140 éoliennes ou plus, un certain nombre de facteurs peuvent entraîner une augmentation des niveaux d’infrasons. En particulier, les sillages des éoliennes situées en amont qui se répercutent sur les éoliennes situées en aval entraînent des forces de portance instables supplémentaires et donc une production accrue d’infrasons, en particulier si les éoliennes sont trop rapprochées les unes des autres.

Les caractéristiques de propagation du son dans des conditions d’inversion stable de la température atmosphérique peuvent entraîner la propagation des infrasons sur des distances beaucoup plus grandes, tandis que l’acoustique de base des grands réseaux signifie que les problèmes rencontrés d’abord à courte distance des petits parcs éoliens peuvent se manifester à des distances beaucoup plus grandes à partir de la périphérie des grandes installations. Il devient donc de plus en plus important d’identifier correctement l’influence des infrasons et des sons de basse fréquence sur les communautés voisines.

2. La perception des sons de basse fréquence et des infrasons

La méthode conventionnelle pour évaluer si les basses fréquences et les infrasons sont perceptibles consiste généralement à comparer visuellement les niveaux spectraux de puissance ou les niveaux du tiers d’octave1 avec le seuil d’audition. Ce processus approximatif a cependant peu de chances d’être précis dans le contexte des éoliennes à basse fréquence, car il n’évalue que le niveau moyen du son et ne tient pas compte du caractère du son ou de la relation entre les bandes de fréquences adjacentes. Lorsque le son est impulsif, les niveaux de crête peuvent dépasser les niveaux moyens de manière significative, et cette information n’est pas présente dans le spectre de puissance conventionnel ou dans la mesure du tiers d’octave. En outre, la littérature fait état d’un certain nombre de cas où les basses fréquences et les infrasons sont clairement perçus à des niveaux nettement inférieurs à ceux qui seraient évalués par des comparaisons de base avec le seuil d’audition.

L’auteur a poursuivi des recherches spécifiques dans ce contexte et a identifié des mécanismes par lesquels ceux de perception conventionnels connus peuvent être plus sensibles que ce qui est actuellement reconnu. En outre, d’autres chercheurs ont proposé deux autres processus susceptibles d’expliquer la sensibilité accrue aux infrasons de très basse fréquence. La perception auditive conventionnelle est considérée comme se produisant via la réponse des cellules ciliées internes de la cochlée (la structure sensorielle de l’oreille interne), mais il a été démontré que les cellules ciliées externes de la cochlée réagissent avec une plus grande sensibilité aux très basses fréquences et induisent des signaux neurologiques supplémentaires. Jusqu’à présent, on considérait que ces cellules ciliées externes ne faisaient que contrôler la sensibilité globale du processus auditif, mais il est possible qu’elles contribuent aussi directement à la perception des très basses fréquences.

Un autre mécanisme a été proposé, selon lequel les pressions sonores agissant par l’intermédiaire du liquide lymphatique directement sur les otolithes des organes vestibulaires (équilibre) exercent des forces comparables à celles induites par le mouvement et l’accélération. Toute non-uniformité dans la compliance des structures supportant ces capteurs otolithiques peut alors entraîner une réponse qui simule celle d’un mouvement physique. En effet, il a été avancé que la corrélation entre les personnes qui souffrent du mal des transports et celles qui signalent des effets néfastes des éoliennes est suffisante pour être plus que le résultat d’un simple hasard.

En résumé, plusieurs processus peuvent être à l’origine de la perception des infrasons à très basses fréquences, de sorte que l’adoption d’un seul critère global pour définir s’il y a ou non perception n’est pas du tout appropriée.

3. Effets sur la santé des infrasons produits par les éoliennes

3.1 Rapport AWEA/CANWEA sur le bruit et la santé des éoliennes, décembre 2009

Ce rapport AWEA/CANWEA a été la première étude à réunir des experts de la communauté acoustique et du corps médical pour examiner la nature des effets néfastes sur la santé associés aux éoliennes. En tant que tel, il a été largement cité et a défini une perspective qui continue à prévaloir dans des études similaires ultérieures.

De l’avis de l’auteur, il ne tient absolument pas compte de deux des aspects les plus importants de la perception des basses fréquences et des infrasons. En particulier, il n’est pas fait mention du fait que le seuil d’audition s’adapte automatiquement au niveau sonore ambiant, de sorte que les infrasons dans les villes et les banlieues sont bien en dessous du seuil et totalement imperceptibles, alors que dans les zones rurales calmes, le seuil d’audition beaucoup plus bas permet de percevoir les effets néfastes des éoliennes. Par conséquent, les arguments dédaigneux qui assimilent directement les niveaux d’infrasons dans ces deux environnements très différents, sans tenir compte de ces différences significatives de perception, sont fondamentalement erronés.

Deuxièmement, le rapport ne mentionne pas non plus qu’une exposition continue aux bruits de basse fréquence et aux infrasons peut entraîner une sensibilité physique de plus en plus aiguë aux sensations et aux effets.

Le présent auteur s’est familiarisé avec ces deux aspects lorsqu’il travaillait sur le contrôle actif du son des compresseurs de turbines à gaz industrielles au début des années 1980, dans un environnement rural. Il est donc d’autant plus frappant que certains rapports d’experts ne mentionnent même pas ces deux effets importants.

3.2 Les niveaux sonores élevés autorisés pour les éoliennes aux États-Unis

L’une des raisons de la confusion qui règne dans les rapports sur les effets néfastes des éoliennes sur la santé réside dans le fait que les niveaux sonores autorisés pour les éoliennes aux États-Unis sont généralement beaucoup plus élevés que dans d’autres pays. Alors que de nombreux pays exigent aujourd’hui des reculs de 2 km, il n’est pas rare aux États-Unis que les reculs soient de 300 à 400 m, ce qui correspond à des niveaux sonores autorisés de 45-50 dBA ou plus. Par conséquent, les plaintes des résidents concernés sont beaucoup plus nombreuses que dans d’autres pays où les normes sont plus prudentes. La discussion et l’évaluation de ces problèmes à l’échelle mondiale n’établissent souvent pas clairement cette distinction, de sorte qu’il peut y avoir une grande confusion quant aux problèmes qui découlent de ces reculs très rapprochés et à ceux qui peuvent encore survenir à des reculs plus importants.

3.3 Effets nocebo, agacement, personnalité et activistes

Il est devenu courant de rejeter la responsabilité des réactions négatives aux éoliennes sur les riverains, plutôt que de reconnaître l’intrusion importante que ces installations peuvent représenter. L’argument selon lequel les effets néfastes sur la santé sont le résultat d’effets nocebo, c’est-à-dire d’une réaction négative directement anticipée, ne tient absolument pas compte des nombreux cas où les communautés ont initialement accueilli favorablement l’introduction d’éoliennes, pensant qu’elles représentaient une forme propre et bénigne de production d’énergie à faible coût. Ce n’est qu’après la mise en service des éoliennes que les habitants commencent à ressentir directement la nature négative des problèmes de santé qu’elles peuvent induire.

De même, on affirme souvent que de nombreux problèmes surviennent parce que les résidents sont « gênés » par le bruit, au lieu d’affirmer plus précisément que les résidents « souffrent d’une gêne ». Il est très important de faire la distinction entre un effet imposé de l’extérieur et un effet auto-induit. En outre, la suggestion que la responsabilité incombe à des types spécifiques de personnalité implique que les personnes qui ont cherché un mode de vie rural parce qu’elles préfèrent le calme et la tranquillité à un environnement urbain sont fautives. Il est peu probable qu’un grand nombre de personnes vivant dans des zones rurales aient des personnalités présélectionnées leur permettant d’être tolérantes à l’égard d’une intrusion extérieure indésirable.

Récemment, on a avancé l’argument selon lequel les problèmes sont créés par des activistes qui sonnent l’alarme avant l’autorisation et l’installation d’un parc éolien, et que le nombre ultérieur de plaintes peut être directement corrélé à la présence préalable de ces activistes. Cet argument est dénué de sens s’il ne tient pas compte des niveaux sonores réels, des reculs et de la géographie des parcs éoliens individuels, ou du fait qu’il y aurait beaucoup plus de plaintes aux États-Unis qu’en Europe, étant donné que les niveaux sonores autorisés aux États-Unis sont nettement plus élevés qu’ailleurs.

4 Une expérience de première main des graves effets néfastes des infrasons

Le présent auteur a vécu à temps partiel dans le comté de Huron, dans le Michigan, où, fin 2009, a été annoncée l’intention d’installer jusqu’à 2 800 éoliennes sur une superficie de 800 miles carrés. Il avait été estimé que la région, à savoir le Pouce du Michigan, était la plus appropriée du Michigan pour le développement de l’énergie éolienne. À l’époque, deux parcs éoliens préliminaires avaient été construits, à Elkton (32 turbines V80 Vestas de 2 MW) et à Ubly (46 turbines GE 1,5 SLE). À ce jour, plus de 320 éoliennes ont été érigées et le comté envisage des ordonnances appropriées pour les installations futures, étant donné qu’une ligne de transmission de 5 GW a été installée, ce qui permet d’ériger un nombre beaucoup plus important d’éoliennes.

Le parc éolien d’Ubly a été construit par le même promoteur éolien que celui auquel le Dr Nina Pierpont s’était opposée ailleurs en 2005, lorsqu’elle avait affirmé que les éoliennes pouvaient avoir des effets néfastes sur la santé. L’installation d’Ubly a également été spécifiée en 2005, avec des reculs de 305 mètres, et a manifesté tous les effets négatifs signalés à l’origine par le Dr Pierpont. Un certain nombre de résidents ont par la suite intenté une action en justice contre les promoteurs éoliens, qui a finalement été réglée à l’amiable, bien que la nature exacte du règlement reste confidentielle.

Plus récemment, on a demandé à cet auteur d’aider à effectuer des mesures des infrasons présents dans le sous-sol d’une résidence d’Ubly, à 460 m de l’éolienne la plus proche, mais au cours de l’opération, il a ressenti de graves effets directement désagréables de lassitude et de nausée. Ces effets étaient totalement inattendus, étant donné qu’il s’agissait d’une soirée très calme et tranquille, avec un vent négligeable à basse altitude et un coucher de soleil impressionnant, alors qu’il y avait manifestement du vent à plus haute altitude puisque toutes les éoliennes fonctionnaient et produisaient de l’électricité.

Après cinq heures passées à effectuer des mesures et des analyses, l’auteur s’est senti extrêmement mal et n’a été que trop soulagé de quitter les lieux. Il a ensuite constaté qu’en essayant de rentrer chez lui en voiture, sa coordination et son jugement étaient complètement compromis, et c’est donc avec un énorme soulagement qu’il a finalement terminé le voyage.

Cet incident a suffi à faire comprendre à l’auteur à quel point les effets néfastes des éoliennes sur la santé peuvent être graves. En effet, les niveaux d’infrasons mesurés correspondent étroitement à ceux qui ont été mesurés par la suite à des distances beaucoup plus grandes dans un certain nombre de parcs éoliens en Australie, et qui ont apparemment causé des troubles chez les résidents.

Par conséquent, l’auteur ne sous-estime pas l’ampleur de l’impact des éoliennes sur une communauté rurale.

Annexes

A1. La production d’infrasons par les éoliennes modernes à rotor ascendant

Dans cette section, la discussion se concentre d’abord sur les premières études des éoliennes menées par la NASA et Boeing sur une période de 15 ans, jusqu’en 1989. La raison en est que de nombreux éléments fondamentaux des caractéristiques des infrasons des éoliennes ont été correctement identifiés à cette époque, mais semblent avoir été par la suite négligés ou ignorés par les promoteurs de parcs éoliens plus récents.

Lors des premiers développements de très grandes éoliennes de plusieurs MW à la fin des années 1970, la configuration initialement choisie était celle d’une éolienne à rotor descendant, le rotor étant placé derrière la tour de soutien. Cette configuration permettait d’aligner naturellement le rotor sur la direction du vent, mais présentait l’inconvénient, lorsque les pales tournaient, de traverser le sillage généré par la structure de la tour. Cela entraînait de fortes variations impulsives de la portance du rotor et la production de niveaux très importants d’infrasons et de sons audibles à basse fréquence. La NASA, qui a dirigé ces recherches, a rapidement compris (1979-80) que le montage et le contrôle de l’alignement du rotor du côté du vent éviteraient cet effet et permettraient un fonctionnement beaucoup plus silencieux. En 1981, la NASA et Boeing ont mis en service un trio de 3 turbines « MOD-2 » de 2,5 MW à rotor ascendant, sur un site de l’État de Washington, aux États-Unis [1]. [Ces turbines étaient bipales et non tripales, comme c’est le cas dans les configurations plus modernes. Néanmoins, cette installation est devenue le premier exemple d’un parc éolien de plusieurs MW et a essentiellement confirmé les prévisions numériques [2] de la réduction attendue de la production de basses fréquences et d’infrasons associée à la conception à rotor ascendant, ce qui s’est avéré être une amélioration significative par rapport aux configurations antérieures à rotor descendant.

En 1989, cependant, la NASA [3] a constaté que certaines turbines à rotor ascendant de conception plus récente, notamment les Westinghouse WWG-0600 installées à Hawaï, généraient des niveaux inattendus d’infrasons impulsifs, presque comparables aux configurations antérieures à rotor descendant. La NASA a déclaré : « La présence d’harmoniques de bruit de rotation relativement fortes dans toutes les conditions d’essai et sur tous les sites de mesure est un résultat inattendu pour une configuration au vent d’une machine à axe horizontal ». Ces éoliennes étaient montées le long de lignes de crête perpendiculaires au vent dominant, avec un sol ondulé et incliné devant les éoliennes. L’analyse des gradients de vent résultant de ces contours a indiqué la cause probable de l’augmentation des niveaux d’harmoniques de rotation et a permis la simulation numérique des caractéristiques sonores observées. L’effet du passage des pales de l’éolienne à travers les vitesses de vent réduites vers le bas de leur plan de rotation a entraîné des changements transitoires de la force de portance, ce qui a entraîné des niveaux accrus d’infrasons impulsifs, qui ne sont pas sans rapport avec les effets de croisement de sillage des éoliennes d’origine situées sous le vent.

Ces premières études de la NASA, bien que réalisées il y a plus de 25 à 35 ans, ont permis d’identifier les deux principales caractéristiques de la production d’infrasons par les éoliennes à rotor ascendant, qui s’appliquent toujours aux conceptions modernes. Il s’agit du fait que, dans des conditions de vent presque uniforme, la production d’infrasons se limite aux harmoniques les plus faibles de la vitesse de rotation des pales, mais que, dans des conditions défavorables, les infrasons peuvent devenir plus impulsifs. Cela réfute les arguments que l’auteur a pu constater de visu de la part des concepteurs d’éoliennes et de leurs collègues, à savoir que les premières recherches de la NASA ne portaient que sur des conceptions démodées de rotors descendants.

En effet, dans un article de 2006 « revu par les pairs » [4], le Dr H.G.Leventhall a cherché à discréditer le Dr Nina Pierpont (auteur ultérieur de [5]) pour avoir suggéré que les turbines modernes pouvaient générer des infrasons impulsifs, en soutenant qu’elle avait mal présenté la première publication de Van den Berg de 2004 [6]. Mais il a choisi d’ignorer que la deuxième publication de Van den Berg en 2004 impliquait directement la génération d’harmoniques infrasonores impulsives [7].

De plus, dans un témoignage écrit ultérieur de Kent Breeze [8], Leventhall a également rejeté les analyses préliminaires du présent auteur concernant la perception des infrasons impulsifs, arguant qu’il (c’est-à-dire cet auteur) avait mal compris et que ces caractéristiques ne concernaient que les éoliennes à l’ancienne. Il est donc clair que la communauté des éoliennes a été réticente à reconnaître ces caractéristiques des éoliennes modernes à rotor ascendant.

A1.2 Mécanismes générateurs d’infrasons

Les mécanismes généraux par lesquels les moteurs à réaction, les structures aérodynamiques et les éoliennes produisent du bruit ont été placés pour la première fois sur une base mathématique rigoureuse par M. J. Lighthill en 1952 [9]. Son analyse a résisté à l’épreuve du temps et a d’ailleurs directement permis de réduire considérablement le bruit des moteurs à réaction depuis le début des années 1960. Il a identifié trois types distincts de sources de bruit aérodynamique, à savoir les sources monopolaires d’écoulement volumique, les sources dipolaires associées aux forces aérodynamiques et les sources quadripolaires associées aux écoulements d’air turbulents.

On considère parfois à tort que la production de sons à très basse fréquence associée aux éoliennes résulte du processus de « séparation de l’air » par la pale et de l’augmentation transitoire du volume déplacé (source monopolaire). Mais si une éolienne est découplée de son générateur de sorte qu’elle ne génère pas d’énergie, tout en continuant à tourner librement, il y a relativement peu de bruit malgré le fait que cette « séparation de l’air » se produise toujours.

Le principal processus qui génère des infrasons à très basse fréquence est l’effet de la force de portance aérodynamique de la pale agissant sur l’air — c’est-à-dire le deuxième des trois mécanismes générateurs de sources de Lighthill. Même si une force de portance constante et immuable tourne en cercle, les changements périodiques de sa position donnent lieu à la production de sons. Pour une pale d’éolienne idéale produisant de l’énergie dans un flux d’air complètement uniforme et constant, le son résultant consiste principalement en l’harmonique de vitesse de pale la plus basse, plus, dans une moindre mesure, les deuxième et troisième harmoniques immédiates.

Ce processus de production d’infrasons est inévitable. Pour qu’une éolienne puisse fournir de l’énergie utile, elle doit répondre à deux exigences. D’une part, elle doit ralentir le vent afin d’en extraire l’énergie. Deuxièmement, elle doit convertir cette énergie en un couple de rotation pour entraîner son générateur. Les pales de l’éolienne doivent donc exercer une force vers l’avant sur le vent pour le ralentir, tout en exerçant des forces tangentielles supplémentaires dans la direction circonférentielle pour obtenir le couple nécessaire. Ces objectifs simultanés sont atteints par la torsion et l’alignement des pales par rapport au vent, de sorte que les deux composantes de la force peuvent être générées par la « portance » aérodynamique des pales.

Pour toute éolienne qui produit de l’énergie, ces deux composantes de la force de rotation doivent être présentes. En retour, une certaine quantité d’infrasons est inévitablement générée, quelles que soient la précision et l’exactitude avec lesquelles les pales sont profilées, polies et aérodynamiques.

Ces effets sous-jacents fondamentaux ont été modélisés avec précision par la NASA dans le cadre de son étude sur les turbines à rotor en amont. Cependant, les circonstances réelles introduisent des effets supplémentaires. L’existence de la tour de support en aval des pales exige toujours que le flux d’air se sépare autour de la tour, ce qui donne lieu à un certain degré de modification en amont du flux directement devant la tour. La NASA a d’abord modélisé ces effets en partant de l’hypothèse d’une modification relativement douce de l’écoulement, mais dans la pratique, les tourbillons de traîne provenant de l’extrémité des pales de l’éolienne peuvent également avoir un impact sur la tour et entraîner une augmentation de la production de bruits infrasonores. En même temps, comme nous l’avons déjà mentionné, l’air se déplaçant plus lentement et plus près du sol au bas de la rotation des pales peut donner lieu à des variations transitoires récurrentes supplémentaires de la force de portance sur les pales de l’éolienne. Cet effet est d’autant plus important que le diamètre des rotors des éoliennes augmente, car les pales tournent alors sur une distance verticale beaucoup plus grande et la variation de la vitesse du vent entre le haut et le bas de l’arc de rotation peut alors être beaucoup plus importante. Enfin, toute turbulence à grande échelle présente dans le flux d’air incident entraîne des forces de portance fluctuantes supplémentaires qui peuvent également interagir avec les infrasons générés et les modifier.

Ce dernier aspect est particulièrement vrai pour les éoliennes qui sont placées trop près les unes des autres dans un parc éolien. Les sillages des éoliennes situées en amont sont convectés par le vent vers l’aval et peuvent compromettre les forces de portance générées par les éoliennes situées plus en aval, ce qui a des conséquences négatives à la fois sur la durée de vie des pales et sur la production d’infrasons excessifs. En outre, le « déficit de sillage » provoqué par l’extraction d’énergie en amont réduit également la quantité d’énergie que l’éolienne située en aval peut générer pour une force de vent donnée. Cet effet a été étudié pour la première fois lors de la conception du réseau MOD-2 de 1981, composé de 3 turbines à rotor ascendant. [10]. Les trois turbines ont été placées dans un réseau triangulaire non uniforme, chaque côté de ce triangle ayant une longueur différente, représentant des séparations de turbines de 5 diamètres, 7 diamètres et 10 diamètres respectivement. Selon la direction du vent, l’une des branches de ce triangle inégal était orientée le plus près du vent, et les deux turbines situées à chaque extrémité étaient alors séparées par l’une des distances de 5, 7 ou 10 diamètres par rapport au vent. La NASA a par la suite indiqué que les effets négatifs éventuels se situaient dans des limites acceptables pour des espacements de 7 et 10 diamètres, bien que même à 10 diamètres, il y ait eu quelques cas de réduction de la puissance de sortie (15 à 25 %) de l’éolienne située en aval [11].

Pourtant, malgré ces premières recherches, des exemples plus récents de parcs éoliens ont été construits avec des séparations dans la direction du vent aussi faibles que trois diamètres de pale d’éolienne, ce qui, sans surprise, a donné lieu à des plaintes de la part des résidents voisins pour bruit excessif et infrasons. Le réseau triangulaire à côtés égaux de trois éoliennes modernes de type

Les turbines GE1.5sle de 1,5 MW installées à Vinalhaven, dans le Maine, à cette distance rapprochée, semblent être un exemple susceptible de produire des effets négatifs dans presque toutes les directions du vent. En outre, le parc éolien de MacArthur en Australie, composé de turbines Vestas V112 de 3 MW, dont certaines ont des séparations minimales de 3 diamètres de pales, devrait également entraîner une augmentation des bruits de basse fréquence et des infrasons, ainsi qu’une perte correspondante de l’efficacité globale de la production d’énergie.

Les conclusions générales de cette section peuvent être résumées en deux figures, à savoir la figure (1) et la figure (2). La figure (1) montre un spectre d’infrasons presque typique pour une éolienne fonctionnant dans un flux d’air relativement doux et propre, tandis que la figure (2) montre le changement de caractère associé à des infrasons beaucoup plus impulsifs mesurés sous le vent d’un réseau d’éoliennes, résultant en de multiples effets transitoires périodiques. La différence est immédiatement apparente et facilement reconnaissable dans la pratique.

Figure 1
Figure 2

A1.3 Propagation à longue distance des infrasons

Un effet supplémentaire doit être pris en compte lorsque l’on examine comment les basses fréquences et les infrasons, une fois générés par les éoliennes, peuvent se propager par la suite. Dans des conditions atmosphériques normales, la température de l’air diminue progressivement à mesure que l’altitude augmente, et dans ces circonstances, la propagation des sons audibles et des infrasons s’étend et s’atténue à un taux similaire de -6 dB par doublement de la distance. L’atténuation des fréquences audibles les plus élevées est également de plus en plus importante, en raison de l’absorption du son dans l’atmosphère.

Dans certaines conditions atmosphériques, il peut toutefois y avoir une « inversion » de température. Ce phénomène peut se produire en particulier la nuit ou tôt le matin, lorsque le sol et l’air situé juste au-dessus perdent de la chaleur plus rapidement que l’air situé à plus haute altitude. Par conséquent, sur plusieurs centaines de pieds ou plus, l’air peut en fait se réchauffer avec l’augmentation de l’altitude, avant de revenir en altitude à son profil de refroidissement plus habituel.

Une situation similaire peut se produire lorsque le vent passe d’un vent froid soufflant sur un sol froid à un vent plus chaud provenant d’une autre direction et soufflant sur le même sol initialement plus froid.

Une conséquence bien connue de ce profil de température d’inversion est que les sons de basse fréquence peuvent être piégés et réfléchis par la couche d’inversion, de sorte qu’ils se propagent plus lentement. Son taux d’atténuation se réduit alors plus généralement à -3 dB par doublement de la distance, de sorte qu’à grande distance, bien que les hautes fréquences puissent être imperceptibles, les basses fréquences et les infrasons peuvent encore être clairement détectés. L’auteur et sa femme ont parfois été empêchés de dormir par le bruit de basse fréquence facilement perceptible et le « bruit silencieux » infrasonique d’un parc éolien à une distance de 3 miles.

A1.4 Effet de l’augmentation de la taille des parcs éoliens et du nombre de turbines

Un autre effet, qui ne semble pas être largement reconnu, est qu’à mesure que la taille des parcs éoliens augmente, la distance au-delà de la limite du parc éolien que le son audible peut propager avant de s’atténuer de manière significative a également tendance à augmenter. Ainsi, par exemple, pour un petit parc de 8 à 10 éoliennes, il peut suffire de ne pas dépasser 1 km pour que le son diminue jusqu’à un niveau acceptable. Lorsque la taille du parc éolien passe à (disons) 40 turbines, la distance nécessaire pour réduire le bruit à un niveau similaire peut être portée à 1,5 -2 km. Pour un parc éolien encore plus grand de 160 éoliennes, cette exigence ne peut être satisfaite qu’à une distance de 3 à 4 km.

En revanche, le son à l’intérieur du parc éolien tend à être dominé par l’éolienne la plus proche, ce qui fait qu’à mesure que la taille globale du parc éolien augmente, l’effet de tout changement de taille est beaucoup moins perceptible. Cela peut amener les promoteurs à penser que si un petit parc éolien s’est avéré satisfaisant, le fait de le rendre plus grand, mais avec une configuration similaire sera également satisfaisant. Si cela peut être vrai à l’intérieur ou à l’extérieur des limites du parc éolien, l’effet pour les résidents éloignés peut devenir de plus en plus perceptible au fur et à mesure que la taille augmente, de sorte que les marges de recul appropriées par rapport aux limites extérieures doivent être augmentées.

Cette double structure des effets sur le niveau sonore associés aux grands parcs d’éoliennes n’est certainement pas largement reconnue. À l’intérieur du parc éolien et à proximité des limites immédiates du parc, le niveau sonore est très largement dominé par les éoliennes les plus proches, et le nombre total est relativement peu important. Pour les résidences plus éloignées, en particulier en ce qui concerne les basses fréquences et les infrasons, le nombre total de turbines composant le parc éolien devient de plus en plus le facteur dominant, de sorte que la taille globale du parc éolien est alors directement pertinente.

A1.5 Remarques finales

Comme indiqué dans l’introduction, les premières recherches de la NASA ont permis d’identifier un certain nombre de caractéristiques associées aux turbines à rotor en amont. Plus précisément, ces caractéristiques sont les suivantes :

  • (i) les émissions d’infrasons aux fréquences les plus basses résultant de la rotation des pales et des forces de levage constantes nécessaires à la production d’énergie,
  • (ii) l’effet des gradients de vent et de l’ondulation des contours du sol au vent, qui entraînent des émissions répétitives d’infrasons impulsifs,
  • (iii) les effets de cisaillement du vent accrus qui peuvent résulter de l’installation d’éoliennes sur des crêtes,
  • et (iv) les problèmes d’interaction de sillage associés à une séparation trop étroite entre les éoliennes.

La conception aérodynamique seule ne peut pas facilement surmonter ces caractéristiques de base, mais doit être intégrée à un contrôle plus précis des conditions de fonctionnement des pales. Des techniques telles que le contrôle automatique du pas de chaque pale peuvent atténuer la charge dynamique afin de réduire les effets périodiques impulsifs, mais le besoin sous-jacent de produire de l’énergie nécessitera toujours la présence de forces de portance régulières et rotatives, qui donnent lieu à une composante inévitable d’infrasons.

La raison pour laquelle nous nous sommes référés à la recherche originale de la NASA des années 1980 peut maintenant devenir plus claire. Les toutes premières conceptions d’éoliennes à rotor descendant étaient sans aucun doute extrêmement bruyantes, produisant un large spectre d’infrasons impulsifs et de sons à basse fréquence. Les marges de recul associées à ces éoliennes étaient nécessairement importantes, et la nécessité de ces marges de recul était évidente. Les améliorations apportées par le passage à des configurations à rotor ascendant, puis par l’utilisation de pales en matériaux composites pour obtenir des surfaces aérodynamiques plus précisément définies, ont entraîné des réductions immédiates de la composante audible globale du bruit. Cette réduction, associée à l’amélioration de la technologie de contrôle, a permis d’obtenir des caractéristiques de bruit audible des éoliennes apparemment beaucoup plus acceptables. En conséquence, les promoteurs éoliens ont commencé à implanter les éoliennes beaucoup plus près des habitations, de sorte que les distances de recul, qui se mesuraient à l’origine en kilomètres, ont été ramenées à des distances de 300 à 400 mètres.

La physique de base associée à la production et à la propagation de très basses fréquences infrasonores à la vitesse des pales n’a toutefois pas changé, de sorte que les résidents peuvent ressentir des niveaux d’infrasons comparables ou supérieurs à ceux associés aux turbines plus éloignées et d’ancienne génération. À cet égard, la situation peut être trompeuse, car la nécessité d’un recul important n’est plus aussi évidente. La question se résume à savoir si l’existence inévitable de ces infrasons de basse fréquence représente ou non un réel problème pour la santé et le bien-être. Cet aspect est abordé dans les sections suivantes.

A2. La perception des sons de basse fréquence et des infrasons

Après avoir décrit les principaux mécanismes par lesquels les éoliennes peuvent générer des sons de très basse fréquence et des infrasons, l’auteur examinera dans cette section les moyens par lesquels ces effets peuvent être perçus.

Dans une série de documents de conférence [12], [13], il a décrit une séquence de recherches, avec l’objectif que celles-ci représentent une progression cohérente concernant des aspects du processus d’audition et de perception.

La motivation de cette démarche résulte de la lecture d’interminables évaluations acoustiques de spectres de niveaux de pression acoustique (SPL) d’éoliennes, dans lesquelles le commentateur comparait le niveau de fréquences discrètes spectrales individuelles avec une courbe représentant le seuil d’audition, et déclarait que le son était bien en dessous du seuil d’audibilité et sans conséquence. Cette approche ne tient absolument pas compte de la relation probable entre les différentes composantes de fréquence et du fait que leur effet cumulatif peut entraîner des niveaux de pression acoustique considérablement plus élevés que les niveaux évalués en les considérant séparément et indépendamment.

Dans un premier temps, il a montré comment ces composantes distinctes, indépendamment de la résolution en fréquence, pouvaient être normalisées et combinées en amplitude moyenne cumulée, ce qui a permis d’obtenir une première évaluation de l’audibilité correspondant à une « règle empirique » existante. Selon cette règle, la comparaison des niveaux moyens de la troisième octave avec le seuil d’audition indique le passage d’un son inaudible à un son audible. Mais l’auteur estime que ce critère moyen ne tient pas suffisamment compte du « facteur de crête » du son, c’est-à-dire de la mesure dans laquelle le son est fortement accentué par rapport à son amplitude moyenne quadratique en raison de la relation cohérente entre les différentes composantes. Plus précisément, les premières recherches de la NASA ont montré que le bruit impulsif des premières éoliennes pouvait être détecté lorsque les fréquences individuelles étaient jusqu’à 20 dB en dessous du seuil d’audition, et que les niveaux moyens carrés correspondants étaient inférieurs de 13 dB [14]. La comparaison des composantes spectrales individuelles avec le seuil d’audition était donc manifestement erronée dans ce contexte.

En effet, l’une des caractéristiques des recherches menées dans les années 1980 par la NASA et les organismes de recherche associés est qu’ils ont effectué des évaluations rigoureuses en laboratoire pour déterminer les seuils de perception du bruit à basse fréquence des éoliennes. Outre les travaux décrits dans [14], Kelley [15] a entrepris d’établir des critères d’audibilité, en considérant à la fois l’éolienne MOD-1 à rotor descendant et l’éolienne MOD-2 à rotor ascendant. Son commentaire décrivait très précisément les sensations que de nombreux habitants rapportent aujourd’hui régulièrement dans le contexte des grands parcs éoliens composés de turbines modernes à rotor ascendant. Pourtant, trente ans plus tard, son approche rigoureuse contraste avec les évaluations plus récentes de l’audibilité et de la perception basées simplement sur la comparaison visuelle des mesures du spectre de puissance avec le seuil d’audition, ce dernier ayant été défini en testant uniquement des composantes sinusoïdales pures et idéales à un seul ton.

Une réserve importante concernant les tests effectués dans les années 1980 est que l’exposition au bruit des sujets testés n’était que d’une durée relativement limitée. Cela ne tient pas suffisamment compte d’une situation où les résidents peuvent être exposés aux basses fréquences et aux infrasons des éoliennes pendant des heures ou des jours, ce qui a un impact particulier sur leur capacité à se détendre et à dormir la nuit.

Notant que l’article largement cité [16] de Moller et Pedersen affirme que lorsque la fréquence diminue, c’est l’évolution temporelle de la forme d’onde qui définit en fin de compte l’audibilité, l’auteur a alors entrepris de simuler numériquement le processus auditif, en procédant à une analyse dans le domaine temporel plutôt que dans le domaine fréquentiel conventionnel. La simulation du son impulsif du rotor descendant de la NASA a immédiatement montré comment une meilleure perception pouvait se produire, et a également montré que des exemples de « grondement » basse fréquence de compresseurs de turbines à gaz (avec lesquels l’auteur avait travaillé dans les années 1980) pouvaient également être audibles même lorsque le critère de la troisième octave moyenne les plaçait en dessous du seuil nominal d’audition.

Enfin, l’auteur a entrepris d’examiner les effets de l’interaction induite par le seuil entre un bruit de fréquence supérieure légèrement audible dans la première bande critique (c’est-à-dire moins de 100 Hz) et des infrasons simultanés de très basse fréquence [17]. À cet égard, l’auteur s’est inspiré d’un effet qui avait été clairement identifié au milieu des années 1970, lorsque les premiers analyseurs numériques de sons de fréquence sont apparus sur le marché. Ces analyseurs utilisaient généralement un convertisseur analogique-numérique à gamme finie de 12 bits, qui permettait en principe d’analyser le son sur une gamme dynamique de 72 dB. Si l’amplitude maximale crête à crête d’un signal sonore était inférieure à -72 dB par rapport à la plage maximale du convertisseur 12 bits, elle ne déclenchait pas le seuil de transition numérique et n’enregistrait donc aucune réponse. Mais si un tel signal était mélangé à un bruit de fond aléatoire d’un niveau suffisant pour que la combinaison globale franchisse facilement le seuil, il s’avérait que le signal de faible niveau, jusqu’alors inobservable, était « transporté au-delà du seuil » et pouvait alors être détecté. C’est ainsi qu’il est devenu courant de détecter et d’analyser avec précision des tonalités sinusoïdales jusqu’à -20 dB en dessous du seuil de réponse du convertisseur A-D, à condition qu’il y ait un niveau approprié de bruit de fond.

Un principe similaire est couramment exploité dans les récepteurs GPS modernes. Le signal GPS présent à la surface de la Terre est d’un niveau extrêmement bas, bien inférieur au bruit de fond électromagnétique, l’objectif spécifique étant d’éviter les interférences avec d’autres systèmes de communication. Les récepteurs GPS mettent alors en œuvre une détection de seuil, par laquelle la présence d’un bruit de fond aléatoire « soulève » et permet la détection de ce signal de très faible niveau, remplissant la même fonction que le bruit de fond acoustique dans le processus décrit ci-dessus.

Compte tenu de la robustesse avérée de ces techniques, l’auteur a décidé d’étudier si des effets similaires pouvaient permettre la perception d’infrasons de très faible intensité qui, à première vue, se situaient clairement en dessous du seuil d’audition. (i) Une réponse en fréquence correspondant au seuil d’audition dépendant de la fréquence, s’étendant au régime des infrasons. (ii) Un seuil d’amplitude bien défini en dessous duquel aucun signal ne serait transmis (iii). Des signaux sonores simulés limités à la bande critique la plus basse de l’audition (c’est-à-dire moins de 100 Hz).

En simulant le mélange d’un signal infrasonore de très faible niveau avec un autre son légèrement audible, il a été démontré que le signal infrasonore de faible niveau pouvait effectivement être détecté avec un niveau de précision significatif. En outre, en prenant un exemple réel d’infrasons d’éoliennes enregistrés qui étaient théoriquement imperceptibles, l’auteur a montré qu’en principe, de tels infrasons pouvaient être détectés à des niveaux et des fréquences beaucoup plus faibles que ce qui était considéré comme possible auparavant.

Ce processus s’est également avéré tout à fait cohérent avec des essais en laboratoire jusqu’ici inexpliqués et examinés par des pairs [18], [19] où des infrasons inférieurs au seuil d’audition théorique avaient néanmoins induit une réponse sensorielle. Une évaluation antérieure de la NASA avait également fait état de la perception d’effets infrasonores à des niveaux qui n’auraient pas été généralement considérés comme perceptibles [14].

Il convient de souligner que toutes les analyses de l’auteur se sont concentrées sur l’examen des effets dynamiques que l’on peut attendre d’un système possédant les caractéristiques macro-économiques bien définies de l’audition. Ces caractéristiques ont été établies à plusieurs reprises par des tests audiologiques conventionnels et ont fait l’objet de rapports réguliers pendant de nombreuses années.

Plus récemment, cependant, des recherches importantes ont été menées pour examiner le comportement à micro-échelle des cellules ciliées de l’oreille interne (cochlée) et leurs caractéristiques de réponse neurologique associées [20]. Ces recherches explorent et étudient des aspects qui dépassent largement l’expérience et les capacités quotidiennes de nombreux acousticiens. Néanmoins, il y a un aspect important dans lequel les résultats se recoupent immédiatement avec l’expérience connue. Cet aspect sera décrit à la fin de la section suivante.

A2.2 Existence de plusieurs mécanismes de perception des infrasons

Comme indiqué, les analyses qui ont été décrites jusqu’à présent concernent les caractéristiques conventionnellement acceptées de l’audition. Celles-ci correspondent à la transmission mécanique connue qui résulte de la vibration aérienne du tympan, via l’étrier de l’oreille moyenne jusqu’à l’entrée de la cochlée, et à la réponse subséquente des fluides lymphatiques de l’oreille interne conduisant au déplacement de la membrane basilaire et à l’excitation des cellules ciliées internes (CCI).

La réduction bien établie de -12 dB par octave de la réponse auditive dans les basses fréquences à mesure que la fréquence du son diminue est une conséquence directe des propriétés hydromécaniques de base de ce système. Dans le régime des infrasons, ce phénomène peut être caractérisé par l’échelle dBG de pondération G définie au niveau international, qui représente à bien des égards une extension de la caractéristique de pondération A à ces fréquences extrêmement basses. Mais contrairement à l’échelle de pondération A qui est normalisée à 0 dB à 1 kHz, l’échelle de pondération G est normalisée à 0 dB à 10 Hz, de sorte qu’il n’y a pas d’équivalence directe entre les valeurs sonores pondérées G et les valeurs sonores pondérées A. En effet, si l’on applique le processus de pondération G au seuil d’audition médian nominal, on constate que le seuil d’audition dBG varie en niveau entre 98dBG aux fréquences infrasonores moyennes, tombant à 89dBG autour de 20 Hz.

La gamme de fréquences de la pondération G des infrasons est délibérément restreinte par un filtrage passe-bande de manière à rejeter les fréquences supérieures à 20 Hz et inférieures à 1 Hz, de sorte qu’elle cesse d’être un critère pertinent en dehors de cette gamme de fréquences. Dans la gamme de fréquences prévue de 1 Hz à 20 Hz, l’échelle dBG peut toutefois fournir une première mesure utile de la perception des infrasons, en reflétant la réponse probable des cellules ciliées internes (CCI) de la cochlée par le biais du processus de transmission défini décrit dans le paragraphe précédent.

Récemment, cependant, Alec Salt [20] a signalé que les cellules ciliées externes de la cochlée se comportent très différemment des cellules ciliées internes. Contrairement aux cellules ciliées internes qui peuvent fléchir librement comme des roseaux en réponse à la vitesse du liquide endolymphatique, les cellules ciliées externes sont attachées à leurs extrémités à la membrane tectoriale. Elles réagissent donc principalement au déplacement direct des structures environnantes, plutôt qu’à la vitesse du fluide associé. La relation cinématique entre la vitesse et le déplacement est telle que pour toute valeur donnée de la vitesse, le déplacement correspondant devient proportionnellement plus important lorsque la fréquence diminue. Par conséquent, la réponse des cellules ciliées externes devient plus importante et plus dominante que celle des cellules ciliées internes à de très basses fréquences. Par conséquent, l’échelle de pondération G n’est plus appropriée pour décrire la réponse de ces éléments particuliers, qui peuvent néanmoins donner lieu à un stimulus neurologique.

En outre, dans une analyse très récente, P. Schomer a émis l’hypothèse [21] qu’à des fréquences extrêmement basses, c’est-à-dire inférieures à 1 Hz, les structures de soutien des organes vestibulaires (de l’équilibre), en particulier le saccule, peuvent être déformées par des variations de pression infrasoniques transmises par les mêmes fluides lymphatiques que ceux qui sont présents dans la cochlée. Cette théorie est basée sur la comparaison de l’ampleur relative des forces d’inertie et de pression sur les éléments otolithiques, ainsi que sur l’identification récente de la nature en porte-à-faux de leurs structures de soutien qui semblent posséder une compliance mécanique non isotrope. Auparavant, A. Salt avait soutenu que les organes vestibulaires, qui ont évolué pour détecter l’accélération physique, devraient être comparativement insensibles aux variations de pression infrasonique. L’argument de Salt était sans aucun doute correct si l’on suppose des caractéristiques structurelles régulières et isotropes. Mais si les éléments en porte-à-faux ne sont pas uniformes, l’effet des variations de pression sub-1Hz peut conduire à une distorsion correspondante et à une réponse neurologique induite par la suite. En outre, Schomer a montré que pour plusieurs résidents connus pour souffrir du mal des transports et qui ont simultanément signalé des effets indésirables dus aux infrasons des éoliennes, la corrélation dépasse de loin la probabilité qui serait normalement associée au simple hasard.

Si ces composants sont effectivement sensibles à la pression, cela indique un autre mécanisme qui pourrait devenir comparable à la réponse des cellules ciliées externes à des fréquences inférieures à 1 Hz. L’effet serait de compromettre le sens de l’équilibre d’un individu, donnant ainsi l’impression erronée qu’il est soumis à un mouvement et à une accélération.

Ainsi, au lieu d’un processus simple caractérisé par la réponse de pondération G, il pourrait y avoir jusqu’à trois processus supplémentaires liés à la perception des infrasons lorsque la fréquence est réduite, résumés comme suit. Premièrement, le processus d’amélioration de la détection du seuil conventionnel étudié par le présent auteur. Deuxièmement, la réponse de plus en plus sensible des cellules ciliées externes aux déplacements de la membrane. Troisièmement, l’hypothèse d’une distorsion du porte-à-faux à l’intérieur du saccule, conduisant à une détection de type mouvement à des fréquences inférieures à 1 Hz.

Il existe cependant une caractéristique très importante qui a déjà été démontrée et confirmée par A.Salt. Les cellules ciliées externes sont traditionnellement considérées comme contrôlant la sensibilité globale du processus auditif, un peu comme le contrôle automatique du gain dans les récepteurs radio. Il a montré qu’en excitant ces cellules ciliées externes avec un son de fréquence moyenne à 500 Hz, la réponse aux infrasons des cellules ciliées internes est supprimée de manière très significative. Cela explique l’observation établie selon laquelle le seuil d’audition est automatiquement relevé en présence d’un bruit de fond ambiant plus important. Ainsi, un individu devient progressivement moins sensible à la présence de bruits de basse fréquence et d’infrasons dans des bruits de fond ambiants de 55 dBA et plus. En revanche, dans un environnement rural très calme, ce processus de suppression n’a pas lieu et la sensibilité aux infrasons des éoliennes s’en trouve accrue. La perception des infrasons dans les environnements ruraux calmes ne doit donc jamais être assimilée à l’insensibilité comparative aux infrasons qui caractérise les niveaux ambiants plus élevés des environnements urbains ou suburbains.

A3. Effets sur la santé associés aux sons de basse fréquence et aux infrasons émis par les éoliennes

A3.1 Rapport AWEA/CANWEA sur le bruit et la santé des éoliennes, décembre 2009

Ce rapport de 2009 [22] continue d’être fréquemment cité et a sans aucun doute influencé de nombreuses études ultérieures sur la santé des éoliennes, bien qu’il n’ait jamais fait l’objet d’un examen par les pairs. Bien qu’il soit présenté comme fournissant des conseils aux décideurs, il offre une perspective globale très trompeuse.

Plus précisément, elle cite les lignes directrices de l’EPA de 1974 [23] pour le bruit ambiant, mais ne mentionne qu’un critère spécifique — un niveau de 45 dBA Ldn (c’est-à-dire 45 dBA Leq le jour, 35 dBA Leq la nuit) à l’intérieur d’une habitation pour éviter de perturber le sommeil. Pourtant, le contexte complet des lignes directrices de l’EPA de 1974 (annexe D) [24] propose un niveau sonore normalisé jour-nuit à l’extérieur de 55 dBA Ldn. Le « niveau normalisé » implique une correction supplémentaire de 10 dBA pour les environnements ruraux. La formule de Ldn normalisé qui en résulte donne un niveau sonore extérieur de 45 dBA Leq le jour/35 dBA Leq la nuit, soit un niveau sonore extérieur continu jour-nuit de 38,6 dBA Leq. En outre, elle recommande une correction supplémentaire de 5 dBA dans les cas où le son introduit est inhabituel pour le voisinage. Ces niveaux ruraux nocturnes extérieurs, définis avec compétence il y a plus de 40 ans, seraient aujourd’hui considérés comme largement compatibles avec l’expérience et les recommandations récentes en matière d’éoliennes. Pourtant, le rapport de l’AWEA ne transmet aucune de ces informations plus détaillées, rejetant en fait ces aspects comme n’ayant été conçus qu’à titre indicatif. Il donne l’impression que les lignes directrices de l’EPA sont trop prudentes parce qu’elles cherchent à fournir une « marge de sécurité adéquate ». L’auteur n’a jamais vu auparavant un commentaire, en particulier concernant des questions de santé potentielles, où il est approprié de se passer avec autant de désinvolture d’une « marge de sécurité adéquate ».

Il convient en outre de noter que cette recommandation de l’EPA d’un Ldn normalisé = 55 dBA a été largement utilisée à mauvais escient, avec des résultats préjudiciables pour certaines communautés. Un document résumant les directives d’utilisation des terres du Michigan (2007) [25], citant les directives de l’EPA comme source principale, recommandait un Ldn non modifié de 55 dBA comme acceptable pour les installations d’éoliennes. Aucune des modifications associées aux corrections jour-nuit ou rurales n’a été incorporée. Ce chiffre brut de 55 dBA a par la suite été intégré dans certaines ordonnances du Michigan relatives aux éoliennes, mais le rapport AWEA/CANWEA n’a jamais reconnu ces exemples évidents d’utilisation abusive.

En décembre 2009, quelques jours avant l’annonce de ce rapport de l’AWEA, l’auteur avait soumis un document de 5 pages à la Commission des services publics du Michigan [26]. Son rapport a été rédigé en quelques jours afin de respecter un délai prescrit, et s’appuie très largement sur une expérience directe de plusieurs années. Il a notamment souligné l’importance de l’élévation et de l’abaissement automatiques du seuil d’audition en fonction de l’environnement ambiant. En outre (toujours sur la base d’une expérience directe), une exposition fréquente et prolongée à des bruits de basse fréquence peut entraîner une perception beaucoup plus prononcée de ces bruits, avec pour conséquence qu’ils peuvent être perçus de plus en plus facilement.

L’auteur considère que ces deux caractéristiques spécifiques sont parmi les plus importantes dans toute évaluation de la perception du bruit des éoliennes à basse fréquence, mais le rapport de l’AWEA/CANWEA ne mentionne aucune de ces deux caractéristiques. En fait, c’est l’inverse qui est décrit. Il est affirmé que le bruit des éoliennes ne peut pas être nocif, car les gens vivent sans difficulté dans des environnements urbains de 55 dBA, et de nombreuses personnes s’acclimatent à des bruits persistants de faible intensité.

« Si les niveaux sonores des éoliennes étaient nocifs, il serait impossible de vivre en ville, compte tenu des niveaux sonores normalement présents dans les environnements urbains. »

« D’autre part, de nombreuses personnes s’habituent à une exposition régulière au bruit ou à d’autres facteurs de stress potentiels et ne sont plus gênées. »

La première affirmation est totalement trompeuse. C’est l’élévation automatique du seuil d’audition avec l’augmentation du bruit ambiant qui rend la vie en ville facilement tolérable. Dans les zones rurales calmes, où le niveau sonore ambiant est faible la nuit, l’oreille est « grande ouverte », de sorte que le bruit des éoliennes devient très gênant. Ce seuil d’audition variable, qui protège les processus de détection de la cochlée, fonctionne de la même manière que l’iris variable de l’œil qui réagit à la lumière ambiante et protège la rétine.

Le résultat est directement analogue au fait qu’une voiture s’approchant avec ses pleins phares en plein jour est inoffensive, mais éblouit complètement la nuit, lorsque l’iris de l’œil est « grand ouvert ». Personne ne s’en sortirait avec l’affirmation erronée « Les phares ne peuvent pas éblouir la nuit, sinon il serait impossible de s’aventurer dehors en plein jour ! »

A3.2 Les niveaux sonores élevés autorisés pour les éoliennes aux États-Unis

Au début de l’année 2010, le comté de Huron, dans le Michigan, envisageait de modifier ses ordonnances en passant d’un niveau de 50 dBA L10 pour tous les propriétaires fonciers à un niveau réduit de 45 dBA L10 uniquement pour les propriétaires fonciers non participants. L’auteur a assisté à de nombreuses réunions publiques au cours desquelles il a plaidé en faveur de niveaux sonores encore plus bas et de marges de recul plus importantes, mais le rapport de l’AWEA/CANWEA et sa longue liste d’auteurs ont été cités contre lui, justifiant apparemment le point de vue du comté.

Cette situation est d’autant plus exaspérante que l’un de ses auteurs, le Dr Leventhall, a fait une présentation à l’université de South Bank, à Londres, en novembre 2009, un mois avant la publication du document de l’AWEA/CANWEA. Il a été rapporté [27] qu’il avait déclaré lors de cette présentation

« Je pense que les législateurs américains reconnaissent que, dans de nombreux cas, les éoliennes sont trop proches des habitations, mais ils nient publiquement l’existence d’un problème », a déclaré le professeur Leventhall. « Il n’y a pas de problème de santé, mais le bruit renforce l’opposition à l’énergie éolienne.

Pourtant, rien dans le document de l’AWEA/CANWEA n’indique que les marges de recul autorisées pour les USA et les niveaux sonores des éoliennes pourraient être insatisfaisants.

Par la suite, lors d’une communication téléphonique avec le Sénat du Vermont en avril 2013 [28], le Dr Leventhall a souligné le fait qu’il y a beaucoup plus de plaintes concernant les éoliennes en Amérique du Nord qu’en Europe. Il a attribué cela à une » réaction hystérique », mais a complètement omis d’indiquer l’explication selon laquelle les niveaux autorisés d’éoliennes pourraient être significativement plus élevés en Amérique du Nord qu’en Europe.

Cette différence dans les niveaux autorisés est confirmée par la déclaration suivante dans une publication plus récente de novembre 2014, financée par CANWEA et évaluée par des pairs, toujours concernant les éoliennes et la santé, dont trois auteurs sont les mêmes que dans le document original de l’AWEA/CANWEA [29].

« En ce qui concerne les normes de bruit, Hessler et Hessler13 ont trouvé une moyenne arithmétique de 45 dBA le jour et de 40 dBA la nuit pour les gouvernements en dehors des États-Unis, et une moyenne de 47,7 dBA la nuit pour la réglementation sur le bruit et les normes d’implantation de l’État américain. »

Cela indique que les niveaux nocturnes sont en moyenne supérieurs de 7,7 dBA aux États-Unis. Il a été précisé que l’utilisation de différentes mesures (par exemple L90, L50, Leq, etc.) modifie la valeur implicite de ces niveaux. (voir *)

Ce récent document financé par CANWEA conclut également à un moment donné :

« Des plaintes telles que les troubles du sommeil ont été associées à des pressions sonores pondérées A des éoliennes supérieures à 40 ou 45 dB, mais à aucune autre mesure de la santé ou du bien-être. »

On pourrait donc conclure immédiatement qu’étant donné les niveaux moyens autorisés de

47,7 dBA aux États-Unis, il y aurait très probablement un plus grand nombre de plaintes pour troubles du sommeil. Là encore, il ne s’agit pas d’une conclusion explicite. Le fait de ne pas souligner une lacune aussi évidente aux États-Unis, dans des documents qui sont censés fournir des orientations générales, contribue sans aucun doute à « brouiller les pistes » lorsqu’il s’agit d’identifier les raisons pour lesquelles les plaintes des propriétaires prolifèrent.

Enfin, même dans ce rapport très récent, il n’est toujours pas fait mention de la conséquence fondamentale de l’ajustement automatique du seuil d’audition au niveau de fond ambiant, ni du fait qu’une exposition continue à des bruits de basse fréquence peut donner lieu à une sensibilité accrue. Comme indiqué précédemment, l’auteur considère, sur la base de son expérience directe, qu’il s’agit là de deux aspects très importants de la perception des bruits de basse fréquence, mais ils ne semblent toujours pas avoir été largement reconnus par les experts en matière de santé.

*Les différentes mesures représentent en effet des différences dans les niveaux autorisés réels, bien que l’on considère généralement que pour les mesures de dBA à réponse lente (c’est-à-dire 1 seconde) et les temps d’observation longs, les différences appliquées au bruit dominant des éoliennes ne représentent généralement pas plus de 4-5 dBA entre la mesure la plus basse (L90) et le niveau le plus élevé (L10), et ne représentent pas une différence aussi importante que 7,7 dBA. La société américaine Epsilon, qui a réalisé des évaluations sur le terrain de la conformité aux ordonnances dans le comté de Huron (MI), a explicitement appliqué le critère « L10-L90 inférieur à 3,5 dBA » pour l’identification du bruit dominant des éoliennes.)

A3.3 Effets nocebo, agacement, personnalité et activistes

Les affirmations selon lesquelles les infrasons des éoliennes ne peuvent pas représenter un danger pour la santé cherchent de plus en plus à attribuer la responsabilité du nombre croissant de plaintes à quatre processus, à savoir les effets nocebo, la gêne, la personnalité individuelle et l’alarme déclenchée par les activistes.

L’argument selon lequel les effets nocebo, c’est-à-dire la peur d’un résultat spécifique, peuvent donner lieu à des symptômes liés à ce résultat, n’explique pas le fait que certaines communautés ont accueilli favorablement l’introduction d’éoliennes, pour découvrir par la suite des effets négatifs inattendus une fois que les éoliennes ont été mises en service. L’auteur connaît personnellement deux familles, l’une en Angleterre et l’autre dans le Michigan, qui avaient initialement une attitude neutre ou favorable à l’égard des éoliennes, mais qui ont ensuite découvert par elles-mêmes que la réalité pouvait être tout à fait intolérable. Aucune des deux familles n’avait entendu parler de l’autre, mais leur situation, à 4000 miles l’une de l’autre, est devenue presque identique et les a amenées à prendre exactement les mêmes décisions, à savoir louer d’autres logements et, finalement, engager de longues procédures judiciaires contre les promoteurs d’éoliennes. Dans les deux cas, les litiges ont été réglés à l’amiable, sous réserve de confidentialité. À l’époque où ces problèmes ont commencé à se poser, les militants étaient peu nombreux, de sorte que la séquence d’apprentissage de première main de ces deux familles était d’autant plus remarquable qu’elle se déroulait en miroir.

Il convient de noter que de nombreux effets néfastes des infrasons des éoliennes sont étroitement liés aux symptômes du mal de mer, ce qui suggère qu’il peut y avoir une interaction avec les organes vestibulaires (de l’équilibre). L’auteur de ces lignes a beaucoup navigué au large des côtes dans les années 1970. À l’époque, certains participants affirmaient que le mal de mer était purement psychologique et qu’ils n’étaient pas affectés s’ils étaient suffisamment forts d’esprit. Les autres membres de l’équipage éprouvaient souvent un sentiment de satisfaction lorsque ces experts autoproclamés étaient confrontés à la réalité physique et succombaient à la maladie. À cet égard, ils se révèlent souvent moins efficaces que ceux qui ont une vision plus réaliste des choses. En outre, si les effets du mal de mer peuvent parfois se manifester rapidement, il n’est pas rare que leur apparition soit retardée jusqu’à 10 ou 12 heures après l’exposition.

Une étude néo-zélandaise récente [30] a cherché à renforcer l’argument nocebo concernant les infrasons émis par les éoliennes. Un groupe de participants a été divisé en deux groupes distincts et des vidéos décrivant les effets des infrasons des éoliennes ont été projetées à chaque groupe. Pour un groupe, ces vidéos montraient des personnes décrivant les effets néfastes sur la santé qu’elles avaient subis à cause des infrasons des éoliennes, tandis que pour l’autre groupe, on montrait des scientifiques et des experts assurant qu’il ne pouvait y avoir d’effets réels.

Les deux groupes de participants ont ensuite été exposés pendant 10 minutes à des tests en aveugle portant soit sur des infrasons simulés d’éoliennes, soit sur aucun infrason (c’est-à-dire « fictif »), à un niveau extrêmement bas de 40 dB à 5 Hz. On a ensuite constaté une augmentation mineure, mais identifiable, des réponses liées à l’anxiété dans le groupe qui avait été préconditionné par les rapports négatifs, qu’il ait été exposé à des infrasons simulés ou à des infrasons « fictifs ».

Il suffit cependant de considérer l’analogie avec le mal de mer pour comprendre cette expérience. Elle est directement comparable au fait de prendre deux groupes de personnes qui n’ont pas l’habitude d’être à flot, d’informer ces groupes distincts avec des perspectives opposées sur les causes et les effets du mal de mer, puis d’envoyer les participants dans deux bateaux distincts sur un lac intérieur dans des conditions de calme presque plat pendant 10 minutes. Toute conclusion résultant d’une légère anxiété initiale d’un groupe au cours de ce processus n’aurait guère de rapport avec la réalité d’une exposition réelle à des conditions de mer réelles pendant des périodes prolongées !

En ce qui concerne les arguments selon lesquels la gêne et la personnalité jouent un rôle majeur dans la réponse au bruit des éoliennes et aux infrasons, il convient de noter que de nombreuses personnes qui choisissent d’adopter un mode de vie rural le font spécifiquement pour profiter d’un environnement plus tranquille et moins stressant que la vie en banlieue ou en ville. Il est donc fort probable qu’elles aient une personnalité qui valorise ces caractéristiques rurales. Pour ces personnes, cette personnalité peut très bien être celle qui réagit fortement à une intrusion négative imposée de l’extérieur dans leur mode de vie. Les installations d’éoliennes ne doivent pas être telles que « l’absence d’une personnalité appropriée » compromette la composition de la communauté.

L’utilisation du terme « agacement » a deux interprétations communes distinctes. On dit souvent « C’est de sa faute s’il s’est énervé ! », ce qui implique immédiatement une condition imposée par l’intéressé lui-même. Dans le contexte des éoliennes, cependant, il est plus exact d’affirmer que « les éoliennes peuvent gêner les gens ». Cela introduit une perspective complètement différente — il est clair que la situation défavorable a été imposée à l’individu et que toute réaction est une conséquence directe de cette imposition. Cet auteur considère que l’utilisation de la terminologie « souffre de désagréments » est une description beaucoup plus appropriée et nettement moins trompeuse, qui place correctement la responsabilité directement sur la cause, plutôt que sur la réaction de l’individu.

Enfin, un article récent très médiatisé (S.Chapman [31]) a soutenu que la corrélation la plus convaincante concernant les plaintes relatives aux éoliennes découle de la présence d’« activistes » s’opposant à la construction d’un parc éolien. Pourtant, cette étude n’a pas tenté de prendre en compte des questions telles que les reculs immédiats, le bruit, la géographie locale et la configuration du parc éolien, ainsi que l’espacement et la densité des éoliennes. Tous ces facteurs ont une incidence directe sur les conditions de vie à proximité des éoliennes. Une fois de plus, en se référant à l’expérience de l’auteur, dans le comté de Huron, au Michigan, deux parcs éoliens ont été construits à des moments similaires, dans des secteurs similaires de la communauté. L’un d’entre eux a immédiatement donné lieu à un nombre important de plaintes, tandis que l’autre n’a pratiquement pas fait l’objet de plaintes. Sur le papier, ce dernier parc éolien semblait être le plus concentré, de sorte que l’absence de plaintes était d’autant plus surprenante. Mais il suffit de visiter les deux parcs éoliens à quelques reprises pour se rendre compte immédiatement qu’il y a une différence très importante dans les niveaux de bruit entre les deux, et il n’est pas surprenant que le parc éolien qui génère le plus de bruit soit celui qui fait l’objet du plus grand nombre de plaintes.

Dans ce cas, il y avait donc une corrélation évidente entre le bruit et la nature négative de l’environnement du parc éolien et le nombre de plaintes. Cette situation a ensuite donné lieu à une plus grande prise de conscience de la part de l’ensemble de la communauté et à une plus grande opposition exprimée aux parcs éoliens. Ainsi, le processus de cause à effet était complètement inverse à celui proposé dans [31].

A4. Expérience de première main des graves effets néfastes des infrasons

Il y a environ 18 mois, une famille vivant à proximité des éoliennes d’Ubly a demandé à l’auteur de l’aider à installer des instruments et à évaluer les conditions acoustiques dans leur sous-sol, qui est partiellement souterrain, où ils espéraient trouver des conditions de sommeil plus tolérables. En début de soirée, l’auteur est arrivé sur le site, à 460 m sous le vent de l’éolienne la plus proche. C’était une belle soirée, avec très peu de vent au niveau du sol, mais les éoliennes fonctionnaient. Cependant, à l’intérieur de la maison, il était impossible d’entendre le bruit des éoliennes et il a fallu sortir de temps en temps pour s’assurer qu’elles fonctionnaient bien.

L’auteur ne s’attendait pas à obtenir des mesures significatives dans ces conditions, mais il a néanmoins aidé à mettre en place l’instrumentation sous la forme d’un microphone infrasonique B&K 4193-L-004 et de plusieurs microbaromètres Infiltek. L’étalonnage des microbaromètres avait été confirmé précédemment en effectuant des mesures d’infrasons de fond directement côte à côte avec le microphone de précision B&K. L’objectif était de définir les emplacements de mesure, d’établir des gains d’instrumentation avec une marge de manœuvre appropriée, et de convenir et d’appliquer des procédures pratiques afin que les occupants puissent effectuer eux-mêmes d’autres mesures.

Après une période d’environ une heure, pendant laquelle il a installé des instruments dans le sous-sol et utilisé un ordinateur portable dans la cuisine, l’auteur a commencé à ressentir un important sentiment de léthargie. Au fil du temps, ce sentiment s’est transformé en difficultés de concentration accompagnées de nausées, si bien qu’au bout de trois heures environ, il s’est senti très mal. Pendant ce temps, le soleil se couchait, laissant une magnifique lueur rose orange dans le ciel, tandis que la vitesse du vent au sol restait pratiquement nulle et que les conditions de la soirée n’auraient pas pu être plus tranquilles et agréables.

Ce n’est qu’au bout de trois heures et demie environ que l’auteur s’est soudain rendu compte que ces symptômes étaient provoqués par les éoliennes. Comme il n’y avait pas de bruit audible et que les infrasons semblaient suffisamment faibles pour que l’auteur les considère comme peu importants, il n’avait pas envisagé cette possibilité jusqu’à présent.

Plus le temps passait, plus les effets s’aggravaient, si bien qu’au bout de cinq heures, il se sentait extrêmement malade. Il était assez étrange d’essayer de se concentrer sur un ordinateur dans une cuisine très solide, complètement immobile, entourée d’armoires en chêne massif, avec des plans de travail en granit et un évier en fonte, tout en ressentant presque exactement les mêmes symptômes que le mal de mer dans une mer agitée.

Finalement, au bout de 5 heures, il a été considéré que suffisamment d’essais avaient été effectués et analysés pour qu’un long essai de nuit puisse être mis en place, laissant l’instrumentation sous le contrôle des propriétaires de la maison. L’auteur a été immensément soulagé de quitter les lieux et de pouvoir rentrer chez lui sans être gêné par les éoliennes.

Mais ce n’était pas fini. En montant dans la voiture et en quittant le portail, l’auteur a constaté que son équilibre et sa coordination étaient complètement compromis, de sorte qu’il était constamment en survirage et que l’avant de la voiture semblait osciller comme un bateau en mer. Il est devenu très difficile d’évaluer la vitesse et la distance, de sorte qu’il a fallu conduire extrêmement lentement et avec beaucoup de prudence.

En arrivant à la maison 40 minutes plus tard, sa femme a immédiatement remarqué qu’il n’était pas bien — apparemment, son visage était complètement cendré. Il a fallu attendre 5 heures après avoir quitté le site pour que les symptômes disparaissent.

Il est souvent avancé que ces effets associés aux éoliennes sont dus au stress ou à la gêne provoquée par le bruit incessant, mais à cette occasion, il n’y avait aucun bruit audible à l’intérieur de la maison. De plus, il s’agissait d’une soirée remarquablement tranquille avec un coucher de soleil très impressionnant, de sorte que toute idée de problèmes liés aux éoliennes était totalement absente. Ce n’est que lorsque les symptômes sont devenus de plus en plus graves que l’auteur a finalement fait le lien, après avoir envisagé et exclu toutes les autres possibilités. Les explications relatives à l’« effet nocebo » ne semblent donc guère appropriées lorsque la prise de conscience n’a eu lieu que bien après l’événement.

Figure 3 Spectre de puissance moyen des infrasons dans le sous-sol

Les deux figures suivantes montrent les niveaux d’infrasons typiques mesurés dans le sous-sol à l’aide d’un des microbaromètres Infiltek. La figure (3) montre le spectre de puissance, mesuré avec une largeur de bande FFT nominale de 0,1 Hz. Comme on peut le voir, le pic de la composante fondamentale du taux de pales, à 55 dB, ne serait normalement pas considéré comme représentant un niveau particulièrement gênant d’infrasons. Plusieurs harmoniques supérieures d’amplitude progressivement décroissante sont visibles, mais cette caractéristique correspond tout à fait à ce que l’on pourrait attendre d’une turbine à rotor ascendant fonctionnant dans un flux d’air relativement régulier.

Le tracé temporel correspondant est illustré à la figure (4). On constate qu’il n’y a qu’une seule impulsion relativement bien définie par passage de pale, de sorte qu’il semblerait que seule l’éolienne la plus proche contribue de manière significative.

Figure 4 Historique des infrasons dans le sous-sol

Néanmoins, il convient de noter que si l’harmonique fondamentale du passage des pales n’est que de 55 dB, l’effet cumulatif des harmoniques supérieures peut parfois porter le niveau de crête de la forme d’onde à 0,06-0,08 Pascals, ce qui représente 69-72 dB. La plupart des travaux antérieurs de l’auteur se sont concentrés sur l’analyse de l’évolution temporelle de la forme d’onde, conformément à l’observation faite en 2004 par Moller & Pedersen [16] selon laquelle, aux fréquences les plus basses, c’est l’évolution temporelle des infrasons qui est la plus pertinente pour la perception. Le simple fait d’observer des niveaux spectraux distincts à des fréquences discrètes et de les considérer comme des composantes indépendantes peut conduire à une sous-estimation considérable des niveaux réels des infrasons répétitifs.

Le fait que l’équilibre et la coordination aient été compromis pendant le trajet de nuit vers le domicile suggère une interférence avec les organes vestibulaires, comme l’ont proposé Pierpont [5] et, par la suite, Schomer [20]. Une autre observation importante, cependant, est que les effets ont persisté pendant les 5 heures qui ont suivi, alors que l’excitation immédiate n’était plus présente. En revanche, dans le cas du mal de mer, les effets tendent à se dissiper rapidement dès que les conditions de mer s’apaisent. Il est intéressant de noter qu’une étude réalisée en 1984 [32], au cours de laquelle des sujets ont été exposés pendant 30 minutes à une excitation de 8 Hz à des niveaux beaucoup plus élevés de 130 dB, a montré que certains effets néfastes pouvaient persister plusieurs heures après l’exposition.

À ce stade, il convient de se demander si une suggestion du Dr A. Salt peut être pertinente [20]. Il a décrit un processus connu sous le nom de « Hydrops endolymphatique temporaire », une anomalie de l’oreille interne par laquelle l’ouverture de décharge de pression à l’apex de la cochlée (l’hélicotrème) peut être temporairement obstruée par un déplacement membranaire local. Cette obstruction augmente considérablement le déséquilibre de pression à travers la membrane basilaire et, par conséquent, une très forte augmentation de la sensibilité aux infrasons.

Si l’exposition à des infrasons répétitifs d’éoliennes peut parfois induire un tel effet, il faudrait alors un certain temps après l’exposition pour que l’état disparaisse. La suppression de la source d’excitation n’entraînerait donc pas un retour immédiat à une perception normale, mais pourrait entraîner la persistance des symptômes pendant un certain temps.

Une autre observation est que les niveaux d’infrasons montrés dans la figure (3) sont directement comparables à ceux qui ont été rapportés indépendamment par le professeur Hansen et ses collègues de l’université d’Adélaïde [33], et L. Huson [34], à des distances significatives des parcs éoliens australiens de Waterloo et de MacArthur respectivement. Cela semble fournir une corroboration convaincante et indépendante étant donné les rapports d’effets néfastes associés à ces dernières installations. De plus, S. Cooper [35], dans son étude sur le parc éolien de Cape Bridgewater, a montré une corrélation directe entre les sensations documentées des résidents et les caractéristiques de fonctionnement infrasoniques spécifiques des éoliennes.

Par conséquent, l’expérience de l’auteur est tout à fait cohérente avec ce rapport plus récent en Australie, relatif à des travaux effectués par des acousticiens expérimentés. Il ne fait aucun doute que les preuves s’accumulent progressivement pour étayer l’argument selon lequel les infrasons émis par les éoliennes peuvent avoir des effets néfastes sur la santé dans les environnements ruraux.

A5. Références

  1. R.A.Axell & H.B.Woody. Test Status and Experience with the 7.5 Megawatt MOD-2 Wind Turbine Cluster. Proceedings, Large Horizontal Axis Wind Turbine Conference 1981 NASA CP 2230, DOE CONF-8 10752 pp.637-652
  2. R.H.Spencer Noise Generation of Upwind Rotor Wind Turbine Generators The Boeing Vertol Company, Philadelphia PA 19142 (non daté).
  3. K.P.Shepherd, H.H.Hubbard, Noise Radiation Characteristics of the Westinghouse WWG-0600 (600kW) Wind Turbine Generator NASA TM101576, juillet 1989.
  4. H.G.Leventhall, Infrasound from Wind Turbines-fact, fiction or deception. Canadian Acoustics 34 (2006) 29-36
  5. N.Pierpont. WindTurbine Syndrome: A Report on a Natural Experiment. (2009). Livres sélectionnés par K.
  6. G.P.van den Berg. Effects of the Wind Profile at Night on Wind Turbine Sound Journal of Sound & Vibration 277 (2004) 955-970
  7. G.P.van den Berg. Do Wind Turbines Produce Significant Low Frequency Sound Levels? 11th Intl Mtg on Low Frequency Noise & Vibration Control, Maastricht, 2004
  8. H.G.Leventhall. Déclaration de témoin, 22 décembre 2010. Tribunal d’examen environnemental de Chatham Kent.
  9. M.J.Lighthill. On Sound Generated Aerodynamically. I. General Theory Proc. Roy. Soc. Vol 211, No 1107, March 1952
  10. MOD-2 Wind Turbine Field Operations Experience DOE/NASA/20320-69 NASA TM-87233 NASA Lewis Research Center, décembre 1985
  11. A.H.Miller, H.L.Wegley, J.W.Buck. Large HAWT Wake Measurement and Analysis. N95-2793 Pacific Northwest Laboratory, Richland, Washington Collected Papers on Wind Turbine Technology, mai 1995 NASA-CR-195432
  12. M.A.Swinbanks Wind Turbines: Low-Frequency Noise & Infrasound Revisited. Atelier d’un jour sur la protection de l’environnement 9 th septembre 2010, Birmingham, ROYAUME-UNI
  13. M.A.Swinbanks The Audibility of Low Frequency Wind Turbine Noise. Quatrième Réunion internationale sur le bruit des éoliennes. Rome, Italie 12-14 avril 2011
  14. D.G.Stevens, K.P.Shepherd, H.H.Hubbard, F.W.Grosveld, « Guide to the Evaluation of Human Exposure to Noise from Large Wind Turbines », NASA TM83288, mars 1982.
  15. N.D.Kelley. A Proposed Metric for Assessing the Potential of Community Annoyance from Wind Turbine Low-Frequency Noise Emissions SERI/TP-217-3261, novembre 1987.
  16. H.Moller & C.S.Pedersen. Hearing at Low & Infrasonic Frequencies, Noise & Health, Volume 6, Issue 23, April-June 2004.
  17. M.A.Swinbanks Numerical Simulation of Infrasound Perception, with Reference to Prior Reported Laboratory Effects (Simulation numérique de la perception des infrasons, avec référence aux effets rapportés en laboratoire). Inter-Noise, 19-22 août 2012
  18. Yasunao Matsumoto, Yukio Takahshi, Setsuo Maeda, Hiroki Yamaguchi, Kazuhiro Yamada, & Jishnu Subedi, « An Investigation of the Perception Thresholds of Band-Limited Low Frequency Noises: Influence of Bandwidth », Journal of Low Frequency Noise Vibration and Active Control, 2003.
  19. Chen Yuan, Huang Quibai, Hanmin Shi, “An Investigation on the Physiological and Psychological Effects of Infrasound on Persons”, Journal of Low Frequency Noise Vibration and Active Control, 2004.
  20. A.N.Salt, T.E.Hullar. Responses of the ear to low frequency sounds, infrasound and wind turbines. Hearing Research 2010, 268 12-21
  21. Schomer P, Edreich J, Boyle J, Pamidighantam P (2013) A proposed theory to explain some adverse physiological effects of the infrasonic emissions at some wind farm sites. 5Conférence internationale sur le bruit des éoliennes 28-30, août 2013
  22. W.D.Colby, R.Dobie, G.Leventhall, M.Liscomb, R.J.McCunney, M.T.Seilo, B.Sondergaard, Wind Turbine Sound and Health Effects. An Expert Panel Review AWEA/CANWEA, décembre 2009
  23. U.S.Environmental Protection Agency Information on Levels of Environmental Noise Requisite to Protect Public Health and Welfare with an Adequate Margin of Safety (Informations sur les niveaux de bruit ambiant nécessaires à la protection de la santé et du bien-être publics avec une marge de sécurité adéquate). EPA 550/9-74-004 mars 1974
  24. Annexe D. Informations sur les niveaux de bruit ambiant nécessaires pour protéger la santé et le bien-être du public avec une marge de sécurité adéquate. EPA 550/9-74-004 Mars 1974
  25. M.Klepinger, Michigan Land Use Guidelines for Siting Wind Energy Systems. Michigan State University Land Policy Institute, Extension Bulletin WO-1053 octobre 2007.
  26. M.A.Swinbanks Submission to Michigan Public Services Commission, Case No U-15899, December 8th , 2009
  27. H.G.Leventhall Wind Turbine Noise is not a Health Hazard (Le bruit des éoliennes n’est pas un danger pour la santé). M&E Sustainability Report of Lecture at London South Bank University 11th Novembre 2009
  28. www.vce.org/GeoffLeventhall_VT_SHW_042413.mp3 (13.55)
  29. R.J.McCunney,K.A.Mundt,W.D.Colby,R.Dobie,K.Kaliski,M.Blais. Éoliennes et la santé. Une revue critique de la littérature scientifique. Journal of Environmental Medicine Vol.56 No 11 Novembre 2014
  30. F.Crichton,G.Dodd,G.Schmid,G.Gamble,K.J.Petrie. Can Expectations Produce Symptoms from Infrasound Associated with Wind Turbines ? Université d’Auckland. Health Psychology, American Psychological Association, mars 2013.
  31. S.Chapman, A. St George, K. Waller, V. Cakic Différences spatio-temporelles dans l’historique des plaintes relatives à la santé et au bruit des parcs éoliens australiens : preuves de l’hypothèse psychogène de la « maladie communiquée ». 15 mars 2013
  32. D.S.Nussbaum, S.Reinis (1985) Some Individual Differences in Human Response to Infrasound UTIAS Report No 282, CN ISSN 0082-5255, janvier 1985
  33. K.Hansen,B.Zajamsek,C.Hansen. Comparaison des niveaux de bruit mesurés à proximité d’un parc éolien dans des conditions d’arrêt et d’exploitation. Inter-noise14, 16-19 novembre 2014
  34. W.L.Huson. Stationary Wind Turbine Infrasound Emissions and Propagation Loss Measurements (Émissions infrasonores d’éoliennes stationnaires et mesures de la perte de propagation). 6th International Conference on Wind Turbine Noise, Glasgow 20-23 avril 2015
  35. S.Cooper. Étude acoustique du parc éolien de Cape Bridgewater. Sensation as an Impact from Wind Turbines (La sensation en tant qu’impact des éoliennes). The Acoustic Group Pty, Ltd, Sydney, NSW 2040 (2015).

1 Voir https://www.cirrusresearch.fr/blog/2013/06/que-representent-les-filtres-par-bandes-doctave-et-tiers-doctave-sur-un-sonometre/ – NdT


Annexe B1 : Biographie de l’auteur

Malcolm Swinbanks a passé son doctorat sous la direction de Sir James Lighthill, professeur de mathématiques à l’université de Cambridge. Deux des réalisations de Lighthill — l’aéroacoustique, les procédures mathématiques pour la réduction du bruit des moteurs à réaction, et l’étude de la dynamique de la cochlée (oreille interne) — sont aujourd’hui directement liées à la compréhension et à la perception récentes du bruit des éoliennes.

Bien qu’il ait obtenu une bourse du titre A du Trinity College pour poursuivre ses recherches en mathématiques, Swinbanks a choisi d’y surseoir pour acquérir de l’expérience dans des applications plus pratiques, en travaillant d’abord avec le département de recherche du chantier naval Yarrows à Glasgow, dans le domaine du bruit et des vibrations dans les navires et les sous-marins. Il a poursuivi avec succès le contrôle actif des bruits de basse fréquence, se familiarisant ainsi avec les questions relatives à la perception des bruits de basse fréquence et des infrasons par la population. Il a acquis une expérience supplémentaire en travaillant avec plusieurs divisions de Rolls-Royce sur la dynamique des moteurs aéronautiques et le bruit des turbines à gaz industrielles.

En 1994, le Congrès américain lui a demandé de transférer aux États-Unis ses recherches sur les vibrations et les sons sous-marins à basse fréquence, en devenant scientifique principal d’une société américaine sous contrat avec l’Office américain de la recherche navale. Les domaines de recherche comprenaient l’isolation des vibrations de très haute précision et l’atténuation des chocs. Plus récemment, il a été contacté par des personnes qui rencontrent des problèmes très réels liés au bruit des éoliennes et qui, dans certains cas, ont été chassées de chez elles. Il a passé beaucoup de temps dans plusieurs parcs éoliens où le bruit est un problème important, ce qui lui a permis d’acquérir une expérience de première main et des données pratiques concernant les conditions extrêmement défavorables auxquelles certaines personnes sont maintenant soumises.




Le missile Sarmat ne peut détruire que 1 % du territoire de la France

[Source : Gérard Chevrier]

Les effets d’une explosion nucléaire de plusieurs mégatonnes et mesures de protection possibles.

[Voir aussi :
« La force de dissuasion française n’existe plus que dans les rêves »]




Cour d’appel de Californie (9e district) : « le vaccin Covid n’est pas un VACCIN… s’il ne protège pas de la transmission »

[Source : francesoir.fr]

[Illustration : Pixabay France-Soir]

D’après un jugement de la cour d’appel de Californie (9e circuit), le « vaccin Covid » n’est PAS UN VACCIN. En effet, la Cour a déclaré dans son ordonnance « qu’il ne s’agissait pas d’un vaccin s’il ne résistait pas à l’allégation qu’il ne visait pas à prévenir la transmission ». Les vaccins étaient censés « réduire les symptômes » et prévenir l’hospitalisation. Ils devraient donc être considérés comme un TRAITEMENT.

La cour d’appel a jugé que « l’obligation vaccinale contre la Covid-19 au risque de perdre leur emploi interférait avec leur droit fondamental de refuser un traitement médical. » Cette décision contribuerait à priver les injections d’ARNm de toute protection en matière de responsabilité juridique.

Les requérants pourront désormais utiliser cette décision au fur et à mesure que les dossiers avancent tel que l’on peut le lire dans un tweet sur X :

Aux États-Unis, l’affaire opposant l’association Health Freedom Defense Fund du Wyoming, des personnes physiques et éducateurs californiens pour la liberté médicale au Chef du district scolaire, à la directrice des ressources humaines ainsi qu’aux membres du conseil d’administration du district scolaire de Los Angeles (LAUSD) tourne à l’avantage des requérants dans le cadre de l’obligation vaccinale imposée comme règle.

La cour d’appel a donc annulé l’ordonnance du tribunal de district. Elle a ainsi jugé que l’obligation vaccinale contre la Covid-19, au risque de perdre son emploi, interférait avec le droit fondamental d’une personne de refuser un traitement médical.

Les requérants avaient comme avocats John Howard de San Diego et George Wentz de Louisiane devant les juges Nelson, Collins et Hawkins. Un observateur averti note que Nelson et Collins sont des « Trumpiste » alors que le juge Hawkins du camp Clinton désapprouvait la décision.

De manière inhabituelle, un résumé a été préparé par le tribunal pour faciliter la compréhension du lecteur.

Le tribunal a conclu que l’exception de cessation du caractère de motivation s’appliquait.

Le fait que le LAUSD a retiré puis a rétabli sa politique de vaccination a suffi à laisser un questionnement juridique dans cette procédure. En effet, la procédure a permis de conclure que le LAUSD a attendu de voir comment se déroulait la plaidoirie avant de décider s’il fallait maintenir la politique vaccinale ou procéder à l’abrogation préparée par anticipation. LAUSD s’était expressément réservé la possibilité d’envisager d’imposer de nouveau un mandat de vaccination.

En conséquence, le LAUSD n’a pas apporté la preuve critique qui lui incombait de démontrer qu’il n’y a aucune possibilité raisonnable qu’il revienne à imposer une telle politique.

Examinant le fond, la Cour d’appel a conclu que le tribunal de district avait mal appliqué une décision de la Cour suprême (jurisprudence Jacobson v. Massachusetts, 197 U.S. 11 [1905], en concluant que la décision n’avait pas satisfait à l’examen du fondement rationnel. La jurisprudence Jacobson montrait que l’obligation vaccinale contre la variole avait un lien causal avec la prévention de la propagation de la maladie.

Dans le cas présent, les requérants ont plaidé avec succès que le vaccin n’empêche pas efficacement la propagation [de la Covid-19], mais qu’il atténue seulement les symptômes de la personne injectée ; et qu’en conséquence, il s’apparente donc à un traitement médical, et non à un vaccin « traditionnel ».

En considérant que les éléments apportés sur le vaccin Covid-19 étaient corrects, les requérants ont allégué de manière plausible que le vaccin Covid-19 n’empêche pas efficacement la propagation de la Covid-19. Ainsi, la cour a estimé que la jurisprudence Jacobson ne s’applique pas.

En suivant le même raisonnement, le juge R. Nelson a évalué que la décision du tribunal de district selon laquelle le LAUSD avait droit à l’immunité souveraine devrait être réexaminée en renvoi à la cour de district. (Affaire Kohn v. State Bar of California, 87 F.4th 1021 (9th Cir. 2023).

Le juge Collins, un des trois magistrats de la Cour Supreme a séparément abordé un point crucial que le tribunal de district avait négligé. Conformément à la jurisprudence plus récente de la Cour suprême,

« le traitement obligatoire pour le bien de la santé de la personne traitée — par opposition au traitement obligatoire pour le bien de la santé d’autrui — englobe le droit fondamental de refuser un traitement médical. »

Les éléments présentés des requérants sont suffisants pour invoquer ce droit fondamental. La partie défenderesse, pour LAUSD, a fait valoir que l’obligation vaccinale a été imposée simplement comme une « condition d’emploi », mais cela ne suffit pas à justifier l’application par le tribunal de district d’un examen rationnel.

En opposition, le juge Hawkins a écrit que, parce qu’il n’y a plus de politiques vaccinales (en place) que ce tribunal puisse interdire, il soutiendrait, comme ce tribunal l’a toujours fait dans les actions contestant les politiques annulées au début de la pandémie, que cette action est donc sans objet, révoquant ainsi la décision du tribunal de district et qu’il renverrait l’affaire au tribunal de district avec instruction de rejeter l’action sans préjudice.

Une des limites à l’opinion délivrée est qu’il s’agit d’une motion de rejet où le tribunal a considéré comme vraies les allégations faites par les requérants que les injections sont des traitements et pas des vaccins. La question épineuse est de savoir si oui ou non et dans quelle mesure les injections préviennent de l’infection et surtout pendant combien de temps. Jusqu’à présent, les politiques sanitaires se sont basées sur des études des fabricants qui ne confirmaient pas ces hypothèses. Il faudra aussi et surtout savoir comment balancer tout cela avec les libertés fondamentales, dont le consentement libre et éclairé et le droit d’aller et venir.

Lire la décision complète traduite en français.




L’hypothèse des germes — partie 2

[Source : mikestone.substack.com]

Par Mike Stone

Dans la première partie de cette enquête sur l’hypothèse des germes, nous avons établi ce qu’est exactement une hypothèse en matière de sciences naturelles, c’est-à-dire une proposition d’explication d’un phénomène naturel observé. Nous avons brièvement évoqué ce qui a conduit Louis Pasteur à élaborer son explication de la maladie par les germes en plagiant les travaux sur la fermentation qu’il avait empruntés à Antoine Béchamp. Nous avons également examiné les preuves expérimentales qu’il a produites pour le choléra des poules et la rage afin de voir si son hypothèse sur les germes a jamais été scientifiquement prouvée et validée. Il est apparu clairement que les expériences de Pasteur ne reflétaient pas ses hypothèses sur la manière dont les germes étaient censés envahir un hôte pour provoquer une maladie, telle qu’elle était « observée » dans la nature, ce qui invalidait ses résultats. En outre, Pasteur a également mal interprété ce avec quoi il travaillait en ce qui concerne le choléra des poules, et il n’a pas réussi à isoler un microbe comme agent causal de la rage, ce qui a encore invalidé ces expériences puisqu’il n’avait pas de variable indépendante valable (agent causal supposé) avec laquelle il travaillait. Les vaccins produits par Pasteur ont également posé des problèmes : son vaccin contre le choléra des poules a été jugé inefficace, tandis que son vaccin contre la rage a été associé à la maladie même qu’il était censé prévenir.

Quoi qu’il en soit, Pasteur est régulièrement considéré comme un véritable héros et un savant scientifique, avec des titres tels que « le père de la microbiologie », « le père de l’immunologie », « le père de la bactériologie », etc. Il est considéré comme un sauveur pour avoir repris de vieilles idées, les avoir dépoussiérées et les avoir revendues au public comme étant les siennes. Cependant, si Pasteur est reconnu pour avoir développé et popularisé l’hypothèse des germes, il n’a pas « prouvé » que les germes étaient à l’origine des maladies. Selon le livre Science, Medicine, and Animals publié par le National Research Council et la National Academy of Sciences, cette gloire revient au médecin et microbiologiste allemand Robert Koch. Il est indiqué que les découvertes de Robert Koch ont conduit Louis Pasteur à décrire comment de petits organismes appelés germes pouvaient envahir le corps et provoquer des maladies. Le livre poursuit en disant que c’est Koch qui a établi de manière concluante que des germes particuliers pouvaient causer des maladies spécifiques, et qu’il l’a fait en commençant par ses expériences sur le charbon (anthrax). Cette affirmation est confirmée par la Curiosity Collection de l’université de Hardvard, qui affirme que Koch est « reconnu pour avoir prouvé que des germes spécifiques étaient à l’origine de l’anthrax, du choléra et de la tuberculose ». Elle souligne que les postulats de Koch, les quatre critères destinés à établir une relation de cause à effet entre un microbe et une maladie, « sont fondamentaux pour la théorie des germes » et qu’ils « prouvent à la fois que des germes spécifiques provoquent des maladies spécifiques et que des germes pathogènes transmettent la maladie d’un corps à l’autre ».

Bien que Pasteur ait également cru à cette idée, c’est à Robert Koch que l’on attribue le développement du concept « un agent pathogène pour une maladie ». Sans surprise, l’Institut Robert Koch affirme également que c’est Koch, et non Pasteur, qui a été « le premier à prouver qu’un micro-organisme était la cause d’une maladie infectieuse ».

Ainsi, alors que l’on pourrait affirmer que Louis Pasteur a falsifié son hypothèse sur les germes, on peut facilement dire que son travail, en lui-même, était insuffisant pour prouver son hypothèse sur les germes. Pour « prouver » l’hypothèse des germes, les travaux de Robert Koch sont considérés comme essentiels en raison de ses techniques novatrices impliquant de nouvelles pratiques de coloration permettant une meilleure visualisation, et de son utilisation de milieux « appropriés » pour cultiver les bactéries sous une forme pure. Les quatre postulats logiques développés au cours de ses travaux, connus sous le nom de Postulats de Koch, constituent depuis deux siècles « l’étalon-or » pour établir l’étiologie microbiologique des maladies « infectieuses ». Les postulats sont considérés comme tellement essentiels que, selon un article publié en 2015 par Ross et Woodyard, ils sont « mentionnés dans presque tous les manuels de microbiologie débutants » et « continuent d’être considérés comme une norme importante pour établir des relations de cause à effet en biomédecine ». Lester S. King, médecin formé à Harvard et auteur de nombreux ouvrages sur l’histoire et la philosophie de la médecine, a écrit dans son article de 1952 intitulé Dr Koch’s Postulates que la contribution de Koch a consisté à « forger une chaîne de preuves reliant une bactérie spécifique à une maladie donnée ». King a déclaré que cette chaîne était si solide et si convaincante « que ses principes ont été exaltés en tant que “postulats” et considérés comme un modèle pour tous les travaux futurs ».

Étant donné que la contribution de Koch à la « démonstration » de l’hypothèse des germes semble encore plus importante que celle de Louis Pasteur, nous examinerons les trois principales contributions qu’il a apportées à cet effort, en nous concentrant tout d’abord sur ses travaux sur le charbon, puis sur la tuberculose et le choléra. Nous examinerons son approche expérimentale afin de voir si elle reflète quelque chose qui se produit naturellement dans le monde physique. Nous verrons si les preuves expérimentales de Koch répondent réellement à ses propres postulats logiques pour prouver que les microbes sont la cause de la maladie. Au terme de cette enquête, il apparaîtra clairement que les efforts combinés de Louis Pasteur et de Robert Koch n’ont pas suffi à confirmer l’hypothèse des germes et que, contrairement à la croyance populaire, ils ont en fait conduit à la réfutation de l’ensemble de la doctrine.

Anthrax

« Finalement, en 1876, Koch a prouvé que la maladie du charbon est déclenchée par un seul agent pathogène. Il a découvert le stade dormant de l’agent pathogène, les spores du charbon, et a ainsi élucidé la chaîne d’infection jusqu’alors inexpliquée et la forte résistance de la bactérie aux facteurs environnementaux. Robert Koch a ainsi été le premier à prouver qu’un micro-organisme était à l’origine d’une maladie infectieuse. »

https://www.rki.de/EN/Content/Institute/History/rk_node_en.html

Robert Koch a commencé ses recherches sur le charbon en 1876, alors qu’il était médecin de district et dirigeait un cabinet médical à Wöllstein. À l’époque, on attribuait à la maladie la mort de 528 personnes et de 56 000 têtes de bétail sur une période de quatre ans. L’hypothèse la plus répandue était qu’il s’agissait d’une maladie d’origine tellurique, car certains pâturages étaient réputés « dangereux » pour le bétail qui y paissait et pouvaient le rester pendant des années. D’autres chercheurs, dont le biologiste français Casimir Davaine qui, selon Koch, a fait des déclarations « décisives », avaient signalé que certaines bactéries en forme de bâtonnets étaient présentes dans le sang des animaux malades et que la maladie pouvait être transmise en inoculant du sang d’animaux malades à des animaux sains. Davaine a proposé que la maladie du charbon, qui s’est développée sans transmission directe démontrable chez les humains et les animaux, était due à la propagation d’une bactérie dont il avait découvert qu’elle restait viable pendant longtemps à l’état sec, par les courants d’air, les insectes et autres. Toutefois, comme l’a noté Koch dans son célèbre article de 1876 intitulé Die Ätiologie der Milzbrand-Krankheit, begründet auf die Entwicklungsgeschichte des Bacillus Anthracis (L’étiologie de la maladie du charbon, fondée sur l’histoire du développement de Bacillus Anthracis), ces rapports ont été réfutés par d’autres chercheurs qui ont obtenu des résultats contradictoires : la bactérie en forme de bâtonnet n’a pas été retrouvée dans le sang après des injections mortelles de la bactérie, et des injections de sang sans la bactérie ont également pu provoquer la maladie.

« Cependant, ces propositions de Davaine ont été contredites de diverses manières. Certains chercheurs ont affirmé avoir obtenu un charbon mortel après inoculation de sang bactérien sans qu’aucune bactérie ne soit retrouvée dans le sang par la suite, et à l’inverse, la vaccination avec ce sang sans bactérie a pu induire un charbon dans lequel des bactéries étaient présentes dans le sang. »

Koch note qu’il a été souligné que le charbon ne dépend pas uniquement d’un contage1 qui se propage en surface, mais que la maladie est indubitablement liée aux conditions du sol, précisant qu’elle est « plus importante dans les années humides et se concentre principalement dans les mois d’août et de septembre, lorsque la courbe de chaleur du sol atteint son apogée ». Il a ajouté que « ces conditions ne peuvent être expliquées par l’hypothèse de Davaine, et leur inadéquation a conduit de nombreuses personnes à nier l’importance des bactéries pour l’anthrax ». Cela a conduit Koch à déclarer que Davaine n’avait « que partiellement raison » dans son hypothèse selon laquelle la bactérie était résistante à la chaleur et à d’autres conditions, et que ses propres expériences montreraient que la bactérie modifiait son état en fonction des conditions environnementales. Il s’agissait de la forme sporulée de la bactérie que Koch avait découverte au cours de ses recherches et qui, selon lui, était dormante et beaucoup plus résistante aux facteurs environnementaux que la forme « végétale » active. Selon Koch, c’est cette forme sporulée de la bactérie que le bétail ingère en broutant et qui, privée d’oxygène à l’intérieur du corps, devient pathogène. C’était donc les conditions de l’environnement dans lequel se trouve la bactérie qui déterminaient si elle est pathogène ou non. Koch pensait que l’anthrax était très certainement une « maladie infectieuse dépendant du sol » et, en tant que telle, il serait logique de supposer que ses expériences reflétaient cette observation et impliquaient de nourrir le bétail affecté avec la bactérie dans son état pathogène supposé. Les expériences de Koch ont-elles reflété son hypothèse et reproduit la maladie telle qu’elle est censée se manifester dans la nature ? C’est ce que nous allons découvrir.

Tout d’abord, Koch a déclaré que, selon le professeur F. Cohns, « dans le sang et les fluides tissulaires de l’animal vivant, les bacilles se multiplient extraordinairement rapidement de la même manière que ce qui est observé chez diverses autres espèces de bactéries ». Cependant, Koch a admis qu’il n’avait pas observé directement ce phénomène lui-même, mais qu’il estimait qu’il pouvait être déduit de ses expériences.

« Cependant, je n’ai pas réussi à voir ce processus directement, mais il peut être déduit des expériences d’inoculation que j’ai souvent réalisées et répétées de la manière suivante. »

Pour comprendre comment cette « maladie du sol » affectait le bétail, notamment les moutons, Koch a eu recours à des expériences sur des souris. Il a commencé par prélever la rate des carcasses « infectées » et en a extrait le sang. Il injectait le sang à des souris saines en utilisant des éclats de bois comme seringue. Au début, il a tenté d’inoculer les souris par les oreilles ou le milieu de la queue, mais il a jugé cette méthode « dangereuse », car la bactérie pouvait être éliminée par frottement et léchage. En d’autres termes, les souris peuvent consommer la bactérie, ce qui est la voie naturelle proposée pour l’« infection ». La raison pour laquelle cette méthode a été jugée « dangereuse » pour les souris alors que l’objectif était de les « infecter » et de les tuer est laissée à l’imagination, à moins que Koch n’ait jugé dangereux pour lui-même de répandre la bactérie dans son laboratoire. Quoi qu’il en soit, il a fini par créer des plaies à l’arrière de la queue des souris et y a fait tomber la bactérie.

« Comme objet d’inoculation très pratique et facile à avoir, j’ai surtout utilisé des souris. Au début, je les vaccinais par les oreilles ou au milieu de la queue, mais j’ai trouvé cette méthode peu sûre, car les animaux peuvent enlever le matériel vaccinal en se frottant et en se léchant. Plus tard, j’ai choisi l’arrière de la queue, où la peau est déjà mobile et couverte de longs poils. À cette fin, la souris placée dans un grand bocal couvert est inoculée par la queue à l’aide d’une longue pince à épiler et cette dernière est retirée d’un espace étroit entre le couvercle et le bord du bocal, de sorte qu’une incision transversale peu profonde est pratiquée dans la peau de l’arrière de la racine de la queue et que la plus petite goutte possible du liquide contenant le bacille peut être introduite dans la petite blessure. »

Après avoir tué une souris, on procédait à une série consécutive de plusieurs injections au cours desquelles on inoculait à de nouvelles souris la substance de la rate qui avait été incubée dans le sérum de bœuf des souris qui venaient d’être tuées.

« …les souris ont été inoculées plusieurs fois de suite de manière à ce que, sans interruption, la souris suivante soit toujours inoculée avec la substance de la rate de la souris récemment décédée de l’anthrax. »

Bien que Koch ait affirmé avoir réussi à tuer les souris, la question de savoir ce qui les a réellement tuées, à savoir l’acide carbonique présent dans le sang ou les produits de clivage toxiques des protéines, est restée sans réponse. Koch préférait cette dernière explication.

« Il serait également excessif d’aborder la question de la cause réelle de la mort des animaux mourant du charbon, à savoir si elle a été provoquée par l’acide carbonique développé lors de la croissance intensive des bacilles dans le sang ou, ce qui est plus probable, par les produits de clivage toxiques des protéines consommées par les parasites pour leur alimentation. »

Il est intéressant de noter que c’est peut-être un autre acide qui aurait pu nuire aux animaux sur lesquels Koch a fait des expériences, car il a admis avoir utilisé de l’acide carbolique (alias phénol) comme désinfectant au cours de ses expériences. L’acide carbolique est un dérivé du goudron de houille, un composé toxique qui peut affecter divers systèmes biologiques, même à faible concentration. Bien qu’il ait été popularisé par Lord Joseph Lister dans les années 1860 et utilisé comme antiseptique pendant des décennies, le phénol n’est plus couramment utilisé comme antiseptique en raison de ses propriétés irritantes et corrosives ainsi que de sa toxicité systémique potentielle. Même Lord Lister a regretté d’avoir recommandé son utilisation et abandonné le spray d’acide carbolique en déclarant dans les années 1890 : « J’ai honte d’avoir recommandé ce spray pour détruire les microbes dans l’air ». Koch était connu pour avoir testé l’acide carbolique en ce qui concerne son pouvoir de destruction des spores. Les traces d’acide carbolique qu’il savait rester sur son matériel après l’avoir désinfecté pouvaient-elles contribuer à l’apparition de maladies chez les animaux observés lors de ses expériences ?

« Les petits détails qui peuvent être importants ici sont visibles dans le fait qu’au début, certaines cultures ont échoué parce que j’ai immergé toutes les lamelles couvre-objet dans une solution d’acide carbolique après utilisation et, malgré un nettoyage soigneux, des traces d’acide carbolique reconnaissables à l’odeur sont parfois restées sur les bocaux. »

Dans son article de 1879 intitulé Investigations into the Etiology of Traumatic Infectious Diseases, (Recherches sur l’étiologie des maladies infectieuses traumatiques), Koch a déclaré que le matériel de la rate devait être utilisé car le sang contenait peu de bacilles, ce qui est plutôt étrange puisque le CDC déclare que le sang est utilisé pour la culture bactérienne et le diagnostic de la maladie du charbon (anthrax).

« Pour obtenir des résultats constants, le matériel d’inoculation doit être prélevé sur la rate, car le sang des souris atteintes de la maladie du charbon contient souvent très peu de bacilles. »

Il semblerait donc que, selon Koch, le matériel de la rate soit la source principale des spores pathogènes du charbon nécessaires pour tuer les animaux expérimentalement. Toutefois, l’injection de matériel de rate à des souris ne reflète pas l’hypothèse selon laquelle une « infection » naturelle par la bactérie se produirait dans la nature parmi le bétail en pâture. Sachant cela, Koch a tenté de démontrer la pathogénicité de la bactérie du charbon d’une manière qui refléterait plus fidèlement son hypothèse sur la façon dont les moutons contracteraient la maladie… en utilisant à nouveau des souris. Pour refléter la voie d’exposition qu’il avait supposée, Koch a décidé de nourrir les souris avec la bactérie. Néanmoins, cette exposition « naturelle » consistait à nourrir les souris avec des rates de lapins et de moutons morts de la maladie, ce qui n’est évidemment pas un élément naturel du régime alimentaire d’une souris. Il a déclaré que les souris avaient mangé plus que leur poids en anthrax, car elles sont des mangeurs « extrêmement voraces ». Malgré l’alimentation non naturelle et la grande quantité de bactéries ingérées, aucune des souris n’est tombée malade. Cette tentative ayant échoué, il a essayé d’ajouter un liquide contenant des spores à leur nourriture, et les souris ont à nouveau consommé plus que leur poids corporel, sans aucun effet néfaste. Des lapins ont également été nourris avec des masses contenant des spores et sont restés en bonne santé. Par conséquent, dans ces expériences, Koch a réfuté son hypothèse selon laquelle la bactérie de l’anthrax pouvait provoquer la maladie en cas d’ingestion par une voie d’« infection » naturelle plus étroitement simulée (sans l’utilisation de rates malades provenant d’autres animaux) sur la base du phénomène naturel observé.

« Pour vérifier si le bacille du charbon peut pénétrer dans l’organisme par le canal alimentaire, j’ai d’abord nourri des souris pendant plusieurs jours avec de la rate fraîche de lapins et de moutons morts du charbon. Les souris sont extrêmement voraces et mangent en peu de temps plus que leur poids en charbon, de sorte que des quantités considérables de bacilles ont traversé l’estomac et les intestins des animaux testés. Mais je n’ai pas réussi à les infecter de cette manière. J’ai ensuite mélangé un liquide contenant des spores à la nourriture des animaux. Ils l’ont également consommé sans inconvénient ; l’ingestion de plus grandes quantités de sang contenant des spores, séché peu de temps auparavant ou des années auparavant, n’a pas non plus provoqué l’anthrax chez eux. Les lapins qui ont été nourris à différents moments avec des masses contenant des spores sont également restés en bonne santé. Pour ces deux espèces animales, une infection par le tractus intestinal ne semble pas possible. »

Koch semblait se rendre compte que ses preuves n’étaient pas concluantes, au mieux, et qu’il manquait encore beaucoup de choses pour comprendre l’étiologie complète de la maladie, mais il essayait toujours de faire bonne figure tout en admettant quelques fautes flagrantes. Tout d’abord, il a reconnu que ses expériences avaient toutes été menées sur de petits rongeurs et non sur les gros bovins atteints par la maladie. Cependant, Koch a tenté de rassurer le lecteur en affirmant que les différences entre les animaux étaient peu probables. Ironiquement, il s’est ensuite contredit lorsqu’il a tenté d’expliquer les résultats négatifs des expériences sur l’alimentation des souris et des lapins en affirmant qu’ils n’étaient pas pertinents pour les bovins, beaucoup plus gros, en raison des différences entre les systèmes digestifs des animaux. Il a également admis que les preuves d’une « infection » par inhalation faisaient toujours défaut.

« Reprenons maintenant les faits que nous avons obtenus jusqu’à présent et essayons, à l’aide de ceux-ci, de déterminer l’étiologie de l’anthrax. Il ne faut pas se cacher que pour construire une étiologie complète, il manque encore beaucoup de choses. Il ne faut surtout pas oublier que toutes les expérimentations animales ont été réalisées sur de petits rongeurs. Or, il est peu probable que les ruminants, qui sont les véritables hôtes du parasite qui nous intéresse, se comportent très différemment des rongeurs. »

« En outre, les expériences d’alimentation avec des bacilles et des spores chez les rongeurs, qui ont donné des résultats négatifs, ne sont pas du tout pertinentes pour les ruminants, dont l’ensemble du processus digestif est considérablement différent. Les tests d’inhalation avec des masses contenant des spores font encore défaut. »

L’article initial de Koch sur le charbon montre que non seulement il n’a pas prouvé son hypothèse selon laquelle la bactérie du charbon, lorsqu’elle est ingérée, provoque une maladie, mais qu’il a en fait réfuté son hypothèse par ses expériences sur les souris et les lapins, car il n’a pas pu montrer que l’ingestion de spores de charbon pouvait provoquer une maladie. La seule façon pour Koch de provoquer une maladie était de procéder à des injections artificielles et non naturelles de diverses manières dans des petits animaux et des rongeurs en utilisant différentes substances qui ne correspondaient pas à son hypothèse basée sur le phénomène naturel observé. La seule réussite que l’on peut attribuer à son article est la description du cycle pléomorphe d’une bactérie qui peut être modifié sous l’influence de l’environnement.

Quoi qu’il en soit, Koch et ses partisans ont annoncé qu’il avait réussi à prouver la cause de la maladie du charbon. Pourtant, malgré l’enthousiasme et les louanges dont son travail a fait l’objet, de nombreuses objections et critiques ont été formulées à l’encontre de son article sur l’anthrax et de l’idée selon laquelle les bactéries sont à l’origine des maladies. En fait, selon le professeur de philosophie K. Codell Carter, qui a traduit pour la première fois de nombreux articles de Koch en anglais, il est clair que Koch n’a pas prouvé de manière convaincante la causalité dans son article.

« De plus, en dépit de ce que Koch lui-même a affirmé plus tard et de ce qui est aujourd’hui largement admis, si on lit attentivement l’article de Koch, on trouve remarquablement peu de preuves directes de causalité, et les preuves que l’on trouve ne sont pas d’un type qui aurait persuadé ses contemporains. »

Carter a ajouté que Koch n’avait pas démontré que l’inoculation de bacilles isolés provoquait la maladie et qu’il n’avait pas établi que ses cultures de la bactérie étaient des cultures pures. Les travaux ont été réalisés avant que Koch ne mette au point sa technique d’ensemencement pour la croissance des colonies et ont donc été effectués sans que des cultures pures aient été isolées. Koch a simplement supposé, par un examen microscopique, que s’il ne voyait pas de contamination, ses cultures étaient pures. Carter a noté que les contemporains de Koch n’auraient certainement pas trouvé cet argument convaincant. À l’époque, tout le monde considérait qu’il était essentiel d’avoir des cultures pures, et cette exigence est devenue le principe central des postulats de Koch dans les années qui ont suivi. En fait, en 1881, Koch a déclaré : « La culture pure est le fondement de toute recherche sur les maladies infectieuses ». Cependant, lorsqu’il a publié son article sur le charbon, Koch a répondu à ses détracteurs en déclarant que « l’exigence selon laquelle les bacilles inoculés doivent être totalement retirés de toute substance associée susceptible de contenir des éléments dissous de la maladie » était « impossible… Personne ne peut prendre au sérieux une telle entreprise ». Ainsi, son travail de 1876 sur la maladie du charbon était dépourvu de cet élément essentiel. Comme il semblait plus intéressé par la description du cycle de vie du bacille que par la démonstration de la causalité à l’aide d’une culture pure, les critiques n’étaient toujours pas convaincus que Koch avait prouvé que les bacilles étaient la cause de l’anthrax.

Joli dessin de Koch.

Carter a fourni encore plus d’éléments contre les travaux de Koch de 1876 sur l’anthrax en tant que preuve de causalité dans un document séparé qu’il a écrit pour explorer la création des postulats de Koch. Il y affirme que Koch n’a fourni aucune preuve originale significative que les bacilles étaient nécessaires ou suffisants pour l’anthrax naturel, et que son travail était centré sur l’anthrax induit artificiellement.

« Koch n’a fourni aucune preuve originale significative que les bacilles étaient nécessaires ou suffisants2 pour la maladie du charbon naturelle. Sa discussion repose presque exclusivement sur l’anthrax induit artificiellement chez les animaux de laboratoire. Koch a mentionné qu’il avait souvent examiné des animaux morts de la maladie du charbon naturelle. Toutefois, parmi ces examens, il a seulement indiqué avoir trouvé des bacilles dans la rate d’un cheval atteint de la maladie du charbon — le seul cheval qu’il ait examiné. Koch a cité des chercheurs antérieurs qui avaient identifié des bacilles dans des cas naturels, mais il a également mentionné d’autres chercheurs qui ne les avaient pas trouvés. »

Carter a souligné que Koch savait que la présence d’anthrax chez un animal ne signifiait pas que l’animal tomberait malade, que l’ingestion d’anthrax ne produisait pas la maladie, que certaines procédures d’inoculation ne fonctionnaient pas et que divers facteurs étaient importants pour déterminer si un animal exposé tomberait malade ou non. Koch a ensuite mis au point des procédures d’inoculation qui tuaient toujours les animaux testés, montrant ainsi que les procédures d’inoculation étaient le facteur le plus important dans l’apparition de la maladie. Toutefois, il n’a pas affirmé qu’il s’agissait d’une preuve directe que la bactérie du charbon était à l’origine de la maladie.

« Tout d’abord, il savait que la simple présence de bacilles du charbon dans un animal ne garantissait pas qu’il deviendrait malade ; l’ingestion de bacilles du charbon n’induisait pas invariablement le charbon, certaines procédures d’inoculation n’étaient pas fiables et, même parmi les animaux sensibles exposés, la vulnérabilité dépendait de divers facteurs. Koch ne pouvait donc pas affirmer que les bacilles suffisaient à eux seuls à provoquer l’anthrax. Comme nous le verrons, dans des documents ultérieurs, Koch a adopté divers critères de causalité similaires à la stricte suffisance, mais plus faibles. Cependant, dans les premiers articles sur l’anthrax, on ne trouve aucun critère de ce type. Après quelques échecs, Koch a mis au point des procédures d’inoculation qui induisaient invariablement un anthrax mortel chez certains animaux de laboratoire. Mais en décrivant sa procédure, il s’est contenté d’observer qu’elle était importante parce qu’elle permettait de tester la viabilité des cultures de bacilles. Nulle part dans l’article de 1876, il n’a suggéré que ces inoculations, qui tuaient de manière fiable les animaux testés, apportaient la preuve directe que les bacilles étaient la cause de l’anthrax. »

Ainsi, Carter a déterminé que tout ce que Koch avait accompli dans son article de 1876 était de montrer que les bacilles ou les spores étaient nécessaires pour les cas artificiels de maladie. Son travail ne prouvait pas que la bactérie du charbon causait la maladie telle qu’elle était observée dans la nature. D’après le témoignage de Carter, il est clair que les premiers travaux de Koch sur l’anthrax n’ont pas résisté aux fameux postulats qu’il a établis quelques années plus tard et qui sont considérés comme nécessaires pour prouver qu’un microbe est à l’origine d’une maladie spécifique.

Ironiquement, la première tentative de Koch de prouver l’hypothèse des germes avec l’anthrax a conduit à une rivalité amère avec Louis Pasteur, la personne même à qui l’on attribue l’établissement de la version moderne de l’hypothèse. Selon Carter, Pasteur considérait les travaux de Koch comme non concluants, et il soulignera plus tard dans une réponse à Koch que plusieurs autres observateurs étaient, comme lui, parvenus à la même conclusion au sujet des premières preuves de Koch concernant la maladie du charbon. Pasteur estime également avoir été le premier à démontrer la causalité dans un article qu’il a publié en 1877.

« Quelques mois plus tard, au printemps 1877, Pasteur publie le premier d’une longue série d’articles sur le charbon. Après avoir insisté sur le fait que Davaine avait précédé Pollender dans l’observation des bactéries du charbon, Pasteur affirme que lui-même, en étudiant les maladies des vers à soie, a été le premier à identifier les spores et à reconnaître qu’elles restaient viables pendant de longues périodes. Pasteur mentionne favorablement l’article de Koch et reconnaît que ce dernier a été le premier à retracer le cycle de vie de l’organisme et à identifier ses spores. Il fait remarquer que les travaux de Koch n’ont pas persuadé les détracteurs que les bacilles sont la cause de la maladie du charbon, et déclare que son propre objectif est de fournir une démonstration concluante. »

Peut-être Pasteur a-t-il fait de l’ombre aux travaux de Koch après avoir pris connaissance de l’article de ce dernier sur la bactérie du charbon, et s’est-il senti poussé à participer à la course à la découverte et à la lutte contre de nouveaux microbes afin de revendiquer la priorité dans le processus de découverte. Quoi qu’il en soit, la première rencontre entre Robert Koch et Louis Pasteur fut apparemment cordiale lorsqu’ils se rencontrèrent à Londres à la demande de Lord Joseph Lister, qui avait invité Koch à assister au septième congrès médical international qui s’est tenu pendant l’été 1881.

« Pasteur assiste également au congrès médical de Londres, où il présente une communication sur ses résultats concernant l’atténuation de la maladie du charbon et la vaccination réussie des moutons, réalisée au début du printemps. Koch a présenté une démonstration en laboratoire de sa technique des plaques et de ses méthodes de coloration des bactéries. Pasteur assiste à cette séance de démonstration et déclare avec admiration : “C’est un grand progrès, Monsieur. Cet éloge était un grand triomphe pour Koch, qui avait 20 ans de moins que Pasteur. »

L’histoire raconte qu’au cours d’un discours de Pasteur, le traducteur de Koch a mal traduit une phrase du discours de Pasteur portant sur les travaux de Koch, transformant une phrase signifiant « une collection de travaux allemands » en une phrase signifiant « l’arrogance allemande ».

« Mais cette fois, c’est un problème de traduction qui aurait provoqué la réponse agressive et inattendue de Koch, selon un document conservé au musée de l’Institut Pasteur à Paris. Le problème est que les deux hommes ne parlent ni ne comprennent la langue de l’autre. Pasteur qualifie les travaux publiés par Koch de recueil allemand, ce qui signifie collection ou compilation d’ouvrages allemands. Le professeur Lichtheim, qui était assis à côté de Koch et convertissait rapidement le français de Pasteur en allemand, traduisit incorrectement “recueil allemand” par “orgueil allemand”, ce qui signifie “arrogance allemande”. Il n’est donc pas surprenant que Koch proteste avec colère contre cette insulte involontaire, tandis que Pasteur, ignorant que sa phrase inoffensive avait été transformée par erreur en une insulte cinglante, reste d’un calme extraordinaire. »

http://www.antimicrobe.org/h04c.files/history/Microbe%202007%20Pasteur-Koch.pdf

Cette erreur de traduction a poussé un Koch enflammé à attaquer les travaux de Pasteur sur le charbon, critiquant son « atténuation » de la bactérie du charbon pour la vaccination, tout en accusant Pasteur d’utiliser des cultures impures et de mener des études d’inoculation erronées. En fait, selon Carter, au cours de son argumentation, Koch a insinué que Pasteur falsifiait les résultats de ses expériences d’inoculation. Koch et le microbiologiste germano-suisse Edwin Klebs reprochent à Pasteur de ne pas apporter de nouvelles preuves, puisqu’il n’a fait que répéter les expériences menées par le botaniste Ernst Tiegel seize ans plus tôt. Dans sa réponse de 1882, Ueber die Milzbrandimfung (À propos de la vaccination contre l’anthrax), Koch a eu des mots très durs à l’égard des méthodes de Pasteur, affirmant que ses recherches n’avaient rien apporté à l’étiologie de la maladie : « Seules quelques-unes des croyances de Pasteur sur le charbon sont nouvelles, et elles sont fausses ». Selon Carter, Koch estimait que les expériences de Pasteur étaient « sans valeur et naïves » et il refusa de répéter une expérience de Pasteur qu’il qualifiait d’« expérience inutile ». Koch a accusé Pasteur de confondre les bacilles du charbon avec d’autres organismes similaires, et il a souligné que, contrairement à la revendication de priorité de Pasteur (chose pour laquelle Pasteur était tristement célèbre), ses propres travaux sur le charbon avaient précédé ceux de Pasteur d’un an.

« Pasteur pense avoir découvert l’étiologie du charbon. Cette étiologie ne pouvait être établie qu’en identifiant les formes durables des bacilles du charbon, les conditions de leur origine, leurs caractéristiques, leur relation avec le sol et l’eau. Bien que je ne sois pas intéressé par les querelles de priorité, ces questions sont tellement évidentes que je ne peux pas les ignorer. Je ne peux répondre aux affirmations de Pasteur qu’en me référant à ma publication de 1876 qui décrit la génération des spores du charbon et leur relation avec l’étiologie du charbon. Le premier travail de Pasteur sur le charbon a été publié un an plus tard, en 1877. Cela n’appelle pas d’autres commentaires. »

Tout en contestant les travaux de Pasteur sur la rage, Koch a critiqué les méthodes défectueuses utilisées par Pasteur pour l’étude de la rage et du charbon, ce qui, ironiquement, peut lui être reproché, car Koch n’a pas non plus utilisé de cultures pures ni d’animaux de laboratoire appropriés.

« Ainsi, en raison de l’absence d’examen microscopique, de l’utilisation de substances impures et de l’emploi d’animaux d’expérience inadaptés, la méthode de Pasteur doit être rejetée comme défectueuse. Elle ne peut aboutir à des résultats concluants. On ne peut pas reprocher à Pasteur lui-même l’interprétation qu’il a faite de ses résultats. Ses préjugés l’ont emporté et il a raconté des choses merveilleuses sur les maladies trouvées chez ses animaux d’expérience et sur les restes de leurs cadavres. Après tout, Pasteur n’est pas médecin et on ne peut pas attendre de lui qu’il porte des jugements solides sur les processus pathologiques et les symptômes des maladies. »

Koch a également critiqué Pasteur pour le secret de ses méthodes expérimentales, notant que Pasteur les a gardées cachées, s’assurant ainsi que son travail ne pouvait pas être reproduit et vérifié de manière indépendante par d’autres chercheurs.

« Pasteur mérite d’être critiqué non seulement pour ses méthodes défectueuses, mais aussi pour la manière dont il a rendu publiques ses recherches. Dans l’industrie, il peut être permis, voire nécessaire, de garder secrètes les procédures qui conduisent à une découverte. En revanche, dans le domaine scientifique, les usages sont différents. Quiconque veut être accepté dans la communauté scientifique doit publier ses méthodes, afin que chacun puisse vérifier l’exactitude de ses affirmations. Pasteur n’a pas respecté cette obligation. Même dans ses publications sur le choléra des poules, il a tenté de garder secrète sa méthode de réduction de la virulence. Seule la pression de [Gabriel Constant] Colin l’a incité à révéler ses méthodes. Il en est de même pour l’atténuation du virus du charbon. À ce jour, les publications de Pasteur sur la préparation des deux matières à inoculer sont si imparfaites qu’il est impossible de répéter ses expériences et de tester ses résultats. Ayant adopté une telle procédure, Pasteur ne peut se plaindre de la méfiance et des vives critiques qu’il rencontre dans les milieux scientifiques. La science rend publiques ses méthodes sans réserve. À cet égard, Toussaint et [Augusta] Chauveau, qui travaillent dans le même domaine, contrastent agréablement avec Pasteur. »

Koch s’en est pris au vaccin contre l’anthrax de Pasteur, déclarant que « tout ce que nous avons entendu, ce sont des données complètement inutiles » et que le simple fait d’indiquer le nombre d’animaux ayant résisté à l’inoculation par rapport au nombre d’animaux morts ne prouvait pas que les animaux survivants étaient par conséquent « immunisés ». Pasteur n’avait pas réussi à démontrer l’« immunité », et les rapports s’accumulaient sur le fait que son vaccin n’avait pas atteint l’objectif souhaité, alors que Pasteur « ignorait complètement les nombreux échecs qui lui étaient connus ».

« Selon Pasteur, en France, au début du mois de septembre, 400 000 ovins et 40 000 bovins avaient été inoculés. Pasteur estime les pertes à environ trois moutons pour mille et à environ 0,5 bovin pour mille. Bien sûr, je ne contesterai pas ces chiffres, mais il est nécessaire qu’ils soient accompagnés d’un commentaire. De ces chiffres, on sait seulement qu’un nombre relativement important d’animaux a résisté à l’inoculation. Mais Pasteur ne dit rien de notre préoccupation principale, à savoir si les inoculations ont rempli leur rôle et immunisé les animaux. La valeur des inoculations préventives est déterminée par le nombre d’animaux immunisés. Qu’aurait-on dit de Jenner s’il n’avait pu revendiquer aucun avantage pour l’inoculation, si ce n’est que sur des milliers d’enfants inoculés, seul tel ou tel pourcentage est mort ? Il est certain que rien ne ferait mieux accepter les inoculations contre le charbon que de savoir que des milliers d’animaux ont été protégés contre le charbon. Jusqu’à présent, Pasteur n’a pas été en mesure de le démontrer. Au contraire, les plaintes sur les échecs de l’inoculation s’accumulent et ses faiblesses deviennent de plus en plus évidentes. »

« D’autre part, il est très surprenant que Pasteur, qui a consciencieusement inclus les animaux inoculés avec un vaccin faible afin d’arriver au plus grand nombre d’inoculations avec le plus petit nombre de pertes, ait complètement ignoré les nombreux échecs qui lui étaient connus. »

Koch reproche à Pasteur d’ignorer les résultats défavorables à ses expériences et de ne retenir que ceux qui lui permettent de vanter ses « succès ».

« Ainsi, Pasteur suit la tactique de ne communiquer que les aspects favorables de ses expériences, et d’ignorer les résultats défavorables, même décisifs. Un tel comportement peut être approprié pour la publicité commerciale, mais en science, il doit être totalement rejeté. »

C’est comme Donkey Kong !!!

Il est intéressant de noter que dans son attaque contre les méthodes et les résultats défectueux obtenus par Pasteur, Koch a déclaré que, contrairement à son article de 1876, il avait essayé de reproduire la maladie de manière naturelle en donnant aux moutons des matériaux contenant du charbon. Cependant, il a fait part de certains problèmes liés à ses méthodes. Tout d’abord, les moutons ont reçu des morceaux de pommes de terre, qui ne font pas partie du régime alimentaire naturel des moutons, et les pommes de terre sont connues pour être toxiques pour les moutons, car elles contiennent de la solanine et de la chaconine, qui peuvent être toxiques lorsqu’elles sont consommées. La raison la plus probable pour laquelle Koch a utilisé des pommes de terre est qu’à l’époque, il s’en servait pour cultiver sa bactérie, mais cela posait des problèmes car les tranches étaient souvent envahies par des moisissures. Quoi qu’il en soit, il nourrissait un groupe de moutons avec la rate fraîche d’un cochon d’Inde récemment décédé, enveloppée dans des pommes de terre, et l’autre groupe de moutons était nourri avec des tranches cultivées avec les spores de la bactérie. Alors que les moutons nourris avec les rates ont survécu, les autres moutons nourris avec les pommes de terre cultivées ont succombé à la maladie. Mais c’est là que se pose le deuxième problème. C’est dans la rate que, selon Koch, se trouve la matière de l’anthrax. Dans un autre article datant de 1884, il affirmait que « les spores ne se forment jamais dans le corps » et qu’en prélevant une partie des organes, « on savait que c’étaient les bacilles seuls qui étaient introduits ». En d’autres termes, Koch supposait que la rate ne contenait pas de spores, mais uniquement des bacilles. Or, le bactériologiste italien Giuseppe Sanarelli a démontré que les spores de la maladie du charbon peuvent rester dormantes dans les tissus de l’hôte. Koch ne peut donc pas prétendre que les rates données aux moutons qui ont survécu étaient exemptes de spores dormantes. Ils auraient très bien pu être nourris de spores du charbon dans les matériaux de la rate et survivre, réfutant ainsi une fois de plus son hypothèse.

« J’ai donné à plusieurs moutons du fourrage contenant des bacilles du charbon, mais pas de spores. Quelques autres moutons ont été nourris avec des masses d’anthrax contenant des spores. J’ai nourri les moutons en plaçant soigneusement des morceaux de pommes de terre dans leur bouche. Ces morceaux étaient remplis de matière infectieuse. Ils ont été introduits de manière à ce qu’il n’y ait aucune possibilité de blesser la muqueuse. Un morceau de pomme de terre ne peut certainement pas être considéré comme un aliment piquant. Par ailleurs, les moutons n’étaient nourris que de foin tendre. Les conditions d’infection définies par Pasteur étaient donc totalement exclues. Comme substance exempte de spores, nous avons utilisé la rate fraîche d’un cobaye qui venait de mourir de la maladie du charbon. Comme substance contenant des spores, nous avons utilisé une culture de bacilles du charbon sur pomme de terre qui produisait des spores. Les moutons nourris avec des rates sans spores sont restés en bonne santé. En l’espace de quelques jours, les moutons nourris avec des cultures de bacilles contenant des spores sont tous morts de la maladie du charbon. »

Dans une autre expérience, Koch a tenté de montrer que les moutons qui mangeaient une petite quantité de spores succombaient à la maladie. Dans ce cas, dix moutons ont reçu des pommes de terre auxquelles étaient attachés des fils de soie contenant des spores d’anthrax. Deux moutons témoins n’ont reçu que des pommes de terre. Au cours de l’expérience, quatre des dix moutons nourris avec les fils de soie sont morts. Les deux témoins sont restés en bonne santé. Cependant, une fois de plus, certains problèmes se posent au-delà de l’utilisation de pommes de terre potentiellement toxiques. Tout d’abord, la taille de l’échantillon est extrêmement réduite, avec seulement dix moutons expérimentaux et deux témoins. Il aurait fallu au moins utiliser 10 moutons de contrôle. Deuxièmement, les moutons de contrôle n’ont pas été nourris avec des fils de soie. Pour que la situation soit exactement la même dans les deux groupes, il aurait fallu utiliser des fils de soie dépourvus de spores. Troisièmement, seuls quatre moutons sont morts, tandis que les six autres sont restés en bonne santé. Comment expliquer que 60 % des moutons nourris avec des spores d’anthrax soient restés indemnes de la maladie ?

« Il était donc nécessaire de déterminer si une infection naturelle pouvait également se produire en mangeant une petite quantité de spores de charbon mélangées à du fourrage sous forme de poussière ou de boue provenant d’un marécage ou d’un cours d’eau en crue. C’est pourquoi nous avons entrepris l’expérience suivante : chaque jour, dix moutons ont reçu des morceaux de pommes de terre auxquels étaient attachés des fils de soie contenant des spores de la maladie du charbon. Chaque fil mesurait à peine un centimètre de long. Un an auparavant, chaque fil avait été imprégné d’une petite quantité de spores d’anthrax et séché. Deux moutons, qui ont servi de témoins, ont été gardés dans la même stalle que les autres moutons et ont été soignés de la même manière. Ils n’ontcependant reçu aucun filcontenant des spores. Quatre des dix moutons sont morts. Ces décès sont survenus aux cinquième, sixième, onzième et dix-neuvième jours du test. Les tests d’alimentation ont alors été interrompus. Les deux animaux témoins sont restés en bonne santé. Dans ce test, les cas d’anthrax qui se sont produits sur plusieurs jours et les résultats de la dissection étaient parfaitement conformes à l’anthrax naturel. L’infection naturelle se produit généralement — par temps froid peut-être toujours — lorsque du fourrage contenant des spores d’anthrax pénètre dans l’intestin. Si les moutons mangent du fourrage contenant beaucoup de spores, ils meurent après quelques jours ; s’ils mangent moins de spores, ils meurent plus lentement. »

Bien que Koch ait pu penser que ses expériences reflétaient une voie d’exposition naturelle prouvant que l’ingestion de spores d’anthrax entraînait la maladie, d’autres chercheurs n’ont pas confirmé cette hypothèse. En fait, il est bien connu que « les bacilles du charbon ou les spores en grand nombre peuvent être donnés à des animaux de laboratoire sans produire le charbon, alors qu’ils sont très sensibles à l’inoculation cutanée ». En d’autres termes, les voies d’exposition naturelles aux spores n’entraînent pas de maladie, alors que les injections artificielles non naturelles en entraînent. Ce fait a été confirmé par Sanarelli en 1925, qui a déclaré que de grandes quantités de bacilles ou de spores du charbon peuvent être ingérées sans provoquer de maladie, et que même les injections de sang ne sont pas nocives. En 1922, Holman a essayé de donner des capsules de gélatine contenant des spores « virulentes » à des souris et à des cobayes, ce qui n’a pas eu d’effet nocif, bien que des spores « virulentes » aient été retrouvées dans les excréments :

« Sanarelli (1925) a constaté qu’un grand nombre de bacilles du charbon ou de spores peuvent être administrés par la bouche à des animaux de laboratoire sans les infecter, et que le sang d’un animal infecté peut être injecté par l’anus sans dommage. Des spores virulentes de charbon enfermées dans de petites capsules de gélatine peuvent être avalées par des souris et des cobayes sans dommage, bien que des spores virulentes puissent être retrouvées dans les fèces pendant une semaine (Holman, 1922). »

https://www.ncbi.nlm.nih.gov/books/NBK310481

Dans son article de 1925 intitulé The Pathogenesis of « Internal » or « Spontaneous » Anthrax (Pathogenèse de l’anthrax « interne » ou « spontané »), Sanarelli est allé jusqu’à dire que, même si les opinions de Koch sur le charbon avaient été généralement acceptées, d’autres études sur l’ingestion de spores de charbon contredisaient ses résultats et que personne ne pouvait reproduire la « mycose intestinale du charbon » de l’école de Koch.

« Les vues de Koch ont été très généralement acceptées, mais d’autres observations sur les effets de l’ingestion de bacilles ou de spores du charbon ont donné des résultats contradictoires, et l’auteur considère qu’aucun travailleur n’a réussi à reproduire expérimentalement la “mycose intestinale du charbon” de l’école de Koch.

On constate donc que l’hypothèse selon laquelle les animaux nourris avec des spores d’anthrax tomberaient malades et mourraient de la maladie a été réfutée à plusieurs reprises, non seulement par Koch, mais aussi par divers chercheurs indépendants. En fait, la manière dont un animal contracte l’anthrax dans la nature est toujours considérée comme une inconnue. Elle est considérée comme une théorie, c’est-à-dire une supposition non prouvée, plutôt qu’une théorie scientifique étayée par une hypothèse prouvée. Il existe différentes explications, mais elles varient toutes et sont purement spéculatives.

Si les éléments ci-dessus montrent que Koch n’a pas pu prouver son hypothèse sur les germes par des méthodes naturelles, nous pouvons encore démontrer les failles de ses preuves sur l’anthrax en appliquant ses propres postulats à son travail.

Dans son article de 1882 critiquant Pasteur, Koch a comparé et opposé ses propres méthodes à celles de Pasteur. Il affirme que, dès le départ, il faut examiner “toutes les parties du corps qui sont altérées par la maladie pour établir la présence des parasites, leur répartition dans les organes malades et leur relation avec les tissus du corps”. Ensuite, on peut “commencer à démontrer que les organismes sont pathogènes et qu’ils sont la cause de la maladie. À cette fin, il faut les cultiver purs et, après les avoir entièrement libérés de toutes les parties du corps malade, les inoculer à nouveau à des animaux, de préférence de la même espèce que ceux chez lesquels la maladie a été observée à l’origine”. En guise d’exemple, Koch a cité la tuberculose comme la maladie pour laquelle il avait pleinement satisfait à ses critères. Pourtant, comme le note Carter, il n’a pas suivi ces étapes pour identifier la cause de l’anthrax, et ses articles de 1876 et 1881 révèlent qu’il a suivi une stratégie sensiblement différente. La stratégie utilisée par Koch pour étudier l’anthrax n’a pas seulement réfuté son hypothèse, elle a également échoué à prouver que le microbe était la cause de la maladie, conformément aux critères qu’il s’était fixés.

Tuberculose

« Tous ceux qui côtoient des tuberculeux sont infectés, mais restent en bonne santé tant qu’ils se soignent et maintiennent le sol dans des conditions défavorables à la croissance de la graine. »

Sir William Osler

S’il est clair que Robert Koch n’a pas prouvé son hypothèse concernant l’anthrax et que les preuves qu’il a produites n’ont pas été à la hauteur de ses propres postulats, ce sont ses travaux sur la tuberculose, quelques années plus tard, qui ont finalement valu à Koch d’être considéré comme le “grand chasseur de microbes”. Selon Carter, c’est la découverte par Koch de la bactérie de la tuberculose qui “a probablement fait plus que toute autre réalisation pour établir la domination de la théorie des germes”. En fait, ses travaux sur la tuberculose ont valu à Koch le très convoité prix Nobel en 1905 pour “ses recherches et ses découvertes sur la tuberculose”. C’est dans le cadre de ces travaux que Koch a formulé ses célèbres postulats, qui constituent depuis lors l’étalon-or pour prouver que les microbes sont à l’origine des maladies. Comme j’ai déjà écrit sur les preuves de la tuberculose de Koch, je ne vais pas tout reprendre ici. Cependant, je souhaite examiner son travail pour voir si les expériences reflètent une hypothèse basée sur un phénomène naturel observé et s’il a pu satisfaire ses propres postulats.

Pour “découvrir” la bactérie de la tuberculose au début des années 1880, Robert Koch a inventé des procédures de coloration spéciales afin de pouvoir facilement visualiser la bactérie dans les organes des hôtes malades. Au début de son article de 1882 intitulé “L’étiologie de la tuberculose, Koch a déclaré que le but de son étude était de “démontrer l’existence d’une structure parasitaire étrangère dans l’organisme, qui peut éventuellement être désignée comme l’agent causal”. Cependant, Koch savait que la corrélation n’est pas synonyme de causalité et que, par conséquent, la “corrélation entre la présence d’affections tuberculeuses et de bacilles” ne signifiait pas nécessairement que ces phénomènes étaient liés par un lien de causalité. Cependant, Koch estimait qu’ » un haut degré de probabilité de cette relation causale peut être déduit de l’observation que les bacilles sont généralement plus fréquents lorsque le processus de la tuberculose se développe ou progresse, et qu’ils disparaissent lorsque la maladie devient silencieuse ». Contrairement à l’opinion de Koch, il s’avère, comme l’a noté le Dr Herbert Snow, que la bactérie est régulièrement absente lorsque la maladie se développe, et qu’elle n’est pas rarement absente chez les personnes à un stade très avancé de la maladie.

« Le germe ne fait pas son apparition dans les expectorations des malades avant que la maladie n’ait duré plusieurs mois. Le Dr H. J. Loomis (Medical Record, 29 juillet 1905) donne la date moyenne de sa détection à trois mois et un tiers après le début de la maladie, tel que déterminé par les signes physiques. La longue expérience du Dr Muthu au Mendip Sanatorium lui permet d’affirmer qu’il n’est pas rare qu’elle soit absente de l’expectoration des patients à un stade très avancé de la maladie et présentant des “lésions pulmonaires étendues”. » (Tuberculose pulmonaire et traitement au sanatorium, 1910.)

« Le professeur Middendorp nie l’existence du bacille dans les nodules tuberculeux de formation récente, avant l’apparition des processus dégénératifs. Spina, Charrin et Kuskow n’ont absolument pas réussi à le détecter dans la tuberculose miliaire aiguë, où, si la théorie causale de Koch était vraie, il devrait être particulièrement abondant. »

Curieusement, Koch a même noté qu’il avait lui-même trouvé des cas de tuberculose où la bactérie n’était pas présente, ce qui semble contredire son affirmation d’un « haut degré de probabilité de la relation de cause à effet ».

« Afin de me faire une opinion sur la présence de bacilles tuberculeux dans les expectorations de phtisie3, j’ai examiné à plusieurs reprises les expectorations d’une grande série de malades et j’ai constaté que, dans certains cas, il n’y avait pas de bacilles et que, cependant, dans environ la moitié des cas, il y avait des bacilles extraordinairement nombreux, dont certains étaient sporogènes. »

Selon Koch, pour prouver que le bacille de la tuberculose est la véritable cause de la maladie, il faudrait l’isoler, le débarrasser de tous les contaminants et le cultiver dans un état de pureté. Cette culture pure devrait ensuite être introduite dans un animal sain et provoquer exactement la même maladie.

« Pour prouver que la tuberculose est provoquée par la pénétration des bacilles et qu’il s’agit d’une maladie parasitaire définie provoquée par la croissance et la reproduction de ces mêmes bacilles, les bacilles doivent être isolés du corps et cultivés si longtemps en culture pure qu’ils soient débarrassés de toute production malade de l’organisme animal qui pourrait encore adhérer aux bacilles. Ensuite, les bacilles isolés doivent transmettre la maladie à d’autres animaux et provoquer le même tableau pathologique que celui qui peut être obtenu par l’inoculation à des animaux sains de matières tuberculeuses se développant naturellement. »

Koch pensait que la source « la plus essentielle » d’« infection » était « l’expectoration des malades » et qu’il s’agissait de la principale source de transmission de la maladie, affirmant que les patients atteints de tuberculose laryngée ou pulmonaire qui expectoraient de grandes quantités de bacilles étaient particulièrement « infectieux ». Ainsi, si la voie hypothétique de l’« infection » naturelle est l’expulsion de grandes quantités de bacilles par la toux, il serait logique d’essayer d’« infecter » des hôtes sains de la même manière par la voie de l’aérosolisation. Cependant, afin de démontrer que les bacilles sont à l’origine de la maladie, Koch s’est tourné vers les cochons d’Inde, un animal dont il a admis qu’il n’avait jamais vu de cas de tuberculose naturelle après avoir examiné des centaines de cochons d’Inde achetés. Il n’a constaté la maladie qu’après avoir gardé les cobayes en captivité pendant des mois, et la maladie observée ne ressemblait qu’occasionnellement à celle observée chez l’Homme.

« Sur des centaines de cochons d’Inde achetés et parfois disséqués et examinés, je n’ai jamais trouvé un seul cas de tuberculose. La tuberculose spontanée ne se développe qu’occasionnellement et jamais avant un délai de trois ou quatre mois après que les autres animaux de la pièce ont été infectés par la tuberculose. Chez les animaux qui sont tombés malades à la suite d’une tuberculose spontanée, les glandes bronchiques deviennent très enflées et pleines de pus et, dans la plupart des cas, les poumons présentent une grande masse chique avec une décomposition étendue au centre, de sorte qu’elle ressemble parfois aux processus similaires dans le poumon humain… »

Pour « infecter » les cobayes, plutôt que de tenter une exposition naturelle par aérosolisation de la bactérie, Koch leur a injecté la bactérie cultivée dans l’abdomen, près de la glande inguinale. Il est évident que l’injection d’une bactérie cultivée dans l’abdomen d’un animal n’est pas la voie d’exposition naturelle supposée. Il est intéressant de noter que Koch a constaté que les animaux auxquels il avait inoculé la bactérie de manière expérimentale ont développé une maladie complètement différente. Les animaux injectés expérimentalement ont succombé à la maladie beaucoup plus rapidement et présentaient un tableau pathologique différent, ce qui, selon Koch, permettait de faire plus facilement la différence entre les cas de tuberculose induits artificiellement et les cas de tuberculose spontanée observés chez les animaux.

« Les animaux auxquels on a inoculé la tuberculose présentent une image complètement différente. L’inoculation des animaux a lieu dans l’abdomen, près de la glande inguinale. Celle-ci commence par gonfler et donne une indication précoce et indubitable du succès de l’inoculation. Étant donné qu’une plus grande quantité de matériel infectieux est présente au début, l’infection progresse beaucoup plus rapidement que l’infection spontanée, et dans les coupes de tissus de ces animaux, la rate et le foie présentent des changements plus importants dus à la tuberculose que les poumons. Il n’est donc pas du tout difficile de différencier la tuberculose induite artificiellement de la tuberculose spontanée chez les animaux de laboratoire. »

Koch a indiqué qu’il avait injecté les animaux de différentes manières : sous la peau, dans la cavité péritonéale, dans la chambre antérieure de l’œil ou directement dans la circulation sanguine.

« Les résultats d’un certain nombre d’expériences d’inoculation de cultures de bacilles à un grand nombre d’animaux, inoculés de différentes manières, ont tous abouti aux mêmes résultats. De simples injections sous-cutanées, ou dans la cavité péritonéale, ou dans la chambre antérieure de l’œil, ou directement dans le flux sanguin, ont toutes produit la tuberculose, à une seule exception près. »

Il a mentionné que, pour que la maladie se déclare avec le plus de succès possible, les animaux doivent recevoir des injections qui pénètrent le tissu sous-cutané, la cavité péritonéale et la chambre oculaire de l’œil. Si la blessure n’est que superficielle, elle n’entraîne pas régulièrement la maladie.

« Si l’on veut rendre un animal tuberculeux avec certitude, le matériel infectieux doit être introduit dans le tissu sous-cutané, dans la cavité péritonéale, dans la chambre oculaire, bref, dans un endroit où les bacilles ont la possibilité de se propager dans une position protégée et où ils peuvent se focaliser. Les infections provenant de plaies cutanées superficielles ne pénétrant pas dans le tissu sous-cutané, ou de la cornée, ne réussissent qu’exceptionnellement. »

La nécessité d’une pénétration profonde pour réussir à « infecter » et à provoquer une maladie est la façon dont Koch a rationalisé la raison pour laquelle les gens pouvaient régulièrement se couper les mains avec des matériaux « infectieux » et rester absolument exempts de maladie. Il estimait qu’« il serait difficilement compréhensible que la tuberculose ne soit pas beaucoup plus fréquente qu’elle ne l’est en réalité, étant donné que pratiquement tout le monde, en particulier dans les endroits densément peuplés, est plus ou moins en contact avec la tuberculose ». Koch a noté que, contrairement à l’anthrax, la bactérie de la tuberculose « ne trouve les conditions de son existence que dans le corps de l’animal » et non « à l’extérieur de celui-ci dans les conditions habituelles et naturelles ». On peut donc dire que la bactérie de la tuberculose n’est pas un envahisseur pathogène extérieur, mais plutôt un microbe qui n’existe qu’à l’intérieur de l’organisme vivant.

Il est clair, à la lecture de l’article de Koch sur la tuberculose, qu’il n’a jamais tenté de recréer les conditions supposées, à partir du phénomène naturel observé, pour qu’un hôte sain devienne « infecté ». Comme Pasteur avant lui, Koch s’est plutôt attaché à créer une maladie artificielle ressemblant à ce que l’on appelait la tuberculose, en procédant à diverses injections non naturelles de bactéries cultivées, d’une manière que les animaux n’auraient jamais connue dans la nature. La création d’une maladie artificielle par injection ne dit rien sur ce qui se passe dans la nature et ne prouve absolument pas que ce qui est injecté est à l’origine de la maladie par rapport à la procédure invasive et au traumatisme infligé aux animaux.

Si certains considèrent les travaux de Koch sur la tuberculose comme « l’une des déclarations les plus définitives de l’histoire de la médecine », ceux-ci ne sont pas acceptés par tous. En fait, comme beaucoup critiquaient ses découvertes, Koch a décidé en 1883 de répondre à ses détracteurs dans un document intitulé Kritische Besprechung der gegen die Bedeutung der Tuberkelbazillen gerichteten Publikationen (Analyse critique des publications sur le rôle de la tuberculose). Koch commence par déplorer que son travail n’ait pas été reconnu par les « représentants renommés de l’anatomie pathologique ». Il supposait qu’ils liraient son travail, mais admettait que « cette supposition, cependant, était erronée. Jusqu’à présent, du moins, rien n’a été annoncé et il faut s’attendre à de telles annonces dans un avenir proche ». Koch estimait que ses détracteurs s’accrochaient à de vieilles traditions et « s’agrippaient à des pailles pour se sauver des flots entrants » de son travail. Il était irrité par la satisfaction qu’ils éprouvaient à trouver des cas où les bacilles étaient observés chez des personnes en bonne santé ou apparaissaient dans d’autres maladies, contredisant ainsi son premier postulat.

« Avec quelle joie a-t-on appris que des bacilles tuberculeux avaient également été trouvés dans le contenu intestinal de personnes saines ou dans un seul cas de bronchectasie. »

Dans un cas, Koch a tenté d’affirmer que la découverte par Cramer de la bactérie de la tuberculose chez 20 personnes en bonne santé était un cas d’erreur d’identité, tout en soulignant à nouveau que cette découverte avait été saluée par de nombreuses personnes.

« Il est facile de voir à quel point les prétendues découvertes de Crämer étaient loin d’ébranler la nouvelle doctrine de la tuberculose, et pourtant la nouvelle que le bacille tuberculeux avait été trouvé chez 20 personnes en bonne santé a été accueillie de toutes parts comme une parole rédemptrice. »

Koch reconnaît que le Dr Rollin Gregg lui a envoyé un article exprimant sa conviction « que la phtisie n’a pour cause qu’une perte d’albumine dans le sang », Koch déclarant que le Dr Gregg lui a dit que « des fils de fibrine sont censés apparaître dans chaque tubercule et j’ai manifestement pris ces fils pour des bactéries ». Faisant référence aux conclusions de Max Schottelius selon lesquelles le tableau clinique de la tuberculose varie d’une espèce animale à l’autre, Koch a fait remarquer qu’il en allait de même pour l’anthrax, le tableau clinique étant très différent chez l’Homme et chez l’animal, ce qui empêche d’appliquer à l’Homme les résultats de l’expérimentation animale, car ils ne reflètent pas la maladie telle qu’elle est observée chez l’Homme.

« Je voudrais également rappeler la même situation en ce qui concerne l’anthrax. L’évolution clinique et anatomique de l’anthrax est tellement différente chez l’Homme que, sans tenir compte de la même cause, à savoir le bacille du charbon, il faudrait en faire des tableaux cliniques complètement différents, et qu’en outre, les formes d’anthrax chez l’Homme diffèrent considérablement de celles des animaux et les unes des autres. »

Tout en essayant de défendre le fait que les gens pouvaient manger de la viande contaminée par la bactérie de la tuberculose sans effets néfastes, Koch a jeté une ombre supplémentaire sur ses propres découvertes concernant l’anthrax, en notant : « Car je connais, par ma propre expérience, de nombreux cas dans lesquels de la viande contaminée par l’anthrax a été consommée sans aucun dommage ». Koch s’est ensuite opposé au médecin allemand Peter Dettweiler, qui considérait les bacilles comme un effet secondaire de la maladie plutôt que comme la cause de celle-ci. Dettweiler estimait que les expériences d’injection de Koch ne prouvaient rien puisque les animaux n’avaient jamais contracté la maladie typique de la tuberculose. Koch a déclaré qu’il pensait que si l’on cherchait, on pourrait trouver un animal qui, en inhalant la bactérie, contracterait la même maladie que celle observée chez l’Homme. Cependant, Koch ne l’a jamais démontré lui-même.

« Il considère également les bacilles tuberculeux comme un effet secondaire de la tuberculose et non comme sa cause, bien qu’il ait trouvé des bacilles chez 87 phtisiques presque sans exception. Selon lui, les résultats de la vaccination obtenus avec les bacilles ne peuvent rien prouver, car chez les animaux, on n’obtient qu’une tuberculose miliaire et jamais le tableau typique de la phtisie. »

« Je ne doute pas que si l’on voulait le rechercher, on finirait par trouver des espèces animales qui, après avoir inhalé de si petites quantités de substance tuberculeuse qu’elles ne présentent qu’un ou quelques foyers d’infection dans les poumons, présenteraient également le tableau typique de la phtisie humaine. »

Au lieu de cela, Koch a commencé à injecter de diverses manières sa bactérie cultivée à des animaux afin de prétendre que c’était la bactérie qui était à l’origine de la maladie. Or, Koch savait pertinemment que l’injection d’autres substances à des animaux, comme le verre, le métal, le bois, etc., entraînerait également la tuberculose. En d’autres termes, les bacilles ne sont pas nécessaires à l’apparition de la maladie. Il insiste également sur la différence entre « tuberculose vaccinale et tuberculose spontanée », soulignant une fois de plus que la maladie artificielle n’est pas le reflet de la maladie « naturelle ».

« Lors des essais d’infection, destinés à vérifier l’efficacité des cultures, je n’ai jamais laissé les animaux en vie pendant 86 jours, mais je les ai tués au plus tard à la fin de la quatrième semaine. Car, comme on le sait, les lapins, qu’ils soient vaccinés avec du verre, du bois, du métal, etc. ou pas du tout, s’ils sont laissés suffisamment longtemps dans des clapiers infectés, peuvent finir par devenir tuberculeux. J’insiste sur cette distinction entre la tuberculose vaccinale et la tuberculose spontanée. »

Le fait que l’injection de matériaux autres que la bactérie de la tuberculose dans les animaux puisse provoquer la même maladie a été noté par le Dr Rollin Gregg dans son livre de 1889 intitulé Consumption : Its Cause and Nature (La tuberculose pulmonaire : sa cause et sa nature). Il y présente des extraits du travail du professeur Henry Formad sur des centaines d’animaux qu’il divise en deux classes : les scrofuleux4 et les non-scrofuleux. Le lapin et le cochon d’Inde, couramment utilisés par Koch, appartiennent à la classe des animaux scrofuleux. Chez ces animaux, toute substance injectée sous la peau provoque la tuberculose. L’injection de la bactérie sous la peau chez des animaux non scrofuleux (tels que les chats, les chiens et d’autres animaux plus grands) n’entraînera pas la maladie, mais si les injections sont faites dans la chambre antérieure de l’œil, les animaux non scrofuleux développeront la maladie. Cependant, si d’autres types de matières sont introduits dans les mêmes parties de l’œil, même du sable ordinaire, la même maladie se produira. Comme l’a souligné le Dr Gregg, ces faits annihilent l’affirmation selon laquelle le bacille de la tuberculose est la cause spécifique de la maladie, car toute substance injectée de la bonne manière dans l’animal concerné entraînera la tuberculose.

« Le 18 octobre 1882, le professeur H. F. Formad, de l’université de Pennsylvanie, a lu une communication, sur invitation, devant la Philadelphia County Medical Society, sur “Le bacille de la tuberculose et certains points anatomiques qui suggèrent la réfutation de sa relation étiologique avec la tuberculose”, publiée dans le Philadelphia Medical Times du 18 novembre 1882. Après avoir indiqué qu’il avait examiné “au microscope les tissus d’environ cinq cents animaux” pour le National Board of Health, “ainsi que ceux d’un nombre similaire ou encore plus important d’animaux divers utilisés par les membres” de ses “classes de pathologie expérimentale dans le laboratoire de l’université au cours des cinq dernières années”, il divise tous les animaux en deux classes, les scrofuleux et les non-scrofuleux, de la manière suivante :

La classe des scrofuleux comprend incontestablement le lapin et le cochon d’Inde apprivoisés, ainsi que tous les animaux enfermés, tandis que la classe des non-scrofuleux comprend le chat, le chien et les animaux en liberté.

Il dit ensuite que si les animaux scrofuleux sont inoculés, ou si on leur introduit sous la peau une matière quelconque, qu’elle soit tuberculeuse, diphtérique ou autre, même du “verre en poudre chimiquement propre”, et qu’ils survivent aux premiers résultats de l’expérience, un grand nombre d’entre eux meurent de la tuberculose. Mais l’inoculation d’animaux non scrofuleux de la même manière, c’est-à-dire sous la peau, même avec du pus tuberculeux pur, ne produira pas de tuberculose. Cette classe exige l’introduction de la matière inoculante dans le péritoine ou dans la chambre antérieure de l’œil, qu’il s’agisse de pus tuberculeux ou de ce qu’on appelle les bacilles de la tuberculose, afin de produire des tubercules chez ces animaux. Et là encore, si l’on introduit d’autres types de matières dans les mêmes parties, même du sable ordinaire, les résultats sont les mêmes que si l’on utilisait de la matière tuberculeuse. Comme on le verra, cela annihile toute prétention à une cause spécifique des tubercules. Ses affirmations sont si positives et sans équivoque qu’elles sont abondamment citées, et même l’ensemble de la conférence pourrait être cité avec avantage, tant elle est importante et directement applicable à notre sujet. »

Le Dr Gregg a souligné les failles des méthodes de Koch, notant qu’il n’a jamais eu besoin d’utiliser de cultures de sa bactérie pour produire la maladie chez les animaux. Koch savait qu’il lui suffisait d’injecter les animaux non scrofuleux dans l’œil et les animaux scrofuleux où il le souhaitait pour créer la maladie.

« Koch a incontestablement produit la tuberculose dans le péritoine de ses chats et de ses chiens ». Et il « aurait tout aussi bien pu utiliser du sable pour l’inoculation et conserver ses précieuses cultures du bacille de la tuberculose pour les inoculer dans d’autres parties du corps des chiens, des chats, des rats, etc. qui ne sont pas atteints de la maladie de Crohn. »

« Pourquoi le Dr Koch a-t-il inoculé ces derniers animaux uniquement dans le péritoine et la chambre antérieure de l’œil, alors qu’il a inoculé les animaux scrofuleux (lapins et cochons d’Inde) dans n’importe quelle partie du corps ? C’est un mystère. Essayons de le résoudre. »

Le Dr Gregg a poursuivi en citant d’autres déclarations accablantes du professeur Formad concernant ses travaux sur la diphtérie. Le professeur Formad a souligné, comme l’a également fait Koch, que l’inoculation à des lapins de matières étrangères non tuberculeuses et parfaitement inoffensives, telles que des morceaux de verre, de métal, de bois, etc. entraînait la mort par tuberculose. Le professeur Formad a déclaré que le Dr Wood et lui-même avaient vu plus de 100 lapins mourir de la tuberculose sans que la bactérie leur ait été injectée et sans qu’ils aient eu l’intention de provoquer la maladie. Leurs résultats ont été confirmés par les travaux du Dr O. C. Robinson.

« Les expériences sur la diphtérie menées par le professeur H. C. Wood et moi-même ont montré que les lapins qui ne succombaient pas à la maladie au bout de quelques jours mouraient presque tous de la tuberculose au bout de quatre à six semaines ou plus. Afin de voir si la matière diphtérique agissait spécifiquement dans la production de la tuberculose ou si cette dernière était simplement le résultat d’un processus inflammatoire, nous avons expérimenté en inoculant aux lapins des matières étrangères non tuberculeuses et parfaitement inoffensives, telles que des morceaux de verre, de métal, de bois, etc. Le résultat a été, dans la majorité des cas, des masses chiques et suppurantes au point d’inoculation, suivies dans le courant d’un mois ou plus par la mort due à la tuberculose. »

« Aujourd’hui, je peux témoigner avec certitude que le Dr Wood et moi-même avons vu mourir de la maladie tuberculeuse plus de cent lapins sur cinq ou six cents opérés, sans qu’un seul de ces animaux ait été sciemment inoculé avec une matière tuberculeuse quelconque, et sans que nous ayons eu l’intention d’étudier la tuberculose chez eux. Tous les lapins et cobayes soumis à des blessures sur une partie quelconque du corps au cours des diverses expériences et survivant aux effets immédiats ou aigus de celles-ci, n’ont eu, à quelques exceptions près, qu’un seul destin, celui de mourir de tuberculose, à condition qu’ils aient vécu assez longtemps après une interférence traumatique pour développer la lésion en question. »

« Ces faits ont également été particulièrement bien mis en évidence par les résultats d’une série soigneusement menée de cent expériences spéciales sur la tuberculose, exécutées par le Dr O. C. Robinson, dans le laboratoire de pathologie de l’université de Pennsylvanie. »

« Chez les animaux non scrofuleux, c’est-à-dire autres que les lapins et les cobayes, ni Robinson, ni Wood, ni moi-même, ni aucun autre expérimentateur n’avons jamais réussi à produire la tuberculose par inoculation, sauf dans le péritoine ou la chambre antérieure de l’œil. »

Le professeur Formad a fait remarquer que personne, y compris Koch, n’avait jamais produit la tuberculose chez des animaux qui n’étaient pas prédisposés à la maladie par le biais d’injections dans la peau. Koch changeait sa méthode d’injection en sachant comment obtenir le résultat qu’il souhaitait en fonction de l’animal sur lequel il expérimentait.

« Personne, y compris Koch, n’a jamais produit la tuberculose chez des animaux qui n’y étaient pas prédisposés, par inoculation dans la peau, par exemple. Les comptes rendus des expériences de Koch le prouvent et montrent que lorsqu’il voulait produire la tuberculose chez le lapin ou le cobaye au moyen de son bacille, il inoculait indistinctement dans n’importe quelle partie du corps ; mais s’il voulait démontrer les effets de son parasite chez des animaux non scrofuleux, il inoculait promptement dans la chambre antérieure de l’œil ou, de préférence, dans le péritoine. Après ce qui a été expliqué à propos de l’inflammation des membranes séreuses, il est évident que ces expériences ne prouvent pas que le bacille soit la cause de la tuberculose. »

Le Dr Gregg a résumé les points soulevés par le professeur Formad, en déclarant que la capacité de produire la tuberculose avec des injections de substances non tuberculeuses prouvait que le bacille n’était pas la cause de la maladie, et que les médecins devaient cesser de perdre leur temps à poursuivre la tuberculose en tant que maladie contagieuse.

« Et pourtant, l’insertion de “morceaux de verre, de métal, de bois, etc.” dans les mêmes parties produirait la tuberculose tout aussi facilement que le pus tuberculeux ou le bacille de la tuberculose ; tandis que la simple insertion des mêmes matériaux non tuberculeux sous la peau des animaux scrofuleux produisait identiquement les mêmes résultats que la matière tuberculeuse sur cette classe. Peut-on prouver plus positivement et plus absolument le caractère non spécifique de la matière tuberculeuse ou du bacille de la tuberculose en tant qu’agent infectieux ? Si le bois, le verre, etc., produisent exactement les mêmes résultats que le soi-disant parasite des tubercules, lorsqu’ils sont utilisés de la même manière, les médecins feraient mieux de consacrer leur temps à d’autres choses que de le gaspiller à essayer de prouver que la tuberculose est une maladie contagieuse spécifique. »

Ironiquement, Koch lui-même a confirmé la nature non contagieuse de la tuberculose, déclarant en 1884 que des tentatives « ont été faites à plusieurs reprises pour prouver la nature contagieuse de la phtisie, mais elles doivent être considérées comme des échecs, car de telles opinions n’ont jamais été acceptées par les scientifiques ». Il admet que « dans l’ensemble, les médecins considèrent la phtisie comme une maladie non contagieuse, résultant d’anomalies constitutionnelles ».

Dans son article de 1884 intitulé The Bacillus Tuberculosis and the Etiology of Tuberculosis-Is Consumption Contagious (Le bacille de la tuberculose et l’étiologie de la tuberculose — la tuberculose pulmonaire est-elle contagieuse ?), le professeur Formad énumère les nombreux chercheurs qui ont obtenu les mêmes résultats en produisant la tuberculose avec d’autres substances que la bactérie de la tuberculose :

Les observateurs suivants font tous référence à des expériences plus ou moins nombreuses, dans lesquelles la tuberculose a résulté de l’inoculation de substances inoffensives ou de matières spécifiques autres que tuberculeuses :

Comme le montrent clairement les déclarations du Dr Gregg et du professeur Formad, les travaux de Koch sur la bactérie de la tuberculose étaient essentiellement un écran de fumée destiné à étayer la « théorie » des germes. Peu importe que Koch ait utilisé une culture pure de son bacille de la tuberculose ou des débris de verre, de métal, de sable, etc. puisque c’est le fait même d’injecter des substances étrangères de la bonne manière dans les animaux qui a provoqué la maladie. S’il avait concentré ses travaux sur la sciure de bois, Koch aurait pu démontrer de manière convaincante qu’elle était à l’origine de la tuberculose grâce à ses injections expérimentales. Comme ses expériences ne reflétaient pas la voie naturelle d’« infection » qu’il supposait, Robert Koch a été induit en erreur par les résultats pseudo-scientifiques qu’il a obtenus grâce à ses méthodes non naturelles qui ont créé des maladies artificielles chez les animaux.

Comme Koch n’a pas tenté d’étayer son hypothèse par des preuves scientifiques valables reflétant un phénomène naturel observé, on peut dire que son hypothèse, au mieux, n’a pas été prouvée. Toutefois, lorsque nous examinons si les preuves qu’il a apportées concernant la tuberculose satisfont aux postulats mêmes qu’il a établis, nous pouvons fermer la porte à l’hypothèse selon laquelle le bacille de la tuberculose est la cause de la maladie, car elle n’a pas satisfait aux critères de Koch dès le départ. Le bacille a été trouvé chez des hôtes sains (même par Koch lui-même), absent chez des hôtes malades et trouvé dans des cas d’autres maladies, échouant ainsi au tout premier postulat. Nous savons aujourd’hui que la bactérie est présente chez environ un quart de la population mondiale et que le « risque » de tomber malade au cours de la vie n’est que de 5 à 10 %. La bactérie se trouve donc le plus souvent chez des personnes en bonne santé. Bien que Koch ait réussi à obtenir une culture pure, les résultats obtenus par l’injection non naturelle du bacille dans des animaux, recréant la maladie et montrant qu’il en était la cause principale, ont été réfutés à plusieurs reprises par de nombreux autres chercheurs qui ont obtenu les mêmes résultats sans utiliser le bacille. Ces résultats réduisent à néant les preuves utilisées par Koch pour étayer les troisième et quatrième postulats. En fin de compte, le travail « monumental » de Koch sur la tuberculose, qui lui a valu le prix Nobel, n’était pas si monumental que cela et, comme il l’a admis dans les commentaires de la réimpression de son article de 1882, son travail sur les cobayes n’a pas prouvé de manière concluante que la bactérie était à l’origine de la maladie chez l’Homme.

« Koch a également eu la chance que la souche du bacille tuberculeux pathogène pour l’Homme puisse être transférée aussi facilement à des cobayes. Sans un animal de laboratoire présentant des symptômes caractéristiques lors de l’inoculation de matériel tuberculeux, son travail aurait été beaucoup plus difficile. Il aurait pu cultiver l’organisme avec succès, mais il aurait été beaucoup plus difficile de prouver que cet organisme était l’agent causal de la tuberculose. Il convient de noter que, dans cet article, il n’apporte pas la preuve définitive que l’organisme qu’il a isolé en culture pure est réellement la cause de la tuberculose humaine. Cette preuve ne pourrait être apportée que par des inoculations chez l’Homme. Comme cela n’est pas possible, nous ne pouvons que déduire que l’organisme isolé est à l’origine de la maladie humaine. Un tel dilemme se pose toujours à l’investigateur des maladies humaines. Il doit apprendre à vivre avec. »

Choléra

« La seule possibilité d’apporter une preuve directe que les bacilles virgules causent le choléra est l’expérimentation animale. Il faut montrer que le choléra peut être généré expérimentalement par des bacilles virgules. »

Robert Koch
Koch, R. (1987f). Conférence sur le choléra [1884]. Dans Essais de Robert Koch. Praeger.

Lorsque Robert Koch s’est mis à la recherche du microbe qu’il pourrait présenter comme la cause des symptômes de la maladie connue sous le nom de choléra, il a déclaré que la seule possibilité de fournir une preuve directe était de procéder à des expériences sur des animaux qui recréaient la maladie. John Snow avait déjà émis l’hypothèse que l’eau contaminée par les eaux usées et les matières en décomposition était à l’origine des épidémies de choléra. Il serait donc logique de conclure que la consommation d’eau contenant des cultures pures de l’agent supposé responsable serait, au minimum, le moyen de prouver qu’il est la cause de la maladie à laquelle il est associé. Il est intéressant de noter que, dans le cas du choléra, Koch a presque réussi à faire quelque chose de similaire dans ses expériences sur les animaux. Il a en effet tenté d’« infecter » divers animaux en leur donnant des substances cholériques pures et impures. Il a également eu recours à des injections sous-cutanées et intraveineuses, ainsi qu’à des injections dans le duodénum de selles à l’eau de riz et de cultures pures de bacilles virgules. Il a détaillé un grand nombre des méthodes qu’il a utilisées pour tenter de rendre les animaux malades dans son article Erste Konferenz zur Erörterung der Cholerafrage am 26. Juli 1884 in Berlin (Première conférence pour discuter de la question du choléra, le 26 juillet 1884 à Berlin).

Dans cet article, Koch a noté que la seule façon de fournir des preuves directes de l’effet cholérique du bacille virgule était de procéder à des expériences sur les animaux, ce qui, selon lui, « si l’on suit les informations données par les auteurs, est simple et devrait également pouvoir être réalisé sans difficulté ». Cependant, les preuves qu’il a apportées ont en fait montré qu’il y avait pas mal de difficultés. Pour commencer, M. Koch a admis qu’il n’existait « aucun exemple fiable d’animaux contractant spontanément le choléra en période de choléra ». Par conséquent, la recherche d’un animal de laboratoire capable de contracter la maladie relevait essentiellement de la conjecture. Koch a donc décidé de commencer à tenter de recréer expérimentalement la maladie à l’aide de 50 souris, en essayant de les « infecter » de toutes les manières possibles. Il a nourri les souris avec les excréments de victimes du choléra ainsi qu’avec le contenu des intestins de cadavres. Il leur a donné aussi bien des matières « fraîches » que des matières en décomposition. Cependant, malgré les tentatives répétées de rendre les souris malades en leur donnant le contenu des victimes du choléra, elles sont restées en bonne santé. Koch a essayé d’« infecter » des singes, des chats, des poulets, des chiens et divers autres animaux, sans succès, même en leur donnant des cultures pures du bacille virgule.

« J’ai emmené 50 souris de Berlin et j’ai effectué toutes les expériences possibles sur les infections. Tout d’abord, elles ont été nourries avec les matières fécales de patients atteints de choléra et le contenu intestinal de cadavres de cholériques. Nous avons respecté au plus près les procédures expérimentales et les avons nourris non seulement avec du matériel frais, mais aussi après la décomposition des fluides. Bien que les expériences aient été répétées à plusieurs reprises avec du matériel provenant de nouveaux cas de choléra, nos souris sont restées en bonne santé. Des expériences ont ensuite été menées sur des singes, des chats, des poulets, des chiens et divers autres animaux que nous pouvions nous procurer, mais nous n’avons jamais réussi à obtenir quelque chose de semblable au processus du choléra chez les animaux. Nous avons également réalisé des expériences avec des cultures de bacilles virgules. Nous les avons également nourris à tous les stades de développement possibles. »

Les expériences d’alimentation n’ayant rien donné de semblable au processus du choléra chez les animaux, Koch a décidé d’essayer des méthodes plus invasives qui consistaient à ouvrir l’abdomen des animaux et à injecter les liquides directement dans les intestins grêles. Il a même essayé d’utiliser un long cathéter pour injecter des cultures pures à des singes aussi haut que possible dans l’intestin. Cependant, même en utilisant ces voies d’exposition invasives et non naturelles, aucun des animaux n’est tombé malade.

« Il a fallu en conclure que l’échec des expériences d’alimentation pouvait être dû à ce comportement des bacilles virgules. C’est pourquoi l’expérience a été modifiée de manière à ce que les substances soient administrées directement dans l’intestin des animaux. L’abdomen a été ouvert et le liquide injecté directement dans l’intestin grêle à l’aide d’une seringue Pravaz. Les animaux ont très bien supporté cette procédure, mais ils ne sont pas tombés malades. »

« Nous avons également essayé d’injecter le choléra aux singes le plus haut possible dans l’intestin à l’aide d’un long cathéter. Cela a également très bien fonctionné, mais les animaux sont restés en bonne santé. »

Une seule expérience avait donné à Koch l’espoir de produire la maladie chez les animaux, et elle consistait à injecter le bacille virgule directement dans la circulation sanguine des lapins et dans la cavité abdominale des souris. Les lapins sont tombés malades, mais ils ont fini par guérir. Les souris sont mortes dans les 24 à 48 heures. Cependant, pour obtenir cet effet « pathogène », Koch a admis qu’ils avaient dû utiliser des quantités assez importantes, ce qui ne correspondait pas aux observations faites lors d’expériences antérieures sur d’autres maladies, où les quantités les plus faibles étaient appliquées pour obtenir un effet. Voulant savoir si l’effet qu’il produisait était observé dans la nature, les indigènes ont assuré à Koch qu’il n’avait jamais été observé dans les populations animales résidant dans les régions où la maladie se déclarait chez l’Homme. Ainsi, malgré sa capacité à créer une maladie artificielle chez les lapins et les souris dans ce cas particulier, Koch a finalement conclu qu’un véritable processus de choléra ne pouvait pas être induit artificiellement chez les animaux et que cette preuve devait être écartée.

« La seule expérience dans laquelle les bacilles virgules ont eu un effet pathogène, et qui m’a donc donné au départ l’espoir d’un résultat, a consisté à injecter des cultures pures directement dans le sang de lapins ou dans la cavité abdominale de souris. »

« Les lapins sont apparus très malades après l’injection, mais se sont rétablis après quelques jours. Les souris, en revanche, sont mortes 24 à 48 heures après l’injection et les bacilles virgules ont pu être détectés dans leur sang. Cependant, il faut administrer aux animaux des quantités assez importantes ; ce n’est pas comme dans d’autres expériences d’infection, où l’on applique les plus petites quantités et où l’on obtient tout de même un effet. Afin d’obtenir la certitude qu’il est possible d’infecter des animaux avec le choléra, je me suis renseigné partout en Inde pour savoir si des maladies similaires avaient déjà été observées chez les animaux. Au Bengale, on m’a assuré que rien de tel ne s’était jamais produit. Dans cette province, la population est extrêmement dense et de nombreux animaux cohabitent avec les habitants. On pourrait s’attendre à ce que dans ce pays, où le choléra est partout et constamment présent, les animaux transportent assez souvent l’agent infectieux du choléra sous une forme aussi efficace que celle de l’Homme dans leur tube digestif, mais on n’a jamais observé que les animaux avaient des accidents semblables à ceux du choléra. Je pense donc également que tous les animaux dont nous disposons pour de telles expériences, ainsi que ceux qui sont habituellement en contact avec l’Homme, sont tous immunisés contre le choléra et qu’il est impossible d’induire artificiellement chez eux un véritable processus cholérique. Nous devons donc nous passer de cette preuve. »

Avec son incapacité à reproduire le choléra chez les animaux, ce qui, selon Koch dans une dépêche du 2 février 1884, aurait été souhaitable mais s’est avéré impossible, il a abandonné le critère essentiel qu’il considérait quatre mois auparavant comme le seul moyen de prouver directement que le bacille virgule était la véritable cause du choléra.

« Dans sa cinquième dépêche du 7 janvier 1884, Koch annonce qu’il a réussi à isoler le bacille en culture pure. Les résultats de l’autopsie étaient les mêmes qu’en Égypte, et s’il était possible de confirmer que le bacille se trouvait exclusivement chez les patients atteints de choléra, il ne serait guère possible de douter de sa relation de cause à effet avec la maladie, même s’il n’était pas possible de reproduire une maladie similaire chez les animaux. Koch renonce ici à l’un des éléments de preuve qu’il avait lui-même stipulés près de quatre mois plus tôt dans sa première dépêche. »

Par conséquent, la seule façon pour Koch d’affirmer que le bacille de la virgule était la cause du choléra était de trouver le bacille chez les patients atteints de choléra. En d’autres termes, Koch s’est appuyé sur une corrélation équivalente à une causalité, ce qu’il avait déjà souligné par le passé comme n’étant pas suffisant pour conclure à une causalité, car il est bien connu qu’une corrélation n’équivaut pas à une causalité. Des découvertes ultérieures ont prouvé qu’il s’agissait d’une corrélation très faible, comme l’a noté Henry Raymond Rogers, M.D., en 1895. Non seulement le bacille virgule a été trouvé régulièrement chez des personnes en bonne santé, mais il a également été trouvé dans des cas d’autres maladies diarrhéiques. Koch lui-même en était conscient, puisqu’il a déclaré en 1893 que « l’absence ou plutôt la non-détection de bactéries cholériques dans un cas suspect de choléra » était due au manque de compétence des enquêteurs et que ce n’était pas parce qu’on avait trouvé des bactéries cholériques dans les dépôts solides de personnes apparemment en bonne santé qu’il ne s’agissait pas de « véritables cas de choléra ». Ainsi, le bacille n’a pas répondu au premier postulat de Koch, puisqu’il a été trouvé dans d’autres maladies et également chez des personnes non malades.

Robert Koch et sa théorie germinale du choléra

Dunkerque, N. Y., juin 1895.

Robert Koch a cherché à expliquer la cause de certaines maladies en partant de l’hypothèse de l’action de germes pathogènes, invisibles à l’œil humain. Lors de l’examen microscopique des selles des malades atteints de choléra, il a trouvé différentes formes et sortes de germes, dont un en forme de virgule, qu’il a cru être la cause de cette maladie. Grâce au processus de « culture » et d’« expérimentation » sur les animaux inférieurs, il affirme avoir démontré que ce germe est la cause réelle de la maladie. Il était tellement convaincu que cet objet en forme de virgule nouvellement découvert était la cause du choléra que, pendant plusieurs années, il a continué à affirmer avec la plus grande assurance que la présence de ces bacilles en forme de virgule dans les déjections d’une personne soupçonnée d’être atteinte de cette maladie constituait une preuve positive qu’il s’agissait d’un cas de choléra asiatique pur.

Mais cette théorie du bacille en forme de virgule du choléra s’est avérée un échec. Ces germes invisibles en forme de virgule se révèlent aujourd’hui universels et inoffensifs. On les trouve dans les sécrétions de la bouche et de la gorge des personnes en bonne santé, ainsi que dans les diarrhées courantes de l’été partout dans le monde ; ils pullulent dans les intestins des personnes en bonne santé et on les observe également dans les écoulements fécaux durcis. Le Dr Koch affirme aujourd’hui que ces bacilles sont universellement présents. Il nous dit même que : « L’eau, quelle que soit sa provenance, contient fréquemment, pour ne pas dire invariablement, des organismes en forme de virgule. »

Les docteurs Pettenkofer de Munich et Emmerich de Berlin, médecins de grande renommée et experts de cette maladie, ont bu chacun un centimètre cube de « bouillon de culture » contenant ces bacilles, sans éprouver un seul symptôme caractéristique du choléra, bien que la consommation ait été suivie dans chaque cas de selles liquides grouillantes de ces germes.

Le Dr Koch s’est tenu au courant des faits susmentionnés, ainsi que d’autres tout aussi significatifs, et s’il avait accepté les preuves qui, année après année, lui ont été imposées, sa théorie pernicieuse du germe du choléra, avec ses conséquences les plus désastreuses pour l’humanité, aurait été inconnue à ce jour.

Henry Raymond Rogers, M.D.
https://jamanetwork.com/journals/jama/article-abstract/453342

Koch ne pouvait pas prouver son hypothèse par l’expérimentation et il l’avait en fait réfutée à plusieurs reprises en étant incapable de reproduire la maladie par des voies d’exposition naturelles. Lors de la « Conférence pour la discussion de la question du choléra » qui s’est tenue en juillet 1884 à Berlin et au cours de laquelle Koch a présenté ses preuves, Rudolf Virchow, considéré comme le père de la pathologie moderne, a conseillé la prudence en soulignant l’absence de preuves absolues de l’hypothèse de Koch. Or, non seulement les preuves manquaient, mais elles étaient complètement réfutées. Comme le souligne le Dr Rogers, Koch n’a pas été le seul à réfuter son hypothèse. D’autres chercheurs, tels que Max von Pettenkofer, le Dr Rudolph Emmerich, le Dr Emmanuel Edward Klein et Ilya Metchnikoff, ont tous fait des expériences sur eux-mêmes avec des cultures pures de bacilles virgules et ont obtenu des résultats négatifs, réfutant ainsi davantage l’hypothèse. Ferrau et Haffkine ont inoculé à plus d’un demi-million d’Hommes des cultures vivantes du vibrion cholérique sans provoquer un seul cas, ce qui a apparemment conduit à l’adage « on peut manger le choléra, on peut boire le choléra, mais on ne peut pas l’attraper ». Un article sur l’histoire du choléra affirme même que Koch a fait une expérience sur lui-même en buvant une culture pure, avec des résultats négatifs. Je n’ai toutefois pas pu vérifier cette affirmation, et l’auteur a peut-être confondu Koch et Pettenkofer. Quoi qu’il en soit, il est clair que Robert Koch a échoué de manière spectaculaire à prouver son hypothèse, et qu’il n’a pu satisfaire qu’un seul de ses quatre postulats logiques (produire une culture pure) qui sont considérés comme nécessaires pour prouver qu’un microbe est à l’origine d’une maladie. Comme l’a admis le professeur Dr Albert Johne en 1885, « le lien étiologique entre la virgule de Koch et le choléra asiatique reste encore à prouver par une expérience directe ». Il est facile de constater que, de toutes les manières possibles, Koch n’a pas réussi à prouver son hypothèse.

Qu’il s’agisse de l’anthrax, de la tuberculose ou du choléra, Robert Koch a involontairement réfuté toute hypothèse pouvant être établie à partir d’un phénomène naturel observé sur la manière dont ces maladies étaient censées se propager dans la nature. Comme Koch n’était pas en mesure de recréer la maladie par des voies d’exposition naturelles, il s’est contenté de créer une maladie artificielle chez les animaux par le biais de diverses procédures grotesques et invasives qui impliquaient de torturer et d’injecter des substances à des animaux de laboratoire de différentes manières. Bien qu’il n’ait pas réussi à fournir de preuves scientifiques valables à l’appui de son hypothèse, Koch a été salué comme le « grand chasseur de microbes » et récompensé généreusement pour ses efforts. Il a été célébré pour les techniques pionnières qu’il a introduites, permettant la culture et l’identification pures des bactéries, et ses postulats logiques ont été adoptés comme essentiels pour prouver que n’importe quel microbe était la cause d’une maladie particulière.

Malgré la logique pure qu’exigeaient ses postulats pour identifier un agent causal, Koch a fini par les abandonner lorsqu’il est apparu clairement qu’il était incapable de prouver ses hypothèses en s’en tenant à ses propres critères logiques. Koch devait admettre qu’il s’était trompé et risquait de perdre la célébrité, la fortune et le prestige qui accompagnaient son nouveau statut de chasseur de microbes. Robert Koch a donc tourné le dos à la méthode scientifique et abandonné ses propres règles logiques, jetant les bases nécessaires à l’essor de la pseudoscience avec la création de scénarios irréfutables5 qui ont été utilisés comme moyens de sauvetage pour sauver l’hypothèse réfutée des germes. Les personnes en bonne santé pouvaient être considérées comme malades. Les « agents pathogènes » n’avaient pas besoin d’être obtenus à partir d’une culture pure. Il n’était pas nécessaire de recréer expérimentalement la même maladie. Suivant l’exemple de Koch, des preuves défiant la logique ont pu être présentées comme des « preuves » valables qu’un agent pathogène supposé était la véritable cause d’une maladie donnée, alors que les preuves montraient le contraire. Cela a permis d’élever frauduleusement l’hypothèse réfutée des germes au rang de « théorie », afin qu’elle puisse s’imposer comme le paradigme dominant.

Quoi qu’il en soit, cette enquête en deux parties sur les preuves utilisées pour affirmer que l’hypothèse des germes a été prouvée par Pasteur et Koch devrait montrer clairement que rien n’est plus éloigné de la vérité. L’hypothèse des germes, telle qu’elle a été élaborée sur la base d’un phénomène naturel observé, n’a pas pu être prouvée par des expériences reflétant la voie hypothétique de l’exposition naturelle. Pasteur et Koch ont dû recourir à des méthodes contre nature et grotesques pour tenter de rendre les animaux malades. Ils ont tous deux été incapables de satisfaire aux quatre postulats logiques essentiels attribués à Robert Koch, qui sont censés prouver que tout microbe peut réellement causer une maladie. Ils ont dû contourner et enfreindre les règles afin de faire concorder leurs preuves. Pourtant, dans de nombreux cas, des chercheurs indépendants ont présenté des preuves qui contredisaient complètement ce que les deux hommes avaient avancé. Ainsi, l’hypothèse des germes n’a jamais été prouvée par des preuves issues de la méthode scientifique et conformes à la logique des postulats de Koch. L’hypothèse des germes a été réfutée involontairement par Pasteur et Koch, ainsi que par les divers chercheurs indépendants qui l’ont mise à l’épreuve. Elle n’aurait jamais dû être élevée au rang de théorie scientifique. Au contraire, elle devrait être reléguée dans la corbeille à papier avec toutes les autres hypothèses réfutées.


1 Support matériel de la contagion — NDT.

2 NDT Pour les conditions nécessaires et suffisantes permettant de démontrer un lien de causalité entre deux phénomènes, voir :
https://nouveau-monde.ca/lenterrement-de-la-theorie-virale/#causalite

3 Tuberculose pulmonaire — NDT.

4 Susceptibles de subir des lésions torpides (c.-à-d. non évolutives) de la peau, des ganglions lymphatiques ou des os — NDT.

5 Et donc non scientifiques, puisque toute théorie scientifique doit être par essence réfutable — NDT.




Anthony Fauci avoue qu’il a « inventé » des règles pour les « covidés »

[Source : lelibrepenseur.org]

[Illustration : Le Dr Anthony Fauci, ancien directeur de l’Institut national des allergies et des maladies infectieuses, a déclaré que la règle des six pieds de distance sociale était « apparue comme ça » et qu’il avait « peut-être » examiné des études sur les enfants masqués, mais que « ce n’était pas encore décidé ».]

Anthony Fauci avoue qu’il a « inventé » des règles pour les « covidés », y compris une distance sociale de 2 mètres et le masquage des enfants.

A. Fauci a déclaré qu’il ne savait pas d’où venait la règle des 2 mètres de distance sociale. Il a également déclaré ne pas avoir connaissance d’études recommandant l’utilisation de masques pour les enfants.

Par Aguellid — 6 juin 2024

Ce type anglo-saxon nous démontre à quel point la presse française est dans les choux ; en réalité elle n’existe pas. Personne ne fait d’enquête de terrain, et encore moins lorsqu’il s’agit de contredire la Doxa, la version officielle de n’importe quel sujet important que ce soit la santé, l’économie…

Alors que le responsable en chef américain de la gestion de la crise sanitaire Covid-19, Anthony Fauci, est en train d’être cuisiné au niveau de la chambre des représentants US, alors que des déclarations explosives sont faites quasiment chaque jour, aucun média parisien n’estime utile d’en parler. Ils sont tous rivés sur l’actualité locale, les faits divers, les JO… Pourtant, les révélations sont assez spectaculaires comme vous allez vous en rendre compte.

Le DailyMail nous apprend, dans l’article ci-dessous, qu’Anthony Fauci ne sait absolument pas d’où sort cette règle de distanciation sociale de 2 m et encore moins si le masquage des enfants est utile. Une chose est certaine, lui-même n’y croyait pas beaucoup puisque tout le monde l’a vu dans les tribunes d’un stade de base-ball entre 2 amis sans respecter la distanciation tout en ayant retiré son masque. Pendant ce temps, l’Amérique entière était confinée, terrorisée par le [supposé1] virus. Cette seule image est la démonstration du complot, de l’arnaque.

Ensuite, nous apprenons que cette même crapule restée à la tête du NIH près d’un demi-siècle, ce qui est en soi une anomalie, avoue que le virus peut très probablement venir du laboratoire P4 de Wuhan2 ! Pourtant c’est ce qu’il avait combattu dès le début en publiant un article dans Nature affirmant l’inverse et accusant toute personne osant le dire d’infâme « complotiste » !

Le témoignage retentissant du Dr Anthony Fauci révèle qu’il a inventé la règle de l’éloignement social d’un mètre cinquante et d’autres mesures visant à « protéger » les Américains contre le virus du SIDA.

Les républicains ont publié la transcription intégrale de l’entretien qu’ils ont eu avec M. Fauci en janvier, quelques jours seulement avant sa déposition publique très attendue de lundi.

Ils ont l’intention de l’interroger sur les restrictions qu’il a mises en place pour lutter contre le virus, dont il a admis qu’elles n’avaient pas beaucoup contribué à « ralentir la propagation » du virus.

La perte d’apprentissage et les difficultés sociales des enfants ont été bien documentées. Une étude du National Institute of Health (NIH) a qualifié de « très négatif » l’impact de l’utilisation de masques sur l’alphabétisation et l’apprentissage des élèves.

Selon une autre étude du NIH, les effets de la distanciation sociale entraînent « dépression, anxiété généralisée, stress aigu et pensées intrusives ».

S’adressant aux avocats au nom de la sous-commission de la Chambre des représentants sur la pandémie de coronavirus au début de l’année, M. Fauci a déclaré aux républicains que la règle de la distance sociale de six pieds était « apparue comme ça » et qu’il ne se souvenait pas de la manière dont elle avait été élaborée.

« Vous savez, je ne m’en souviens pas. Elle est en quelque sorte apparue comme ça », a-t-il déclaré selon les transcriptions de la commission lorsqu’on lui a demandé comment cette règle avait vu le jour.

Il a ajouté qu’il « n’était pas au courant des études » qui soutenaient la distanciation sociale, concédant que de telles études « seraient très difficiles » à réaliser.

Outre le fait qu’il ne se souvient d’aucune preuve à l’appui de la distanciation sociale, M. Fauci a également déclaré à l’avocat de la commission qu’il ne se souvenait pas d’avoir lu quoi que ce soit prouvant que le fait de masquer les enfants permettrait de prévenir l’infection à COVID.

Il lui a été demandé : « Vous souvenez-vous d’avoir passé en revue des études ou des données en faveur du masquage des enfants ? »

« Je l’ai peut-être fait », a-t-il répondu avant d’ajouter « mais je ne me souviens pas de l’avoir fait ».

Le patriarche de la pandémie a également déclaré qu’il n’avait suivi aucune étude a posteriori concernant l’impact du port forcé de masques sur les enfants, comme il y en a eu de nombreuses.

Et sa réponse a pris la forme d’un jeu de mots ironique à la COVID : « Je pense toujours que la question n’est pas tranchée », a déclaré M. Fauci à propos de la question de savoir si le fait de masquer les enfants était un moyen efficace de prévenir la transmission du virus.

En outre, l’ancien directeur de l’Institut national des allergies et des maladies infectieuses (NIAID) a déclaré à l’avocat qu’il pensait que la théorie de la fuite du laboratoire — l’idée que le COVID a commencé à l’Institut de virologie de Wuhan (WIV) — était une véritable « possibilité ».

« Je pense que les gens en ont tiré des aspects conspirationnistes », a-t-il déclaré, ajoutant qu’« il pourrait s’agir d’une fuite de laboratoire ».

« Je pense donc que cela n’est pas en soi une théorie du complot, mais certaines personnes en tirent des conclusions un peu folles ».

Son aveu que le COVID pourrait avoir débuté à la WIV intervient quatre ans après qu’il a soutenu la publication d’un article qui a jeté un froid sur la théorie de la fuite de laboratoire, l’article « Origine proximale »

La commission sur le coronavirus a consacré des mois à la découverte des origines du virus qui a bouleversé tant de vies et entraîné la mort de 6 millions de personnes dans le monde.

Récemment, elle a découvert que l’ancien principal collaborateur de Fauci, le Dr David Morens, travaillait régulièrement sur son compte de messagerie électronique personnel et supprimait des fichiers pour éviter les lois sur la transparence du gouvernement en vertu de la loi sur la liberté de l’information (FOIA).

Son mépris pour les demandes de FOIA était si flagrant qu’il s’est vanté dans des courriels adressés à ses collègues d’avoir appris à faire « disparaître » la correspondance officielle et de supprimer des éléments qu’il ne voulait pas « voir dans le New York Times ».

Les courriels de Morens découverts par la commission révèlent en outre qu’il s’est vanté de disposer d’un « canal secret » vers Fauci lui permettant de communiquer clandestinement avec l’ancien directeur du NIAID.

Cette révélation a tellement choqué le président de la commission, Brad Wenstrup, R-Ohio, qu’il a exigé de Fauci qu’il remette à l’organisme d’enquête ses courriers électroniques et ses relevés téléphoniques personnels.

Il est également choquant que M. Fauci ait admis devant la commission en janvier qu’il ne regardait « jamais » les subventions qu’il avait approuvées, dont certaines se chiffrent en millions de dollars du contribuable.

« Vous savez, techniquement, je signe chaque conseil, mais je ne vois pas les subventions et ce qu’elles sont. Je ne regarde jamais quelles sont ces subventions », a-t-il déclaré à l’avocat de la commission.

En outre, il a déclaré qu’il n’était « pas certain » que les laboratoires étrangers qui reçoivent des subventions américaines, comme le WIV — qui étudiait les coronavirus avec l’argent du contribuable américain au moment où la pandémie a commencé — fonctionnent selon les mêmes normes que les laboratoires américains.

M. Fauci a également déclaré que l’argent qu’il a distribué dans le cadre du processus d’octroi de subventions du NIAID n’a fait l’objet d’aucun examen au titre de la sécurité nationale.

En outre, l’ancien directeur a déclaré qu’il n’était au courant d’aucun conflit d’intérêts au sein de son personnel, qui comprenait son conseiller principal, le Dr Morens.

Cependant, M. Morens a déclaré devant la commission le 22 mai qu’il avait aidé son « meilleur ami », le Dr Peter Daszak, président de l’Alliance EcoHealth, dans le cadre des activités de son organisation à but non lucratif.

M. Morens a déclaré qu’il avait participé à la rédaction des communiqués de presse d’EcoHealth et qu’il s’était efforcé de rétablir les subventions accordées à l’association après l’arrêt de son financement à la suite de l’épidémie de fièvre catarrhale ovine en 2020.

Les NIH, qui emploient M. Morens, ont financé EcoHealth de M. Daszak à hauteur de plusieurs millions de dollars.

Pourtant, M. Fauci a déclaré qu’il n’était pas au courant des conflits d’intérêts de M. Morens.

La commission cherchera certainement à clarifier le « canal secret » de communication entre Fauci et Morens lors de l’audition du 3 juin.

JON MICHAEL RAASCH, POLITICAL REPORTER IN WASHINGTON, D.C., FOR DAILYMAIL.COM
Titre de l’article original en anglais : REVEALED: Dr. Anthony Fauci confesses he “made up” covid rules including 6 feet social distancing and masking kids
Traduction : lelibrepenseur.org avec DeepL Translator





« Le monde est divisé en deux : d’un côté les Anglo-saxons et de l’autre les êtres humains ! »

[Illustration : Massacre de Sand Creek, 1864. Deagostini/Getty Images.]

Par Claude Janvier

Ainsi s’exprimait mon ami Adnan Azzam, écrivain syrien, à Damas l’année dernière, alors que nous cheminions ensemble dans l’entrelacs des ruelles de la vieille ville, jouxtant la magnifique mosquée des Omeyyades. Nous évoquions la situation catastrophique que subit le peuple syrien depuis, hélas, plus de 12 ans.

Nous faisions le point sur le génocide orchestré sur le monde entier par les Anglo-saxons depuis la création de leur empire à l’idéologie mortifère, ayant pour seul but, le pillage de toutes les richesses de la planète au détriment des peuples. Au sommet, la famille royale britannique, la City de Londres, Wall Street, le complexe militaro-industriel des États-Unis et de leurs alliés, la haute finance internationale et les services secrets tels que la CIA, le MI 6, etc.

L’épouvantable curriculum vitae des Anglo-saxons prouve la folie meurtrière de leurs dirigeants depuis bien trop longtemps.

Voici une liste non exhaustive de leurs génocides :

  • 1492 à nos jours. Le génocide des Amérindiens est estimé entre 80 et 100 millions de victimes. Certes, ce massacre n’est pas imputable qu’aux Anglo-saxons, mais ils y ont largement participé. La création des États-Unis s’est faite dans un bain de sang.1 2

  • 1747-1947. Le colonialisme britannique a causé au moins 100 millions de morts en Inde en une quarantaine d’années, selon une étude universitaire. Et pendant près de 200 ans de colonialisme, l’Empire britannique a volé au moins 45 000 milliards de dollars de richesses à l’Inde.3 4

  • 1839-1842. Les guerres de l’opium. L’introduction forcée de l’opium dans l’Empire chinois par les Anglais, outre la corruption, le banditisme et la prostitution, a tué entre 120 et 150 millions de personnes. Sans compter les ravages de l’opium ensuite à travers le monde occidental.5 6

  • 1840-1891. Nouvelle-Zélande. 40 % de la population maorie fut tuée. Entre ces années-là, la population maorie passera de 80 000 à 42 000 personnes. La population néo-zélandaise comprend aujourd’hui quatre-vingt-dix pour cent d’habitants d’origine européenne, anglo-saxonne pour environ dix pour cent de Maoris. Le pourcentage de Maoris décroît sans cesse, en partie du fait du manque de moyens, d’une santé déficiente, de la misère et du chômage des populations.
  • 1945. Japon. Deux bombes atomiques inutiles. Les livres d’histoires ne vous l’enseignent pas. En effet, au moment où le président Truman prévoit d’utiliser la bombe atomique contre le Japon, celui-ci pense à arrêter le combat. En effet, l’armée américaine réussit à déchiffrer le 31 juillet un télégramme codé du ministère des Affaires étrangères japonais du 26 juillet qui assurait que « Tokyo étudie l’ultimatum allié », à savoir que le Japon était prêt à déposer les armes. Mais les Américains avaient décidé de déclencher le feu nucléaire. Résultats : les estimations d’après-guerre sur les pertes japonaises vont de 66 000 à 80 000 morts et de 69 000 à 151 000 blessés. Des dizaines de milliers d’autres moururent des suites des radiations et de leurs blessures. On estime que 140 000 personnes sont mortes du fait de la bombe atomique à la fin de l’année 1945. Les estimations les plus élevées avancent le nombre de 230 000 morts. Sur les survivants, 171 000 devinrent des sans-abri.7

  • 1945-1975. Guerres auVietnam. Du côté américain, on dénombre près de 60 000 morts et 350 000 blessés et mutilés. Du côté sud-vietnamien, près de 700 000 morts, dont 430 000 civils, ajoutés aux 1,8 million de blessés et mutilés. Du côté nord-vietnamien, près de 1 million de soldats sont tués, avec plus de 900 000 blessés et mutilés. Entre Indochine et Vietnam inclus, ce sont près de 4 millions de civils qui ont perdu la vie, sans compter les guérillas qui ont suivi.8

  • 1950-1953. Guerre de Corée. Ce conflit sera très meurtrier. Entre deux à trois millions de victimes avec la menace d’un bombardement nucléaire.9

  • 11 septembre 2001. Depuis cette date, les guerres continuelles « made in US » ont tué 4,5 millions de personnes civiles. Toujours pour la « bonne cause ». De l’Afghanistan en passant par l’Irak, la Libye, la Somalie, la Syrie et des parties du Pakistan touchées par les retombées de la guerre en Afghanistan, la boucherie s’est accélérée. De plus, les décès de soldats et d’entrepreneurs américains, notamment les décès ultérieurs dus à des cancers, des suicides et d’autres conséquences des guerres, ne sont pas pris en compte.10

  • 5 mai 2022. Ukraine. D’après « Ukrainska Pravda » :
    « La possibilité de pourparlers entre Zelensky et Poutine s’est arrêtée après la visite de Johnson, selon des sources de l’UP » — jeudi 5 mai 2022, 13 h 32 « (…) La position de Johnson était que l’Occident collectif, qui avait suggéré en février à Zelensky de se rendre et de fuir, estimait désormais que Poutine n’était pas vraiment aussi puissant qu’il l’avait imaginé auparavant, et qu’il y avait là une opportunité de “faire pression sur lui (…)”. »

En additionnant, et en laissant de la marge, le total des victimes se situe entre 350 et 400 millions de personnes. Vertigineuse boucherie !

L’impérialisme anglo-américain est la force la plus violente et la plus sanglante de la planète, et le danger est que, si la guerre par procuration contre la Russie devient un conflit plus généralisé, impliquant des armes nucléaires, le nombre de morts risquerait de dépasser ce bilan horrible.

Le complexe politico-médiatique des pays de l’UE est devenu un grand spécialiste de l’indignation à géométrie variable. Les débats n’existent plus. Seuls les militants de la guerre et de la propagande s’expriment. C’est fade, agressif, inconsistant, sans raisonnement et trop souvent, d’une indigence intellectuelle rare. Mais cela tourne en boucle dans les médias à la manière d’un rouleau compresseur perpétuel. C’est de cette façon qu’ils ont réussi à nous propulser à la tête de l’État, et pour notre plus grand malheur, le fossoyeur de la République et le chef de guerre de l’Europe : Emmanuel Macron.

À vous de décider si vous devez continuer à soutenir l’insoutenable. À vous de décider si vous souhaitez que notre société s’élève ou s’abîme dans les tréfonds de l’enfer. Le temps presse.

Claude Janvier. Écrivain, essayiste. Co-auteur et auteur de quelques ouvrages, dont la sortie récente, co-écrit avec François Lagarde de : « L’État Profond Français. Qui, comment, pourquoi ? » KA Éditions
https://kaeditions.com/product/letat-profond-francais-qui-comment-pourquoi/

Notes :




Laura Aboli expose l’agenda mondialiste vers le transhumanisme


À propos de Laura Aboli

La carrière entrepreneuriale de Laura Aboli a débuté en 2000 lorsqu’elle a cofondé World-Check, une base de données de personnes politiquement exposées (PPE) et d’individus et d’organisations à haut risque, qui est rapidement devenue la norme de facto pour l’identification et la gestion des risques financiers, réglementaires et de réputation au sein des institutions financières et juridiques du monde entier. Suite au succès de World-Check, elle a cofondé Wealth-X en 2010, qui est devenu le principal fournisseur de renseignements sur les personnes très fortunées.

Après s’être retirée de ces deux entreprises en 2014, elle a poursuivi sa passion de toujours pour la décoration d’intérieur en créant une société de promotion immobilière et de design qu’elle continue de diriger. Née dans une famille d’artistes, Laura est passionnée par l’art, la sculpture, la musique et la danse. Son esprit critique et curieux l’a amenée à s’intéresser aux domaines de la métaphysique, de la spiritualité, de la santé et de la psychologie. Son expérience et sa volonté d’aider les autres l’ont amenée à se lancer dans l’arène publique afin de partager ce qu’elle considère comme des leçons de vie importantes dans son propre parcours. En mai 2020, poussée par la façon dont les événements entourant la pandémie mondiale affectaient les moyens de subsistance, les droits civils et la santé mentale des gens, Laura a fondé le Mouvement international démocratique uni pour la sensibilisation et la liberté (UDIMAF), une organisation dédiée à la création d’un monde meilleur par la sensibilisation, l’inspiration et la poursuite incessante de la vérité.




Un lobby trans pro-migrants et pro-bloqueurs de puberté financé par la Commission européenne

[Source : fdesouche.com]

Par Pierre Chamatin

ENQUÊTE. Alors que le Sénat français vient de voter une loi restrictive au sujet des transitions sexuelles de mineurs, une ONG revendique l’inverse auprès de l’UE.

Depuis 2014, la Commission européenne a alloué près de 4 millions d’euros de fonds européens à l’ONG Transgender Europe EV (TGEU) – 596 864 euros de subventions de fonctionnement en 2024.

(…)

Rien d’étonnant, puisque TGEU revendique une approche intersectionnelle et décoloniale. En 2022, elle mettait par exemple en scène une femme trans portant un voile islamique lors de la Journée internationale des réfugiés. Sa vice-présidente, la Franco-Néerlandaise Dinah Bons, se décrit d’ailleurs comme une « fière femme trans de couleur ». Elle a été la vice-présidente d’une confédération européenne de syndicats de travailleurs du sexe (ESWA), membre du parti travailliste néerlandais et cadre du parti d’extrême gauche BIJ1.

Dans une interview au quotidien néerlandais Het Parool, elle explique avoir porté le niqab durant les premières années de sa transition à chaque fois qu’elle se rendait dans la famille de son petit ami marocain, jusqu’à ce qu’il la quitte une fois sa transition terminée.

(…)

Grâce à l’argent des contribuables européens, TGEU multiplie les campagnes de communication et publie chaque année une « carte des droits trans » où le lobby distribue les bons et mauvais points aux pays européens. (…) Les « réfugiés trans » sont autorisés à changer de sexe à l’état civil ou sont prioritaires pour bénéficier du droit d’asile ? Un point également… 

(…)

En 2022, TGEU a également dressé une « carte de santé trans » (…) Si les bloqueurs de puberté sont autorisés dès le début de la puberté, soit entre 9 et 14 ans, les lobbyistes donnent deux points. Deux autres points sont également accordés lorsque les traitements hormonaux sont autorisés dès l’âge de 15 ans. Selon TGEU, « restreindre l’accès aux bloqueurs […] peut avoir de graves conséquences sur la santé mentale des jeunes transgenres contraints de subir la puberté ». 

(…)

Lire l’intégralité de l’article sur le JDD




« Il y a quelqu’un dans ma tête, mais ce n’est pas moi »

[Source : fr.sott.net]

Par François Héliodore — 15 juil. 2012

Piotr Ouspenski disait en 1947 qu’un fait d’une importance prodigieuse avait échappé à la psychologie occidentale, à savoir que l’homme ne se rappelait pas lui-même, qu’il vivait, agissait et raisonnait dans un profond sommeil, dans un sommeil non pas métaphorique, mais absolument réel. Depuis les développements récents en neurosciences et en sciences cognitives, la psychologie occidentale vient de rattraper son retard, et le tableau qu’elle dresse s’accorde parfaitement avec l’ésotérisme chrétien ravivé par Gurdjieff et Mouravieff. L’homme est effectivement une machine gouvernée par les influences extérieures.

Pour le psychologue Daniel Kahneman, notre mode de réflexion est composé de deux systèmes. Le premier, la pensée rapide (le Thinking fast) ou système 1 (l’inconscient adaptatif de Timothy Wilson), est inconscient, intuitif, ne demande pas trop d’effort, est incontrôlable et non-intentionnel. Ce système n’est pas sujet au doute. Il simplifie les événements, supprime les ambiguïtés, saute sur les conclusions et utilise un système d’association d’idées pour produire un rapide croquis d’une situation donnée, ainsi que pour construire une histoire la plus cohérente possible. Le système 1 reconnaît instantanément des modèles de situation et permet « de produire des solutions adéquates » :

« La recherche sur l’inconscient adaptatif suggère que la plupart de ce que nous voulons voir est invisible. L’esprit est un outil merveilleusement sophistiqué et efficace, bien plus que le plus puissant des ordinateurs jamais construit. Une source importante de cette énorme puissance est sa capacité à accomplir des analyses non-conscientes rapides à partir d’une grande quantité d’informations entrantes et de réagir à ces informations de manières efficaces. Même quand notre esprit conscient est occupé à autre chose, nous pouvons interpréter, évaluer et sélectionner des informations qui servent nos objectifs. »

Timothy D. Wilson, Strangers to Ourselves: Discovering the Adaptive Unconscious

Cet étranger à l’intérieur de nous-même, pour reprendre le titre de l’ouvrage de Wilson, contrôle la majorité de ce que vous faites, bien que vous n’ayez aucune conscience de cela. L’inconscient adaptatif, ou le système 1, fournit les impressions qui bien souvent fondent vos croyances, et est la source de vos impulsions qui deviennent vos choix et vos actions. Il offre une représentation de ce qui se passe autour de vous et à l’intérieur de vous, liant le présent avec le passé récent et avec les attentes du futur. Il est la source de vos jugements rapides et intuitifs.

© Daniel Kahneman

Le système 1 intervient dans les prises de décision, les émotions, la motivation, les buts, le contrôle, la métacognition, le libre arbitre, les intentions, ainsi que pour donner du sens à soi-même et aux autres. Après un tour d’horizon des facultés du nouvel inconscient, la question qui se pose est : que reste-t-il de conscient chez un humain ? Pas grand-chose. Loin de servir seulement à analyser rapidement son environnement et à accomplir les gestes de tous les jours, le nouvel inconscient permet à des personnes d’accomplir des tâches et adopter des comportements complexes, et d’accomplir d’autres processus mentaux supérieurs indépendamment de l’esprit conscient. En d’autres mots, une personne peut vivre une existence entière en auto-pilote. Certains scientifiques estiment que nous sommes conscients d’environ 5 pour cent de nos fonctions cognitives. Les 95 pour cent restants se déroulent en dehors de la conscience et exercent un rôle fondamental dans nos vies. Pour faire une description imagée, la conscience représente une balle de golf posée sur la partie immergée de l’immense iceberg qu’est l’inconscient.

Le système 1 a aussi la fâcheuse tendance à croire tout ce qu’on lui dit. Vous vous demandez encore comment les gens peuvent croire qu’un mec mort depuis 10 ans a pu se faire tuer par des commandos américains au Pakistan avant d’être balancé à la mer, ou qu’un banlieusard qui aimait les filles et les voitures a pu résister pendant une dizaine d’heures à des commandos surarmés dans un appartement de 38 m² avant de passer à travers plus de 300 balles, avec un final tonitruant où il s’est jeté du balcon en tirant avec deux armes automatiques, et où il est mort non des tirs des policiers, mais de sa chute du balcon au rez-de-chaussée (1re version qu’on nous a sortie). Vous vous demandez comment les gens peuvent gober ça ? Demandez au système 1.

Ce nouvel inconscient n’a rien à voir avec celui de Freud rempli de pulsions, d’érotisme, d’hallucinations et qui est irrationnel et primitif. Dans la nouvelle vision de l’inconscient, les processus mentaux sont pensés comme inconscients, car ce sont des portions de l’esprit qui sont inaccessibles à la conscience à cause de l’architecture du cerveau, plutôt qu’en raison de mécanismes tels que le refoulement ou les pulsions. Pour en finir avec Freud, la psychanalyse freudienne fonctionne, c’est certain, mais comme le souligne Michel Onfray, seulement pour Freud. C’est une bonne description du paysage intérieur d’un individu pathologique. Les visées universelles de la psychanalyse ne sont que les projections psychopathiques de son fondateur, qui projette sa propre pathologie sur le reste de l’humanité.

Le deuxième système ou système 2, que Kahneman appelle pensée lente (Thinking slow), l’esprit conscient, utilise davantage la réflexion, le raisonnement, demande beaucoup plus d’efforts et est extrêmement fainéant. Évidemment la plupart des gens s’imaginent utiliser le système 2 bien plus rationnel. Erreur. C’est en réalité le système 1, celui de la pensée rapide, qui régit nos décisions. Il y a beaucoup trop de choses à analyser pour que le système 2 puisse tout prendre en charge. Ce système est bien plus difficile à faire fonctionner.

Pour faire simple, si l’on vous demande de multiplier 2 par 2, c’est le système 1 qui va se charger de vous fournir la réponse en quelques dixièmes de seconde. S’il s’agit de multiplier 17 par 24, vous allez prendre votre temps, et là, c’est le système 2 qui prend le relais.

Inconscient adaptatif ou système 1 Conscience ou système 2
* Systèmes multiples * Système unique
* Détecte les schémas en ligne * Vérifie après les faits
* S’occupe de l’ici-maintenant * Prend de la distance
* Automatique (rapide, non intentionnel, sans effort) * Contrôlé (lent, intentionnel, beaucoup d’efforts)
* Rigide * Flexible
* Précoce * Plus lent à se développer
* Sensible à l’information négative * Sensible à l’information positive

Pour revenir au fait que l’inconscient adaptatif croit tout ce qui lui est présenté, si vous ne faites pas l’effort de penser avec votre système 2 pour séparer le bon grain de l’ivraie, la vérité du mensonge, si vous ne pensez pas avec un marteau — c’est-à-dire aborder l’objet d’étude sous tous les angles possibles en martelant vos préjugés et vos croyances et en étant critique de vos propres processus de pensées — votre système 1 avalera tous les mensonges et la propagande déversés à longueur de journée par les mass medias. Vous croirez tout et n’importe quoi, jusqu’au jour où vous vous mettrez au travail pour découvrir la vérité.

L’idée que nous ne contrôlons pratiquement rien de nos faits et gestes est assez effrayante. En réalité, c’est la définition exacte de la psychose, un sentiment de détachement de la réalité et le fait que vous ne contrôlez rien de vous-même.

Le dénominateur commun qui ressort de ces nouvelles recherches est que l’homme se ment constamment à lui-même et ment constamment à ceux qui l’entourent. En d’autres termes, une personne est souvent totalement ignorante de ses motivations et crée des fictions pour expliquer ses motivations, ses émotions et son histoire. Les histoires que vous vous racontez, votre narration pour expliquer vos agissements, sont aussi « précises et proches de la réalité » qu’un reportage de TF1 sur la guerre contre le terrorisme.

Prenons l’exemple de la mémoire. Quand nous nous remémorons un souvenir, nous pensons que nous regardons une image exacte du passé, comme une photographie, mais en réalité, nous ne voyons qu’une petite partie de cette image, le reste étant comblé par l’inconscient. Le système 1 a la fâcheuse tendance à combler les lacunes. Il prend les données incomplètes véhiculées par les sens, remplit « les trous » et le transmet à l’esprit conscient. Dans de nombreuses expériences réalisées par des psychologues, ceux-ci ont réussi à implanter de faux souvenirs à des personnes. Dans une de ces études, on a demandé à des sujets qui avaient été à Disneyland de lire et de réfléchir au sujet d’une fausse publicité pour un parc d’attractions. Dedans, on demandait aux sujets d’imaginer leur sentiment quand ils avaient vu Bugs Bunny, lui avaient serré la main, et pris une photographie avec lui. Plus tard, quand les chercheurs ont donné aux sujets un questionnaire sur leurs souvenirs personnels concernant leur visite à Disneyland, 62 pour cent d’entre eux se sont souvenus avoir rencontré Bugs Bunny. Seulement, ce n’était pas possible, car Bugs Bunny est une propriété de Warner Bros, non de Disney :

« Dans une autre étude, Loftus (2003) a montré comment de faux souvenirs pouvaient être implantés à partir de la vision. Des étudiants ayant tous effectué un séjour à Disneyland dans leur enfance ont été exposés à une publicité décrivant une visite dans ce parc. Sur la photo présentée, on pouvait voir Bugs Bunny à côté d’un enfant qui lui serrait la main. Les participants ont ensuite été interrogés sur leurs souvenirs d’enfance. 35 pour cent de ces sujets indiquèrent se souvenir de leur rencontre avec Bugs Bunny à Disneyland et de lui avoir serré la main. Quand ces sujets ont été invités à décrire avec précision cette rencontre, 62 % se souvenaient lui avoir secoué la main 46 pour cent de l’avoir embrassé. Quelques personnes se rappelaient lui avoir touché les oreilles ou la queue. Une personne s’était même souvenue qu’il tenait une carotte (quelle mémoire !). Tout cela serait parfait sans l’existence d’un petit détail : Bugs Bunny est la propriété de Warner Bros et n’a donc jamais mis les pattes chez Disney… la publicité était fausse et les souvenirs des participants également. »

Source : Neotrouve

Nous croyons que quand nous choisissions une voiture, une maison, que nous tombons amoureux ou que nous nous faisons de nouveaux amis, nous faisons ces choix consciemment. En réalité, rien n’est plus éloigné de la vérité. Dans la majorité des cas, nous sommes incapables d’expliquer pourquoi, dans une situation donnée, nous avons eu telle ou telle émotion. Pourtant, quand on demande à une personne d’expliquer sa réaction émotionnelle, après quelque temps de réflexion, elle n’aura aucun problème à en expliquer les raisons. Comment cela est-il possible ? Nous faisons simplement du storytelling. Quand nous nous posons à nous-mêmes ou à nos proches des questions du genre « pourquoi as-tu de l’aversion pour untel ? » ou « pourquoi aimes-tu cette maison ? », nous pensons que nous connaissons les réponses. Les recherches suggèrent que non. Nous nous engageons dans une sorte d’introspection pour trouver la vérité sur nos envies et nos aversions. Bien que nous soyons capables d’identifier nos sentiments, nous ne pouvons jamais identifier les origines inconscientes de ceux-ci. Nous créons alors des explications fausses ou partiellement vraies, que nous croyons. Le cerveau fait alors un tour de passe-passe assez surprenant : il cherche dans notre base de données mentale pour en extraire l’explication la plus plausible. Croire que vous comprenez vos motivations et vos désirs, vos « j’aime » et « j’aime pas », est appelé l’illusion de l’introspection. Les psychologues montrent que l’introspection n’est la plupart du temps qu’une fabrication et que vous n’avez aucun accès direct à la compréhension des origines de vos états mentaux. Le philosophe Daniel Dennett propose comme piste possible que lorsque vous vous expliquez vos émotions ou vos comportements, vous le fassiez comme si vous étiez en train d’écouter quelqu’un d’autre parler à votre place.

Autre piste possible : écrire une autobiographie ou se lancer dans la rédaction d’un journal intime peuvent s’avérer être des activités plus efficaces pour apprendre à se connaître soi-même ou à guérir de traumatismes ou d’expériences émotionnelles :

Dans son livre Writing to Heal : A Guided Journal for Recovering from Trauma and Emotional Upheaval, Pennebaker propose aux gens troublés par une situation stressante ou des souvenirs douloureux cet exercice tout simple :

  • Écrivez 20 minutes par jour pendant quatre jours.
  • Relatez un conflit ou une crise grave, quelque chose de personnel et d’important qui vous a touché directement ; vous pouvez traiter du même sujet quatre fois ou en changer d’un jour sur l’autre.
  • Écrivez d’une traite sans vous soucier des fautes de grammaire ou d’orthographe.
  • Écrivez pour vous seulement.
  • Si un sujet vous bouleverse, arrêtez d’écrire.

L’inconscient est passé maître dans l’art d’utiliser des données limitées afin de construire une version de la réalité qui apparaît complète et cohérente à son partenaire, l’esprit conscient. Les perceptions visuelles, la mémoire ainsi que les émotions sont une construction de données incomplètes, mélangées et conflictuelles. Nous utilisons cette même méthode pour construire notre image de nous-mêmes. Le système 1 mélange faits et rêveries, en exagérant nos points forts et en minimisant ou occultant nos faiblesses, créant ainsi une sorte de séries de tableaux de Picasso où certaines parties sont disproportionnées (les parties de nous-mêmes que nous aimons) et où les autres sont réduites à l’invisibilité. Naïvement, l’esprit conscient admirera cet autoportrait en croyant que celui-ci est une représentation exacte de la réalité. Pour reprendre la terminologie de Gurdjieff, l’homme se crée des tampons lui empêchant de voir la différence entre ce qu’il pense être et ce qu’il est réellement. L’homme n’est rien de plus qu’une machine qui pense en boucles programmées et ment à son esprit conscient qui vit alors dans ces mensonges. Autrement dit, nous rêvons et dormons en pensant que nous sommes éveillés, ou, comme le dit Gurdjieff, des magiciens :

« Un conte oriental parle d’un très riche magicien qui avait de nombreux troupeaux de moutons. Ce magicien était très avare. Il ne voulait pas prendre de bergers, et il ne voulait pas non plus mettre de clôture autour des prés où paissaient ses moutons. Les moutons s’égaraient dans la forêt, tombaient dans des ravins, se perdaient, et surtout s’enfuyaient à l’approche du magicien, parce qu’ils savaient que celui-ci en voulait à leur chair et à leurs peaux. Et les moutons n’aimaient pas cela.

À la fin, le magicien trouva le remède. Il hypnotisa ses moutons et leur suggéra tout d’abord qu’ils étaient immortels et que d’être écorchés ne pouvait leur faire aucun mal, que ce traitement était au contraire excellent pour eux et même agréable ; ensuite le magicien leur suggéra qu’il était un bon pasteur, qui aimait beaucoup son troupeau, qu’il était prêt à tous les sacrifices pour lui ; enfin, il leur suggéra que si la moindre chose devait leur arriver, cela ne pouvait en aucun cas leur arriver dès maintenant, dès aujourd’hui, et que par conséquent ils n’avaient pas à se tracasser. Après quoi le magicien mit dans la tête de ses moutons qu’ils n’étaient pas du tout des moutons ; à quelques-uns d’entre eux, il suggéra qu’ils étaient des lions, à d’autres qu’ils étaient des aigles, à d’autres encore qu’ils étaient des hommes ou qu’ils étaient des magiciens.

Cela fait, ses moutons ne lui causèrent plus ni ennuis, ni tracas. Ils ne s’enfuyaient plus jamais, attendant au contraire avec sérénité l’instant où le magicien les tondrait ou les égorgerait. »

P. D. Ouspenski, Fragments d’un enseignement inconnu

Nous sommes constamment sous l’effet du biais d’autocomplaisance, c.-à-d. nous attribuons nos réussites à nos qualités personnelles tout en nous expliquant nos échecs en en rejetant la responsabilité sur les autres/le monde :

« Quand vous comparez vos compétences, vos accomplissements, vos amitiés avec ceux des autres, vous tendez à accentuer le positif et à éliminer le négatif. Vous êtes un menteur par défaut, et c’est à vous-même que vous mentez le plus. Si vous échouez, vous oubliez. Si vous réussissez, vous le dites à tout le monde. »

David McRaney, You are not so smart

Un autre point important à considérer est que, en raison des deux systèmes, nous pouvons penser deux choses complètement différentes sur un même sujet. L’Implicit Association Test est un test qui évalue les préjugés raciaux. On mesure le temps qu’un sujet prend pour associer des visages à des mots positifs ou négatifs. Si, par exemple, quelqu’un associe plus facilement des mots négatifs à des visages issus des minorités plutôt qu’à des Blancs, cela signifie qu’il aura tendance à avoir des préjugés.

Il ressort de ce test que la majorité des sujets blancs interrogés qui affirmaient ne pas avoir de préjugés envers la population noire avaient en fait d’énormes biais inconscients envers celle-ci (le test devant être réalisé le plus vite possible, il fait intervenir le système 1). Cette étude révèle que nous pouvons être deux personnes en même temps : l’une, inconsciente, éprouve des sentiments négatifs envers les minorités à cause du conditionnement culturel forcé qui stéréotype les minorités comme étant négatives ; tandis que l’autre, l’esprit conscient, abhorre les préjugés. Le système 1 peut aimer une personne tandis que le système 2 la haït. Une personne peut se dire spirituelle tout en ayant un inconscient athée, et ainsi de suite.

Jeanne de Salzmann le disait déjà au siècle dernier :

« Vous verrez que vous êtes deux. Un qui n’est pas, mais qui prend la place et joue le rôle de l’autre. Et un qui est, mais si faible, si intangible, que sitôt apparu, il disparaît immédiatement. Il ne peut supporter le mensonge. Le moindre mensonge le fait s’évanouir au loin. Il ne combat pas, il ne résiste pas, il est battu d’avance. Apprenez à regarder jusqu’à voir la différence entre vos deux natures, jusqu’à voir les mensonges, la tromperie en vous. Quand vous verrez vos deux natures, ce jour-là, en vous, la vérité naîtra. »

« L’homme est une machine. Tout ce qu’il fait, toutes ses actions, toutes ses paroles, ses pensées, ses sentiments, ses convictions, ses opinions, ses habitudes sont les résultats des influences extérieures, des impressions extérieures. De par lui-même un homme ne peut pas produire une seule pensée, une seule action. Tout ce qu’il dit, fait, pense, sent — tout cela arrive. L’homme ne peut rien découvrir, il ne peut rien inventer. Tout cela arrive. »

P. D. Ouspenski, Fragments d’un enseignement inconnu

Dans le jargon psychologique moderne, on appelle cela l’effet d’amorçage : les pensées et le comportement d’une personne sont influencés par des stimuli auxquels elle ne prête aucune attention, ou qui lui sont complètement inconscients. Dans une expérience menée par le psychologue John Bargh, on a demandé à des étudiants d’assembler des phrases de quatre mots à partir de séries de cinq mots :

« John Bargh et ses collègues de l’Université Yale ont montré que la démarche d’un individu jeune peut être subtilement modifiée et “vieillie”, à condition de lui faire lire ou écouter des mots évoquant la vieillesse. Dans cette expérience, de jeunes étudiants effectuaient une première tâche consistant à reconstituer des phrases dont les mots étaient placés dans le désordre. Certains participants devaient manipuler des mots évoquant la vieillesse (vieux, seul, dépendant, prudent, grincheux, etc.). Lorsqu’ils avaient terminé, on mesurait la vitesse à laquelle ils quittaient le laboratoire, et on observait avec soin leur démarche. Il est ainsi apparu que les individus ayant manipulé des mots liés au concept de vieillesse ont marché plus lentement et en adoptant une posture plus courbée… Corps et démarche s’ajustent à son état d’esprit. »

Une autre étude montre qu’on peut influencer l’achat de bouteilles de vin allemandes ou françaises exposées dans un supermarché, en faisant simplement passer en fond musical des chansons de ces deux pays. Les jours où la musique française était jouée, plus de 70 % des bouteilles vendues venaient de l’Hexagone. Le même taux fut atteint pour la musique allemande.

Réfléchissez un moment. Si une personne est influencée par des stimuli aussi triviaux et banals qu’un fond musical lors de ses achats ou qu’une série de mots pour dicter sa vitesse de marche, que pouvons-nous attribuer à des choix conscients ? Nos amis, nos choix vestimentaires, nos goûts, nos pensées, nos partenaires romantiques sont-ils des choix conscients de notre part, ou réagissons-nous simplement à des influences extérieures et créons-nous une fiction pour nous expliquer à nous-mêmes ces choix ? Notons que des recherches en neuropsychologie démontrent les parallèles entre l’effet d’amorçage et l’hypnose. Dans les deux cas, la volonté est contrôlée par des forces extérieures.

Ces recherches remettent en cause d’autres concepts bien ancrés dans la psyché humaine, c.-à-d. la croyance que nous avons un libre arbitre. Roy Baumeister, psychologue à l’université de Floride résume la question :

« Au centre de la question du libre arbitre est le débat à propos des causes psychologiques des actions. Une personne est-elle une entité autonome qui choisit consciemment ses actes parmi une multitude d’options possibles ? Ou n’est-elle qu’un lien dans une chaîne causale, de sorte que ses actions ne sont que le produit inévitable de causes légitimes découlant de faits antérieurs, et jamais personne n’aurait pu agir différemment d’elle ? »

De même que nous sommes incapables d’identifier les causes de nos émotions, nous ne connaissons pas les causes qui provoquent nos actions. Daniel Wegner, professeur de psychologie à Harvard, soutient que le libre arbitre est une illusion. Quand nous faisons l’expérience d’une pensée suivie d’une action, nous présumons que la pensée a causé l’action. Cependant, Wegner fait intervenir une troisième variable, une intention inconsciente, qui pourrait produire à la fois la pensée consciente et l’action. Par exemple, voir une personne obèse peut être la cause de pensées sur la nécessité de consommer des aliments bénéfiques pour la santé. Au lieu d’acheter un sandwich, la personne optera pour une entrecôte. De ce fait, ce n’est pas la pensée consciente qui est la cause du comportement, malgré l’illusion qu’elle l’est. Toujours en suivant Wegner, le rôle causal des pensées conscientes a été surestimé : il semblerait que ce serait une explication après coup qui émanerait de l’inconscient. Wegner commente :

« Imaginez pendant une minute que vous êtes un robot. Imaginez que toutes vos actions émanent d’un ensemble complexe de mécanismes. Imaginez aussi que ces mécanismes donnent naissance à des pensées au sujet de ce que nous allons faire dans le futur. En d’autres termes, tous les pièges sont présents pour nous permettre de faire l’expérience d’une causalité mentale apparente. »

Ran R. Hassin, James S. Uleman et John A. Bargh, The New Unconscious

Ce que veut dire Wegner est que ce mécanisme complexe qu’est le système 1 a déjà prévu de faire une action avant que l’esprit conscient ne pense à cette action. Des chercheurs ont découvert, lors d’une expérience où les sujets devaient appuyer sur un bouton, qu’un signal était déclenché dans le cerveau 7 secondes (oui, 7 secondes) avant que les sujets ne prennent conscience de leur choix :

« En 2007, le Pr John-Dylan Haynes a mené une expérience qui a changé sa conception de l’existence. Ce neuroscientifique rattaché au centre Bernstein de neurosciences computationnelles (BCCN) de Berlin a placé des volontaires dans un caisson d’IRM devant un écran où défilaient des lettres au hasard. Il leur a demandé d’appuyer sur un bouton soit avec l’index droit, soit avec le gauche quand ils en ressentaient le besoin et de retenir la lettre affichée au moment où ils ont décidé d’appuyer sur le bouton. L’imagerie par résonance magnétique fonctionnelle révélait leur activité cérébrale en temps réel. Les résultats ont été surprenants. “Notre premier réflexe a été de nous dire : il faut vérifier si cela tient la route, raconte Haynes. Nous avons procédé à plus de tests de validité que je n’en ai vu dans aucune autre étude.”

Les sujets prenaient la décision consciente d’appuyer sur le bouton environ une seconde avant de le faire, mais l’équipe de Haynes a découvert que leur activité cérébrale semblait anticiper cette décision avec sept secondes d’avance. Autrement dit, c’était comme si, bien avant que les sujets soient conscients de faire un choix, leur cerveau avait déjà pris une décision. »

Source

Nos décisions sont prédéterminées inconsciemment bien avant que la conscience n’entre en jeu. Pour reprendre Gurdjieff, le plus gros mensonge que l’homme se dit à lui-même est qu’il se dit doté de libre arbitre. En réalité, la majorité des actions humaines sont mécaniques et influencées par le temps, les besoins, l’humeur — en résumé, par les influences extérieures.

Ce tableau de la machine humaine peint par la psychologie moderne montre la terreur de la situation, comme l’a dénommée Gurdjieff dans ses Récits de Belzébuth : des milliards d’humains qui s’illusionnent eux-mêmes en pensant être conscients, en croyant prendre des décisions, en croyant pouvoir faire des choix.

Sur ce, je vous laisse avec une très jolie chanson de Pink Floyd dont les paroles ont inspiré le titre de cet article :

Bibliographie :




Les éoliennes provoquent des maladies vibroacoustiques

Capsule d’information concernant les infrasons qu’émettent les éoliennes, avec le Dr Mariana Alves-Pereira, professeur associé à l’Université Lusofona à Lisbonne au Portugal. Dr Pereira a un baccalauréat en physique et une maîtrise en génie biomédical ; elle a obtenu son doctorat en sciences environnementales.


Altération de l’endothélium et troubles de la microcirculation chez les humains et les animaux exposés aux infrasons en raison d’une mécanotransduction irrégulière

Journal of Biosciences and Medicines, 2023, 11, 30-56
https://www.scirp.org/journal/jbm
ISSN en ligne : 2327-509X
ISSN imprimé : 2327-5081

Par Ursula Maria Bellut-Staeck
Scientifique indépendante, Berlin, Allemagne

Comment citer cet article : Bellut-Staeck,
U.M. (2023) Impairment of the Endothelium and Disorder of Microcirculation in Humans and Animals Exposed to Infrasound due to Irregular Mechano-Transduction. Journal of Biosciences and Medicines, 11, 30-56.
https://doi.org/10.4236/jbm.2023.116003

Reçu : 24 avril 2023
Accepté : 10 juin 2023
Publié : 13 juin 2023

Copyright © 2023 par les auteurs et Scientific Research Publishing Inc.
Ce travail est placé sous la licence Creative Commons Attribution International
Licence (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/

Résumé

La microcirculation des mammifères est un système synchronisé complexe et autorégulé en fonction de la demande actuelle en nutriments et en oxygène. Le bon déroulement des fonctions vitales telles que la croissance, la régulation de la pression sanguine, la séquence inflammatoire et l’embryogenèse est lié à l’intégrité de l’endothélium. La vasomotion sensible en est particulièrement dépendante. Les réseaux de signalisation par mécano-transduction jouent un rôle essentiel dans les processus cellulaires vitaux et constituent le mécanisme physiologique décisif pour une libération adéquate de NO, principal responsable de l’autorégulation des vaisseaux. Une perturbation de l’intégrité endothéliale, provenant par exemple d’un stress oxydatif chronique et/ou d’un stress mécanique (oscillatoire), entraîne une perturbation de la vasomotion ainsi qu’un déséquilibre des systèmes d’oxydoréduction, reconnu comme la cause principale du développement de maladies inflammatoires chroniques telles que l’athérosclérose et des maladies secondaires correspondantes, éventuellement le cancer. Le cytosquelette endothélial, qui correspond à un « modèle de tenségrité » viscoélastique, offre la possibilité d’une mécanotransduction grâce à sa construction spéciale. L’augmentation rapide des connaissances sur les forces mécaniques dans la détection et la régulation cellulaires au cours des dernières années (qui a culminé avec le prix Nobel pour le décodage des canaux ioniques détectant la pression/vibration) nous a conduits à l’hypothèse suivante : le facteur de stress externe « bruit » produit dans certaines conditions un champ de stress oscillatoire dans le lit d’écoulement physiologiquement laminaire des capillaires, qui peut conduire à des mécano-transductions irrégulières. Les résultats indiquent une dépendance stricte de la fréquence dans la mécano-transduction avec la détermination de seuils pour une transmission 1:1. Les connaissances récemment acquises sur la mécano-transduction endothéliale jettent un nouvel éclairage sur l’importance des basses fréquences. Cela pourrait indiquer la manière physiopathologique longtemps recherchée par laquelle les infrasons peuvent exercer un effet de stress au niveau cellulaire. Les citoyens exposés au bruit, qui vivent à proximité d’infrastructures telles qu’une installation de biogaz, des pompes à chaleur, des centrales thermiques de type bloc et de grandes éoliennes industrielles (IWT), présentent dans le monde entier une symptomatologie associée à des troubles de la microcirculation. Des effets sur les insectes ou les poissons sont également concevables, puisque les canaux piézo-électriques sont reconnus comme des structures conservées de tous les organismes multicellulaires. Un plan expérimental est proposé pour démontrer l’influence pathologique directe d’infrasons de force, de fréquence, de profil d’effet/temps et de durée définis sur la vasomotion sensible.

Mots clés

Mécano-transduction, Cytosquelette endothélial, Infrasons, Stress oscillatoire, Vasomotion

1. Introduction

1.1. Structure, composants et régulation du système de microcirculation chez les mammifères

Les cellules endothéliales plates tapissent tous les vaisseaux du mammifère (y compris les vaisseaux lymphatiques), qui est son plus grand organe. Responsables de l’ensemble du transport du métabolisme de l’énergie et des substrats ainsi que de nombreuses fonctions vitales, elles ont une très grande surface (environ six terrains de football chez l’adulte) [1]. La cellule endothéliale correspond dans sa structure à une cellule somatique et est spécifiée pour ses diverses tâches, le vaisseau respectif (vaisseau capillaire, artère) ainsi que le type de tissu (zone splanchnique, rein, cerveau) étant responsables de sa spécification ultérieure [2]. Elle diffère par sa forme, son expression et sa surface, ainsi que par sa dotation en récepteurs du système adrénergique. Selon leur ultrastructure, les cellules endothéliales se différencient, en fonction de leur sous-structure spécifique à l’organe, en différents types d’endothélium continu, fenêtré et discontinu. Le système circulatoire est constitué d’une combinaison de vaisseaux, connectés en série et en parallèle, dans lesquels, conformément à la loi d’Ohm, la résistance totale diminue avec chaque connexion parallèle supplémentaire [2]. En régulant la résistance via les artérioles en amont, nous trouvons physiologiquement des flux laminaires avec une vitesse uniforme, strictement liée à la taille du vaisseau, dans le réseau capillaire. Il s’agit d’une condition préalable essentielle aux diverses tâches vitales de la microcirculation [2] [3]. En revanche, nous constatons un stress oscillatoire chronique, un facteur causal important de l’athérosclérose, au niveau des branches vasculaires et des courbes les plus fortes des vaisseaux de taille moyenne et de grande taille. L’une des principales tâches de la microcirculation est d’adapter le flux sanguin vasculaire aux besoins actuels [1] [4]. La densité fonctionnelle des vaisseaux (DFP) dans le muscle au repos est d’environ 25 % de la densité totale des vaisseaux (DTV). Inversement, cela signifie également que le débit sanguin peut être augmenté d’un multiple [5]. La capacité de compensation du réseau capillaire est donc plusieurs fois supérieure à celle de la « macrocirculation ». Sous l’effet d’une contrainte physique, ce que l’on appelle le recrutement capillaire, selon Moore et Fraser 2015 [6], commence par abaisser la résistance vasculaire des artérioles en amont, ce qui entraîne une augmentation significative de la surface d’échange des nutriments et une diminution de la distance entre deux capillaires avec, par conséquent, une distance de diffusion réduite pour l’oxygène et les nutriments. La régulation du flux sanguin local (appelée fonction vasomotrice) est extrêmement complexe et « orchestrée » [4]. Elle est contrôlée par des facteurs intrinsèques et extrinsèques (par exemple, le système nerveux autonome et les hormones vasoactives, telles que l’adrénaline, la vasopressine, l’angiotensine et la sérotonine) qui modulent l’activité intrinsèque [1], en fonction également de la taille des vaisseaux et de la distribution des récepteurs adrénergiques dans un organe donné.

L’une des bases de la régulation intrinsèque est constituée par l’effet Bayliss [7]. Le débit sanguin est maintenu constant : si le débit sanguin augmente, il y a vasoconstriction, si le débit sanguin diminue, il y a vasodilatation. Une deuxième base est constituée par les facteurs métaboliques selon la théorie classique, dans laquelle l’hypoxie locale entraîne une libération accrue de substances actives vasodilatatrices (par exemple, NO, ATP, prostaglandines), ce qui provoque une augmentation du flux sanguin local. L’accumulation de métabolites tels que le lactate, les ions hydrogène, le potassium et l’adénosine maintient cet effet [1]. L’une des conditions préalables les plus importantes et les plus responsables de la biodisponibilité du NO est la réponse classique à la contrainte de cisaillement laminaire due aux forces mécaniques, selon Chien 2007 [8]. Le NO est déclenché de manière classique par le flux sanguin qui provoque un changement mécanique au niveau de la membrane des cellules endothéliales et est formé à partir de son précurseur, la L-arginine, par l’intermédiaire de la NO-synthétase (NOS). Le NO est un médiateur de la relaxation vasculaire par l’activation de la guanylyl cyclase soluble (sGC) qui catalyse la conversion de la guanosine triphosphate (GTP) en 3′-5′-guanosine monophosphate cyclique (GMPc).

Ce dernier est extraordinairement typique de la microcirculation, mais c’est l’un des phénomènes les moins bien expliqués : la vasomotion.

La vasomotion a été observée pour la première fois dans l’exemple classique d’une veine de chauve-souris et décrite comme une contractilité rythmique qui accélère le flux sanguin vers l’avant grâce à des pulsations fines et synchronisées [9]. Les causes et le contrôle de ce phénomène n’ont pas encore été entièrement élucidés. Selon l’état actuel des connaissances, la vasomotion dépend de l’intégrité de l’endothélium et sert apparemment à optimiser l’apport en nutriments [10]. La vasomotion peut être directement observée in vivo en microscopie vidéo SDF. Citation de Aalkjaer C. Mulvany MJ 2020) [10] au cap. 1.3 page 7 :

« Peut-être que la seule caractéristique liée à la vasomotion sur laquelle tout le monde s’accorde est qu’une oscillation du potentiel de membrane des cellules musculaires lisses est à l’origine de l’oscillation du tonus individuel des cellules musculaires lisses et de la synchronisation des cellules musculaires lisses […]. Cela suggère fortement que le [Ca2+] dans les cellules musculaires lisses oscille également de manière synchronisée — et c’est effectivement le cas. […]».

L’article original [10] contient des informations plus approfondies.

L’étendue de l’implication endothéliale dans les syndromes cliniques est immense, tout comme le sont les facteurs potentiels qui peuvent influencer la microcirculation de manière positive ou négative. Les influences potentielles les plus importantes proviennent de fonctions vitales telles que l’apport d’oxygène et de nutriments, la croissance, l’embryogenèse, la coagulation sanguine, la régulation immunitaire, etc. Les principales causes de dysfonctionnement sont celles qui peuvent perturber l’intégrité de l’endothélium, en particulier un excès de stress oxydatif et oscillatoire.

1.2. Homéostasie du système redox

La libération adéquate de NO, avec la bonne quantité, au bon endroit et au bon moment, est cruciale pour la régulation synchronisée du flux sanguin et le maintien de la santé vasculaire [11]. En tant qu’antioxydant puissant, il joue un rôle décisif dans l’homéostasie de l’ensemble du métabolisme redox avec l’interruption de la peroxydation des lipides et donc la diminution des radicaux libres d’oxygène (ROS) agressifs ([11] [12] Tableau 1). En tant que radical libre (à l’état gazeux), il peut se diffuser librement à travers les membranes. Les effets vasculaires du NO sont présentés comme protecteurs, régulateurs ou délétères [11] [13]. La façon dont la réaction se déroule réellement dépend, selon Laurindo F. et al [11], de plusieurs facteurs. Selon ces auteurs, les propriétés défavorables sont généralement associées à une production excessive de NO, les effets protecteurs du NO sont attribués à une production régulière et adéquate de NO dans une situation spécifique. Non seulement le NO, mais aussi ses trois isoenzymes de la NO-Synthétase endothéliale sont impliqués dans les voies de signalisation redox. En fonction du type d’isoenzyme et des conditions environnantes, elles ont également des effets protecteurs ou délétères, comme le montre le tableau 1.

Par conséquent, la dépendance d’un approvisionnement adéquat en NO aux forces physiques conduit à une sensibilité aux facteurs de stress externes qui pourraient conduire à une mécano-transduction irrégulière, conduisant éventuellement à un approvisionnement en NO accru et inadéquat. Pour plus de détails sur ce thème, voir les articles [11] [12] [13] [14].

Tableau 1. Les différents effets possibles de l’oxyde nitrique : protecteur, régulateur et délétère :
Effets protecteurs : Effets régulateurs : Effets délétères :
– Antioxydant
– Inhibe l’adhésion des leucocytes et des plaquettes
– Protège contre la toxicité et la peroxydation
– Tonus vasculaire
– Adhésion cellulaire
– Perméabilité vasculaire
– Neurotransmission
– Bronchodilatation
– Régulation de l’inflammation
– Régulation de la fonction rénale
– Inhibe la fonction enzymatique
– Induit des dommages à l’ADN
– Induit la peroxydation des lipides
– Augmente la sensibilité aux radiations, aux substances alkylantes et aux métaux toxiques
– L’épuisement des réserves d’antioxydants
D’après la source originale [13] FIG 1 dans WINK AA. MITCHELL J (1998) CHEMICAL BIOLOGY OF NITRIC OXIDE: INSIGHTS INTO REGULATORY, CYTOTOXIC, AND CYTOPROTECTIVE MECHANISMS OF NITRIC OXIDE, Radiation Biology Branch, National Cancer Institute, Bethesda, MD, USA tiré du livre Free Radical Biology & Medicine, Vol. 25, Nos. 4/5, pp. 434-456, 1998. Publié par Elsevier Science Inc. 0891-5849/98 $0.00 1.00 référence FIG 1 Page 435.

Dans le domaine de la microcirculation, d’autres substances vasodilatatrices jouent un rôle décisif. Les segments vasculaires des artérioles réagissent aux auto-acides endothéliaux tels que l’angiotensine, la sérotonine, les eicosanoïdes [2] et aux agonistes tels que l’acétylcholine, la bradykinine ou la substance P, ainsi qu’aux variations de pression transmurale. Ils ne le font pas en tant qu’entités isolées, mais de manière coordonnée. Ce phénomène est attribué au facteur d’hyperpolarisation dérivé de l’endothélium (EDHF) [11]. L’EDHF a un effet à longue distance, car sa formation déclenchée localement peut également déclencher une réponse vasculaire rectifiée en amont et en aval. L’activation de l’écoulement de potassium dépendante du calcium par l’EDHF est suivie d’une hyperpolarisation avec transmission du transfert d’électrons à l’intérieur de la paroi vasculaire via les jonctions lacunaires et sans perte de temps [15]. La réaction de transmission est comparable à un banc de poissons, très rapide et synchronisé [5]. Les possibilités de la stimulation microtactile par rapport au déclenchement par l’acétylcholine ont été testées et confirmées expérimentalement [5].

1.3. Homéostasie de l’inflammation et de la fibrose

Toutes les séries de réactions séquentielles dépendent de l’intégrité de l’endothélium et impliquent le cytosquelette endothélial. Comme il s’agit d’une fonction endothéliale vitale, le processus complexe de l’inflammation peut être perturbé à n’importe quel niveau selon Suthahar [16]. Compte tenu de sa grande pertinence par rapport au sujet de notre travail, nous présentons une description plus détaillée pour montrer à quel point l’ensemble du processus est sensible, par exemple en cas de stress mécanique : une réponse inflammatoire est essentielle en tant que mécanisme de défense physiologique contre, par exemple, les bactéries, les virus et les blessures. Le point de non-retour est la diapédèse des leucocytes. L’évolution ultérieure conduit, dans le cas favorable, à une restitutio ad integrum [restauration à terminer], dans le cas défavorable, à une inflammation chronique avec fibrose, défaut de cicatrisation et éventuellement lésions organiques.

Ley et al. (2007) [17] et Serhan et al. (2007) [18], ainsi que les travaux connexes de Nussbaum et Spe-rando (2011) [19] et [1] [20], constituent des ouvrages importants sur l’état de la science. Selon Ley [17], le processus ordonné dans toutes ses phases est crucial pour son résultat. Nous présentons ici le déroulement non perturbé :

Les leucocytes circulants se déplacent passivement dans le flux sanguin. Dans les veinules postcapillaires, les modifications locales de l’hémodynamique à proximité des sites d’inflammation entraînent une réduction du débit sanguin. Cela augmente la probabilité que les leucocytes entrent en contact avec l’endothélium. L’endothélium est activé pendant quelques heures et exprime des molécules d’adhésion qui conduisent à la fixation des leucocytes. Le « slow-rolling » [roulement lent] des leucocytes est également rendu possible par une autre E-sélectine endothéliale inductible, qui repose sur une activation partielle des intégrines sur les leucocytes [17] (voir Figure 1). Le cytosquelette d’actine est également activement impliqué dans ce processus. D’autres chimiokines, provenant en partie de l’endothélium et en partie de l’espace extracellulaire, activent la liaison étroite et le passage amiboïde des leucocytes dans l’espace extracellulaire. Des changements sélectifs de la perméabilité (fonction de gardien de la cellule endothéliale) permettent à des composants cellulaires tels que les neutrophiles et les monocytes de passer de l’espace intravasculaire à l’espace extracellulaire. De plus amples détails sur les séquences de la diapédèse des leucocytes sont présentés dans des ouvrages de référence [1] [19]. Il existe une interaction intense entre les médiateurs sécrétés par l’endothélium (cytokines) et l’ECR [1] [16]. Les signaux anti-inflammatoires tels que la corticostérone atténuent la gravité et limitent la durée de la phase précoce [16].

Figure 1. Description originale : Vue d’ensemble schématique de la cascade de recrutement des leucocytes à l’aide de l’exemple d’un neutrophile quittant une veinule postcapillaire. La capture et l’enroulement sont médiés par l’interaction des sélectines avec la PSGL-1 à la surface du neutrophile. Pendant le roulement, le neutrophile est activé par les chimiokines présentes sur l’endothélium enflammé, ce qui entraîne une adhésion ferme par la liaison des intégrines neutrophiles (LFA-1 et Mac-1) aux molécules d’adhésion endothéliales (par exemple, ICAM-1 et -2). Une fois l’adhésion ferme obtenue, le neutrophile s’étend et commence à ramper le long de la paroi endothéliale à la recherche d’un site approprié pour la transmigration. États de la diapédèse des leucocytes : Capture et roulement, roulement lent, adhésion ferme, reptation, transmigration Source originale [19] Nussbaum, C., Sperando, M. (2011) : Recrutement de cellules immunitaires innées chez le fœtus et le nouveau-né. J Reproduction. Immunol 2011 ; 90 (1) : 74-81. (IF 2, 966). Page 2 FIG 1. Avec autorisation.

En résumé, le processus d’inflammation est une interaction complexe entre un processus temporel et spatial d’influence mutuelle et d’activation entre des facteurs de l’espace intra- et extravasculaire. Au centre du processus se trouve la fonction adéquate de gardien d’un endothélium en état d’intégrité. Après la diapédèse des leucocytes, un processus ordonné dépend de l’absence de stress oscillatoire et oxydatif accru, afin de conduire à une restitutio ad integrum. Dans l’autre cas, un défaut de cicatrisation peut se produire en raison d’un changement d’équilibre dans le sens d’une inflammation chronique et d’une fibrose. En médecine clinique, le passage à une inflammation chronique et la prévention de celle-ci jouent un rôle important [15].

Les ouvrages de référence de Buckley et al. (2014) [21] et de Serhan et al. (2007) [18] décrivent les séquences qui suivent la diapédèse des leucocytes : Des « points de contrôle » et des « signaux d’arrêt » appropriés empêchent la poursuite de l’entrée des leucocytes. Les lipoxines, les résolvines et les prostaglandines agissent dans le cadre d’un processus actif de pro-résolution. Cela ouvre la voie à la migration et à la différenciation des monocytes vers la phagocytose, à la normalisation du gradient de chimiokines (qui permet aux leucocytes de subir l’apoptose) et à la sortie du tissu par les vaisseaux lymphatiques de drainage. La défaillance de ces mécanismes de régulation peut conduire à un état d’inflammation chronique, provoquant des lésions tissulaires continues et une fibrose progressive. Un exemple classique est l’insuffisance cardiaque chronique par « remodelage » du cœur [16].

Au niveau du cœur, les myofibroblastes immunocompétents et les facteurs de l’ECR modulent activement le développement d’une fibrose d’abord périvasculaire puis progressive. Les points de départ peuvent être le développement d’une myocardite sous une forme chronique, un état après un infarctus du myocarde et/ou une pression mécanique chronique sur le cœur (hypertension systémique ou pulmonaire). La conséquence est l’augmentation de la distance de diffusion, la diminution de la densité capillaire, une altération du système électroconducteur avec arythmie cardiaque, une perturbation de l’angiogenèse, conduisant à nouveau à une détérioration du substrat et de l’approvisionnement en oxygène avec un processus d’autorenforcement : un cercle vicieux [16].

1.4. Forces hémodynamiques

Les forces physiques physiologiques agissent constamment sur l’organisme, par exemple la gravidité, la pression, la contrainte de cisaillement, la vibration. Les principales sont les forces tangentielles (par exemple, la contrainte de cisaillement laminaire) ou les forces d’étirement (par exemple, la distension pulsatile) du sang selon Fernandes, C.D. et al. (2018) [3] et Mazzag et al. (2014) [22]. Comme décrit ci-dessus, les facteurs de stress oscillatoires internes sont physiologiquement limités par la taille des vaisseaux, qui est un facteur critique pour le maintien des fonctions vitales [3]. La régulation de plusieurs processus cellulaires vitaux via des réseaux de mécanotransduction et de signalisation, notamment la croissance, la différenciation, la migration, l’angiogenèse et l’apoptose, est essentielle [1] [3]. Au cours de la morphogenèse, la contrainte de cisaillement dirige la formation de l’arbre vasculaire selon Hahn et Schwartz (2009) [23]. Les variations de la contrainte de cisaillement déterminent des changements vasomoteurs instantanés qui sont régulés « battement par battement » [3] afin de maintenir une contrainte laminaire constante et d’optimiser la fonction de distribution du flux de l’artère conductrice. En même temps, il est important de s’appuyer sur une libération suffisante de NO [3]. La figure 2 donne un aperçu des différents effets de la contrainte de cisaillement.

1.5. Structure de tenségrité du cytosquelette endothélial

La structure viscoélastique de la « tenségrité » endothéliale constitue la base de la mécanotransduction des forces. Le terme « tenségrité » a été inventé par R. Buckminster Fuller (1975) [24], architecte du dôme géodésique, où la compression discontinue et la tension continue ont été utilisées pour atteindre la plus grande stabilité possible combinée à la légèreté. Des points d’ancrage supplémentaires sont utilisés pour transférer les forces mécaniques aux différents éléments de compression et de tension [25]. Les équivalents au niveau de la cellule endothéliale sont les trois réseaux intercommunicants de filaments protéiques et leurs points d’ancrage.

Les filaments d’actine, en tant que partie élastique, servent à maintenir la forme de la cellule en formant un anneau sous la membrane cellulaire [25] avec un réseau de communication vers les capteurs de flux (mécanosenseurs) et les points d’adhésion focale de la membrane (FAS) — les « points d’ancrage dans le modèle de tenségrité » — ainsi que les jonctions lacunaires intercellulaires (CCAP) [25]. Selon Dudek et al [26], plus de 80 protéines liant l’actine jouent un rôle essentiel dans la génération des forces de traction. L’article original [25] donne un aperçu plus approfondi de ce sujet complexe. En réponse à des stimuli contractiles, les filaments d’actine et de myosine forment des unités parallèles organisées et liées à la membrane, appelées « fibres de stress », qui stimulent le glissement de la myosine le long des filaments d’actine.

Figure 2. Description originale : Différents effets du cisaillement laminaire et oscillatoire sur la fonction cellulaire et l’athérosclérose. Les lignes pointillées représentent le cytosquelette des cellules endothéliales. Les forces de cisaillement laminaires et oscillatoires sont reconnues dans les cellules endothéliales par des mécanosenseurs et les mécanosignaux initient des cascades de signalisation qui régulent la production de facteurs vasoactifs et l’équilibre entre ces facteurs. Alors que le cisaillement laminaire stimule la production de facteurs athéroprotecteurs, le cisaillement oscillatoire stimule la production de facteurs athérogènes et l’équilibre de ces facteurs détermine la tendance des vaisseaux à rester sains ou à développer des plaques athérogènes. PGI2, prostacycline ; TM, thrombomoduline ; TGFb, Transforming Growth Factor beta; PDGF, Platelet-Derived Growth Factor; ET-1, Endothelin-1 ; BMP4, Bone Morphogenetic Protein 4. Adapté de Jo H, Song H, Mow-bray A. Role of NADPH oxidases in disturbed flow- and BMP4-induced inflammation and atherosclerosis. Antioxid Redox Signal 2006; 8: 1609-19. Vue d’ensemble des différents effets de la contrainte de cisaillement laminaire et oscillatoire sur la fonction cellulaire et l’athérosclérose. Source originale [3] Fernandes CD, Araujo Thaı’s S, Laurindo FRM, Tanaka LY. Hemodynamic Forces in the Endothelium. Mechanotransduction to Implications on Development of Atherosclerosis. In: ENDOTHÉLIUM ET MALADIES CARDIOVASCULAIRES. Vascular Biology and Clinical Syndromes. Édité par PROTASIO L. DA LUZ.PETER LIBBY ANTONIO C. P. CHAGAS. FRANCISCO R. M. LAURINDO. Éditeur : Mica Haley. Sao Paolo. (2018) ISBN 978-0-12-812348-5 Cap. 7 FIG 7.3, p 90. Avec l’autorisation de l’auteur.

Cela conduit à une augmentation de la tension intracellulaire et donc à une contraction cellulaire selon Wang et al. (2009) [27] et Lee et al. (2003) [28]. La fermeture et l’ouverture des lacunes paracellulaires en réponse à l’inflammation, à l’ischémie et aux substances envahissantes (fonction de gardien) sont essentielles selon Patrick Belvitch et al. (2018) [29]. Les filaments d’actine constituent également ce que l’on appelle les microvillosités. Ceux-ci contiennent un faisceau central de filaments d’actine, également ancrés au cytosquelette. Les microvillosités sont présentes dans divers organes (par exemple l’intestin) où elles ont des propriétés de résorption.

Les microtubules constituent l’élément de compression avec des tiges creuses résistantes à la pression, composées d’α— et de β-tubuline [25]. Ils sont reliés à l’ECR par des intégrines (protéines transmembranaires) et soutiennent la structure cellulaire en communiquant avec les filaments d’actine et les filaments intermédiaires, ainsi que la formation des fuseaux pour la mitose.

1.6. Transmission de la force mécanique par mécanotransduction « biophysique

L’observation que de nombreux processus se déroulent manifestement beaucoup plus rapidement que ne le permet la voie mécano-chimique via l’expression des gènes et la synthèse des protéines (à savoir au minimum quelques secondes), a conduit à une recherche intensive sur la structure de « dix grilles » et à la définition de la « voie biophysique ». Celle-ci repose sur des liens physiques directs entre des mécanosenseurs spécifiques de la surface endothéliale et des éléments du cytosquelette. Elle permet aux cellules de transférer des stimuli mécaniques sur de longues distances et, ce qui est très important, une excitation spatialement hétérogène pour transformer l’information en une réaction souhaitée [27]. Un travail crucial avec une pertinence importante pour notre travail est la recherche sur la dynamique et la distribution de la transmission en réponse à un « flux bruyant » de Bori Mazzag et al. 2010 [30] et Maz-zag B, Gouget C, Hwan Y, Barakat AI 2014 [22]. Par écoulement « bruyant », les auteurs entendent un « écoulement oscillant ou turbulent dans des conditions de fluctuations aléatoires des propriétés d’écoulement de la pression et de la vitesse », Citation Mazzag, Barakat 2010 page 912 [30].

Les prédécesseurs dans l’exploration de la « voie biophysique » au début des années 2000 ont été Wang et al [8] et Davies et al (2005) [31]. Des travaux importants ont été réalisés dans ce contexte par Helmke et al [32], Hsu, H. J., Lee, C.F, Locke, A. et al (2010) [33] ; Hwang, Y., Gouget, C. L. M et Barakat, A. I. (2012) [34].

Pour mieux comprendre la dynamique de la transmission de la force par les filaments du cytosquelette, un certain nombre de modèles mathématiques ont été développés. Les auteurs Mazzag et Barakat en présentent un aperçu (possibilités et limites) dans [22].

Le modèle de réseau temporel, tel que présenté dans (2010) [30] et (2014) [22], est basé sur une structure viscoélastique d’un modèle de tenségrité, afin de développer une compréhension de la transmission des flux « bruyants » et de définir quelles structures de transmission sont sensibles aux flux « bruyants ». Ce modèle est illustré à la figure 3.

Les résultats montrent que l’amplitude des oscillations dans le flux « bruyant » suscite une réponse plus forte que sa durée. Une autre implication importante est que les FAS (Focal adhesion points – points d’ancrage égaux aux ECR), en raison de leur grande sensibilité au bruit, sont des candidats de choix pour jouer le rôle de « détecteurs de bruit » cellulaires [30].

Une évaluation sommaire suit dans Mazzag 2014 [22] avec d’autres développements de modèles, par exemple pour la distribution spatiale des forces mécaniques pendant la transmission comme le Spatial temporal network Model ; selon les auteurs [22], il y a eu d’importantes contributions des articles originaux de [34] et Mazzag et Barakat (2011) ainsi que Mazzag et al. (2003).

Figure 3. Description originale : Représentation schématique d’une CE composée d’un méca-anosenseur (MS), d’éléments du cytosquelette (fibres de stress d’actine (a) ou microtubules (M)), d’un noyau (N), de protéines d’adhésion cellule-cellule (CCAP) et d’un site d’adhésion focale (FAS). L’encadré montre une représentation du TPMM (ou corps de Kelvin) et les paramètres viscoélastiques pour le FAS. Les exposants « 32 » sur les paramètres indiquent que cet élément est le deuxième élément de la troisième branche (voir le texte). (b) Représentation en réseau des composants de la CE dans le panneau A. Chaque composant cellulaire correspond à un TPMM, couplé à d’autres composants selon le diagramme indiqué. La fibre de stress d’actine et la CCAP connectées en série sont appelées branche 1, la fibre de stress d’actine/microtubule en série avec le noyau est la branche 2, et la fibre de stress d’actine en série avec le FAS est la branche 3. (a) Représentation schématique d’une cellule endothéliale composée d’un capteur de flux (FS), d’éléments du cytosquelette filament d’actine (a) ou microtubules (b) et des connexions (N), (CCAP), (FAS). (b) Représentation mathématique. Source originale [22] [30] : Modèle de réseau temporel FIG 1 Bori Mazzag, Cecile L. M. Gouget, Yongyun Hwang et Abdul I. Barakat (2014) [22] Cap. 5. Page 98 [30] Mechanical Force Transmission via the Cytoskeleton in Vascular Endothelial Cells. Dans Endothelial Cytoskeleton. Éditeurs Juan A. Rosado et Pedro C. Redondo Département de physiologie, Université d’Estrémadure Cáceres, Espagne. Avec l’autorisation de l’auteur.

En résumé, les résultats fournissent la forte dépendance de fréquence de la transmission de force avec la définition d’une valeur seuil pour les filaments d’actine (plus sensible) et les microtubules.

Une autre question pour les auteurs était le comportement de saturation lorsque le signal persiste et une explication, comme quoi les fréquences naturelles, générées par les organes de l’organisme lui-même, ne conduisent pas à une longue propagation de la transmission. Nous citons les auteurs Mazzag et Barakat 2014 p. 107 [22] :

Dans le cas d’un forçage oscillatoire, la contrainte liée à la déformation, comme dans le cas d’un forçage constant, présente un transitoire initial avant de finir par saturer en une réponse stable périodique dans le temps. Il est important de noter que l’amplitude de saturation de la contrainte liée à la déformation au niveau du noyau dépend fortement de la fréquence du forçage. Les figures 3D et E illustrent l’amplitude de saturation de la contrainte liée à la déformation au niveau du noyau en fonction de la fréquence de forçage pour le forçage transversal et axial, respectivement. Dans les directions axiale et transversale, un stimulus mécanique à basse fréquence (<0,1 Hz) est transmis au noyau sans diminution de son amplitude, alors qu’un stimulus mécanique à haute fréquence subit une diminution significative de son amplitude. Cela implique que les fibres de stress individuelles agissent comme des filtres passe-bas du forçage mécanique. Il est intéressant de noter que le mouvement transversal présente une largeur de filtre beaucoup plus importante que le mouvement axial : la largeur de filtre pour le mouvement transversal s’étend jusqu’à f ~ 1000 Hz alors que celui pour le mouvement axial ne s’étend que jusqu’à f ~ 1 Hz” […] (Remarques : citation en lettres italiques).

Deuxième citation importante, page 101 [22] :

Comme nous l’avons déjà décrit, il a été rapporté que le flux oscillatoire induit un dysfonctionnement des CE et qu’il est en corrélation avec le développement de lésions athérosclérotiques précoces. Par conséquent, nous avons également étudié la réponse des réseaux simples décrits dans le paragraphe précédent à un flux oscillatoire. Les résultats ont révélé que la déformation maximale (définie comme la plus grande déformation au cours d’une période après que le comportement asymptotique temps-périodique est atteint) de chacune des structures du réseau (mécanocapteur, fibres de stress d’actine, microtubules et noyau) est fortement dépendante de la fréquence. À des fréquences oscillatoires suffisamment basses, les déformations maximales correspondent à celles d’un forçage constant ; toutefois, au-delà d’une fréquence seuil, les déformations maximales chutent de manière significative. L’analyse a démontré que cette fréquence seuil se situe entre 10-5 et 10-4 Hz pour les microtubules et entre 10-3 et 10-2 Hz pour les fibres de stress d’actine, ce qui suggère que les fibres de stress peuvent transmettre efficacement la force sur une gamme de fréquences plus large. […] » [Remarques : lettres en italique de ma part]

Les recherches expérimentales de Na et al. (2008) [35] ont comparé la vitesse de la mécanotransduction via la voie biophysique et via la voie mécanochimique (facteur de croissance et expression génétique). Les auteurs ont utilisé des expositions physiques comparables pour les infrasons (0,3 Hz), une durée de 30 s, une pression sonore de 1,8 Pa (études avec 1,8 Pa jusqu’à environ 20 Pa). Les résultats les plus importants ont été la confirmation que la vitesse était 40 fois plus rapide que par des moyens mécaniques et chimiques (confirmant les résultats ci-dessus), à savoir 300 ms (millisecondes). En outre, les résultats ont montré que « l’activation de Src induite par le stress dépend de l’activation de l’intégrine, de la rigidité du substrat, de la précontrainte et de l’intégrité de la F-Actine » [35], citation de Na et al. page 1. Remarques : en italique (de ma part) [35].

1.7. Les mécanocapteurs de la cellule endothéliale

Selon [3], le cytosquelette lui-même est un mécanocapteur. Du côté du vaisseau (luminal), les mécanocapteurs sont surtout le glycocalyx, les intégrines, les jonctions cellule-cellule (CCAP), les cavéoles, les radeaux lipidiques, les récepteurs couplés aux protéines G et les canaux ioniques. Ils sont activés en fonction de leur localisation par la contrainte de cisaillement [3] (Figure 4). Selon l’auteur [3], les mécanosenseurs endothéliaux sont modifiés dans leur microenvironnement par la contrainte de cisaillement et peuvent activer des voies de signalisation intracellulaires dans cette nouvelle formation. La fluidité des microdomaines de la membrane plasmique est modifiée [3]. Cela conduit, selon [3], à un réarrangement spatial de diverses protéines et donc à l’activation de voies de signalisation. La transmission des forces s’effectue via les trois réseaux de communication du cytosquelette vers la région basale du cytosquelette (par exemple, les intégrines) [3] [22] [30].

L’un des plus importants mécanocapteurs est le glycocalyx ([1] [3] Figure 4). Chez les patients gravement malades, l’étendue des dommages subis par le glycocalyx (ce que l’on appelle le shedding) est en corrélation avec la gravité de la maladie et la mortalité [1] [36] [37].

Figure 4. Description originale : Mécanosenseurs des cellules endothéliales. Localisation des mécanosenseurs tels que le cytosquelette, les intégrines, les jonctions cellule-cellule, les cavéoles, les radeaux lipidiques, le glycocalyx de la surface cellulaire, les récepteurs couplés aux protéines G (GPCR) et les canaux ioniques. Alors que les mécanosenseurs de la région apicale (lumenal) sont activés directement par la contrainte de cisaillement (comme les protéines G), le cytosquelette (représenté par les fibres d’actine, F-actine) est responsable de la transmission des forces aux mécanosenseurs de la région basale des cellules endothéliales (comme les intégrines). L’activation de la protéine G se produit en raison de changements locaux dans la fluidité de la membrane plasmique, donc directement en raison de la contrainte de cisaillement et indépendamment d’un agoniste, provoquant l’hydrolyse du GTP en GDP. En revanche, la structure des intégrines mécanosensibles passe d’inactive à active lorsqu’elles sont soumises à une contrainte de cisaillement, probablement en raison de la transmission de la force mécanique au cytosquelette. En conformation active, les intégrines ont une plus grande affinité pour les protéines de la matrice extracellulaire. Mécano-senseurs de la cellule endothéliale (état 2019) Source originale [3] Fernandes CD, Araujo Thaı’s S, Laurindo FRM, Tanaka LY. Hemodynamic Forces in the Endothelium. Mechanotransduction to Implications of Development of Atherosclerosis. In: ENDOTHÉLIUM ET MALADIES CARDIOVASCULAIRES. Vascular Biology and Clinical Syndromes. Édité par PROTASIO L. DA LUZ. PETER LIBBY ANTONIO C. P. CHAGAS. FRANCISCO R. M. LAURINDO. Éditeur : Mica Haley. Sao Paolo (2018) ISBN 978-0-12-812348-5. Cap. 7 FIG 7.2, p. 89. Avec l’autorisation de l’auteur.

Comme ceux identifiés à ce jour, les mécanocapteurs sont présentés dans la figure 4 (état 2019).

1.8. Canaux PIEZO-1

D’autres mécanocapteurs endothéliaux récemment définis, les canaux PIEZO-1, ont été clairement établis comme un système sensoriel des organes internes par les récepteurs de pression et de vibration dans tous les vaisseaux. Ardem Patapoutian a reçu le prix Nobel de médecine en 2021 en raison de l’importance de cette découverte. Selon Rode et al. (2017) [38], Piezo-1 est responsable des canaux cationiques sensibles au flux, non inactivants et non sélectifs qui dépolarisent le potentiel de la membrane : Les canaux Piezo-1 perméables au Ca2+ sont activés par une force physique sur la membrane cellulaire (comparer la figure 5). Les PIEZO-1 détectent l’activité physique du corps entier pour rétablir l’homéostasie cardiovasculaire et améliorer les performances. Ils sont essentiels à la lymphogenèse et à l’homéostasie et sont d’importants mécano-senseurs de la contrainte de cisaillement [39]. Les canaux PIEZO sont essentiels dans tous les organismes multicellulaires, c’est-à-dire également chez les invertébrés tels que les mouches et les vertébrés (poissons) [40]. La figure 5 présente une représentation schématique d’un canal PIEZO-1 intégré.

2. Bruit, son et infrasons

Dans la Classification internationale des maladies (CIM-10) (2010), publiée par l’Organisation mondiale de la santé (OMS), l’« exposition au bruit » (rubrique W42) figure sous la rubrique « Exposition à des forces mécaniques inanimées » (rubriques W20 à W49) [41].

Figure 5. Présentation schématique d’un canal PIEZO-1, intégré dans la membrane de la cellule endothéliale avec un flux de Ca2+ déclenché. L’anneau d’actine (intra-endothélial) est indiqué. Les ailes sont déplacées par des forces mécaniques sur la membrane et libèrent le canal dans un mouvement d’ouverture. Bleu/jaune : biomembrane endothéliale avec structure de bicouche lipidique. Présentation schématique d’un canal PIEZO-1.

En effet, les ondes de pression qui se propagent dans l’air (c’est-à-dire le son) ont un impact sur les tissus viscoélastiques des organismes biologiques en tant que forces mécaniques externes.

Dans la CIM-11 (2020), plus récente, des codes d’extension supplémentaires (section X) ont été établis et l’« exposition au bruit » (rubrique XE7Y1) relève désormais des catégories « Causes externes/Exposition à un autre mécanisme » [42]. L’affection « Vertige dû à des infrasons » (rubrique T75.2 dans la CIM-10) dans la rubrique « Effets des vibrations » relève désormais de la catégorie « Autres effets spécifiés des vibrations » (rubrique NF08.2Y).

Les infrasons sont définis comme des sons dont la fréquence est inférieure à 20 Hz. Le bruit de basse fréquence (IFLN), qui n’est pas clairement défini selon la norme DIN 45680, est limité à 125 Hz. Plus la fréquence est basse, plus la longueur d’onde est grande. Les infrasons ne peuvent être que faiblement amortis, ils sont moins atténués par la propagation dans l’atmosphère ainsi qu’à travers les toits et les murs que le spectre audio. Par exemple, la propagation du son dans l’air avec une longueur d’onde de 0,1 Hz est d’environ 3,3 km (condition standard de 20 degrés Celsius), celle de 1000 Hz est d’environ 34 mm. Les infrasons sont générés par des masses lourdes en mouvement ainsi que par des phénomènes de résonance/vibration. L’exposition peut être professionnelle ou résidentielle, et peut être émise par des sources naturelles (par exemple, les tremblements de terre) ou techniques (trains, avions, sources professionnelles ou résidentielles). Les émetteurs diffèrent en termes de fréquence, de pression acoustique P (Pa), de profil temps/effet (impulsivité) et de durée. L’augmentation du nombre et de la taille des rotors des TVN entraîne une augmentation des plaintes [43]. Plus le rotor est grand, plus la fréquence émise est basse. D’après [44] [45], les infrasons émis par les TVN se situent en grande partie dans la plage de 0,1 à 10 Hz. Son émission d’infrasons est impulsive dans le profil effet/temps selon Roos W, Vahl, CF (2021) [45] et Vanderkooy [46], comme le montre la figure 6.

Figure 6. Impulsion infrasonore extraite des émissions d’une éolienne. Les fluctuations de la pression acoustique mesurables à proximité d’une installation éolienne contiennent généralement du bruit, c’est-à-dire des événements sonores irréguliers d’origine différente. L’élimination du bruit est possible en calculant la moyenne de la pression acoustique sur un grand nombre de passages de pales de mât (ici 4100), ce qui révèle leur élément commun (ligne rouge). Le pic rouge ainsi visualisé à partir de la séquence temporelle coïncide avec le pic bleu, qui montre l’impulsion fondamentale telle qu’elle a été reconstituée dans le domaine fréquentiel à partir de 15 lignes harmoniques (très nettes) par analyse de Fourier. Le résultat est le pic fondamental cohérent de cette éolienne, d’une fréquence de 0,9 Hz, correspondant à 1,08 seconde par passage de pale. Impulsion infrasonique extraite d’une éolienne montrant la relation entre la pression acoustique (P) et le temps (s). Source originale [46] correspondant à la figure 7 Vanderkooy1 J, Mann2, R Measuring Wind Turbine Coherent Infrasound Department of Physics and Astronomy 1, Department of Computer Science 2 University of Waterloo, Waterloo, ON, Canada, N2L3G1 jv@uwaterloo.ca, mannr@uwaterloo.ca. Date de publication : 2 octobre 2014. Avec la permission de l’auteur.

Les lois physiques de la théorie des ondes s’appliquent à la propagation du son, par exemple sous forme d’onde longitudinale ou transversale et avec différentes vitesses de propagation (dans un milieu fluide, environ trois fois plus rapide que dans un gaz). Le comportement de propagation dépend des différents milieux élastiques, qu’ils soient liquides, gazeux, solides ou un mélange de ceux-ci ; il en va de même pour l’organisme viscoélastique. Le son étant une onde mécanique, la propagation peut être réfractée, réfléchie, interférer et être transmise [47]. La propagation d’une onde est un transport d’énergie, mais pas un transport de matière. Lors de la propagation, les particules sont mises en oscillation. En outre, dans les espaces intérieurs des bâtiments, des interférences entre la pression acoustique de l’air et les bruits de structure sont possibles, ce qui peut également entraîner des amplifications ou des atténuations importantes du son d’impact total [48].

3. L’hypothèse/la théorie

3.1. La différence par rapport à la pensée actuelle

Les études épidémiologiques existantes considèrent presque exclusivement l’organe audio-vestibulaire, ou l’implication de structures cérébrales individuelles [49], comme des organes susceptibles d’être affectés par l’exposition au bruit dans les gammes de basses fréquences. Par rapport aux champs électromagnétiques, tout le monde accepte que les impacts sur l’organisme ne dépendent pas de la perception. Pourquoi pas ici ? Cette question a déjà été posée en 2007 [50]. De nombreux troubles de la santé ou symptômes cliniques manifestes ne peuvent être expliqués par un impact purement audio-vestibulaire. Depuis 2015 environ, l’auteur a remarqué de nombreuses plaintes dans le monde entier en raison de la situation résidentielle. Elles correspondent à des troubles fonctionnels de la microcirculation en raison d’une biodisponibilité réduite et non coordonnée du NO.

Il s’agit, par exemple, de vertiges, de troubles des performances scolaires, de fatigue, d’acouphènes, de faiblesse musculaire et de maux de tête, signes d’un soutien perturbé et inadéquat en nutriments et en O2. En cas d’exposition chronique, des symptômes apparaissent tels que l’augmentation de la pression artérielle, l’arythmie cardiaque, les troubles respiratoires, les déficiences immunitaires et l’épilepsie tardive [50]. Dans un deuxième temps, une hypothèse de travail a été élaborée pour tester les conditions préalables à un effet direct du facteur de stress au niveau des cellules endothéliales et sur le plan technique. Les résultats disponibles à ce jour des études épidémiologiques, expérimentales et animales ont été inclus dans les considérations.

Dans un troisième temps, la littérature actuellement disponible sur la physiologie et la physiopathologie moléculaires de l’endothélium a été examinée sous l’angle de la possibilité d’une mécanotransmission des forces mécaniques si elles sont soumises à un facteur de stress externe. L’identification des canaux PIEZO-1 2021 en tant que mécanosenseurs importants pour le son et les vibrations a renforcé les preuves de notre hypothèse. Une abondante littérature sur les résultats pathohistologiques de l’exposition professionnelle aux infrasons dans les années 1980 [50], puis dans les années 2000 sur l’exposition des résidents aux éoliennes [51] et la réévaluation de ces résultats ont été incluses.

En raison de l’approche audio-acoustique, les conditions modifiées de propagation du son dans l’organisme viscoélastique n’ont pas été prises en compte dans le passé. Nous le faisons maintenant. Pour la même raison, le seuil de perception n’est pas pertinent, car il ne concerne que les sons audibles et la transmission par l’air.

3.2. L’hypothèse est basée sur les preuves de :

– Le bruit est une force mécanique, donc soumise à des lois physiques ;
– L’existence de nombreux mécanosenseurs pour le son et les vibrations au niveau de la membrane et de l’endothélium avec des canaux PIEZO-1 nouvellement identifiés, en particulier au niveau de l’endothélium, est à la pointe de la science ;
– La mécano-transduction des forces mécaniques est cruciale pour de nombreuses régulations vasculaires vitales ;
– La transmission mécanique des forces par les structures du cytosquelette endothélial est à la pointe de la science ;
– Excitabilité microtactile prouvée des cellules endothéliales avec conduction rapidement propagée en amont et en aval.

3.3. Notre hypothèse

– Le bruit, lorsqu’il affecte les organismes, est, dans certaines conditions de fréquence, de pression acoustique, d’effet/profil temporel, de durée, capable de modifier la situation physiologique d’écoulement laminaire dans le lit capillaire dans le sens d’un environnement oscillatoire. Dans ce cas, la transition des forces mécaniques peut avoir lieu de manière incontrôlée ;
– En conséquence, les fonctions vasomotrices et en particulier la vasomotion peuvent être perturbées ;
– Les effets attendus d’un impact chronique pourraient conduire à une insuffisance chronique de l’apport en nutriments et donc à un déplacement des équilibres vers des déséquilibres, en particulier pour les systèmes d’oxydoréduction et pour les réponses aux processus d’inflammation.

4. Évaluation de l’hypothèse

La première condition de base qui s’applique à notre hypothèse est la question de savoir si l’exposition au « bruit », dans le sens d’un facteur de stress oscillatoire, provoque à son tour un champ oscillatoire dans le lit capillaire.

4.1. Soutien positif aux données probantes

La réactivité des mécano-senseurs endothéliaux aux influences extérieures telles que la gravité, la pression, le gonflement et le bruit en est la preuve [1] [3] [22] [30] ainsi que l’excitabilité microtactile des cellules endothéliales [5]. Il existe également des preuves que les infrasons interagissent avec le métabolisme cellulaire et entraînent une fibrose périvasculaire chez les rats, d’après Lousinha (2018) [52]. Des résultats similaires sont présentés dans [53] [54] [55]. Les données empiriques des études expérimentales montrent clairement que l’exposition à l’IFLN entraîne une augmentation des ROS [56]. Des preuves positives ressortent également de l’étude de Chaban et al [57] et, fait très notable, l’effet direct sur les cellules est démontré dans l’étude intitulée Effect of infrasound on the growth of colorectal carcinoma in mouse (Effet des infrasons sur la croissance du carcinome colorectal chez la souris) [58]. En médecine clinique, on s’interroge actuellement sur les avantages possibles des infrasons dans le traitement du carcinome colorectal humain. Les résultats de la revue de Roos, W et Vahl, CF (2021) [45], qui se concentrent sur les preuves de l’interaction des structures cellulaires, respectivement des structures membranaires sensibles, dans une réaction de stress, apportent de nombreuses preuves d’un effet direct sur les cellules et les membranes. Une perturbation possible de la microcirculation est discutée. Une évaluation positive dans cette direction est également l’analyse de Dumbrille, A et al. (2021) [59] : Cette évaluation aboutit à la causalité des effets néfastes sur la santé (ADH) et du facteur de stress dans tous les « critères de Bradford Hill ». Des effets indésirables sur les animaux ont été signalés, qui ont révélé non seulement des réactions de stress, mais aussi des effets négatifs sur la fertilité, le développement et la reproduction [60]. En ce qui concerne le critère de Bradford-Hill, les analyses ont montré une détérioration manifeste des performances mentales des habitants vivant dans un rayon de 1,4 km autour des éoliennes et de ceux vivant en dehors de ce rayon [61]. Les plaintes augmentent lorsque les fréquences s’approchent des plus basses (dans l’exemple mentionné, 0,2 Hz) [62].

La « nurse cohort study » (étude de cohorte d’infirmières) présente des preuves positives de la fréquence de la fibrillation auriculaire [63]. Voici ce que j’en pense : le développement de la fibrillation auriculaire en l’absence d’hypoxémie correspond à des changements structurels et donc à des conditions de perturbation de l’électromécanique.

4.2. Réévaluation des découvertes pathohistologiques

Des recherches [50] sur la symptomatologie des groupes confrontés à l’IFLN dans les années 1980 ont montré un épaississement de la paroi des vaisseaux. Selon les auteurs, les études animales ont montré une quantité anormale de fibrose/collagène dans la trachée, les poumons et la plèvre ; des cils trachéaux et bronchiques endommagés (cisaillés) ; des microvillosités à base d’actine fusionnées dans les cellules en brosse de la trachée et des bronches. L’épaississement de la paroi péricardique a été observé chez des personnes exposées professionnellement à l’ILFN [50] et chez des personnes vivant à proximité de grandes centrales thermiques [51] comme une altération spécifique. La figure 7 montre l’épaississement de la paroi péricardique chez des personnes exposées professionnellement de manière chronique dans les années 80 (appelé syndrome vibroacoustique « syndrome VAD ») par rapport à des personnes non exposées.

La figure 8 présente l’épithélium bronchique non exposé d’un rat en comparaison avec l’épithélium exposé de la figure 9. Les figures montrent les changements dans les microvillosités (actine) avant et après l’exposition. L’interprétation de ces résultats suggère un changement dans l’homéostasie du système d’oxydoréduction vers l’inflammation chronique et la fibrose.

4.3. Soutien éventuellement négatif aux éléments de preuve

Le choix des niveaux de pression acoustique (SPL) en dB dans les études expérimentales est souvent plus élevé que ce que l’on attend des installations IWT.

Objection :

a) Le niveau de pression acoustique en dB (A) ne peut représenter le bruit aérien que dans la partie fréquentielle de l’ouïe (voir cap. 2).

b) L’effet du goutte-à-goutte régulier lorsque l’on vit à proximité des émissions doit être considéré comme un facteur important [64], la durée d’exposition dans la réalité peut souvent être (également pour les groupes sensibles) de 24 heures sur 24, 7 jours sur 7, par jour. En revanche, la durée des études expérimentales sur les animaux est limitée pour des raisons pratiques. Il en va de même pour les pressions sonores plus élevées dans le contexte de l’exposition professionnelle : dans ce cas, les durées d’exposition sont limitées ; les groupes sensibles n’y ont pas accès.

Cependant, le facteur décisif est que la fréquence du bruit n’a pas été reconnue dans son importance (par exemple, l’utilisation de 8 Hz dans Chaban et al. [57]). A cela s’ajoute : le comportement de la propagation du son dans les organismes viscoélastiques diffère à tel point qu’une information décodable sur les filtres passe-bas devient concevable (comparer cap. 2) [22] [30] [35].

Étude Exemplum Poulsen [65] : En conséquence, il n’a trouvé aucune association statistiquement significative entre l’exposition aux infrasons et l’incidence des maladies cardiovasculaires. L’auteur lui-même a relativisé l’étude (par exemple, étude sur un nombre relativement faible de TVN).

4.4. Évaluation des études informatiques

Des parties importantes des déclarations de Mazzag et Barakat 2010 [30] et 2014 Mazzag et al. [22] sont basées sur des modèles informatiques. Comme nous l’avons déjà mentionné, les auteurs eux-mêmes font référence aux limites et aux résultats possibles.

Figure 7. Description originale : Microscopie optique (100×) — péricarde d’un patient ayant subi un DAV, avec le sac péricardique à droite. Cinq couches (au lieu des trois normales) sont identifiables : (A) mésothélium, (B) fibrose interne, (C) tissu lâche, (D) fibrose externe et (E) épipéricarde. Le tissu lâche est riche en vaisseaux. Aucune cellularité inflammatoire n’a été identifiée dans les cinq couches. Dans les deux couches fibreuses, des faisceaux de collagène ondulés sont visibles. Cependant, la longueur d’onde des fibres de la couche B (fibrose interne) est plus petite que celle de la couche D (fibrose externe). La quantité accrue de faisceaux de collagène, disposés en accordéon, avec des orientations différentes les uns par rapport aux autres, et avec plus d’une fibre élastique accompagnant les faisceaux à des angles apparemment perpendiculaires (vus en microscopie électronique, non montrés), semble suggérer une structure de type pneumatique, conçue pour absorber des forces externes anormalement importantes. De même, cet arrangement fonctionnel explique également l’absence de dysfonction diastolique, malgré l’épaississement des parois péricardiques. (2) MEB du péricarde d’un patient ne bénéficiant pas d’un DAV. Les trois couches normales sont visibles : le mésothélium (flèche blanche), la fibrose (flèche noire) et l’épipéricarde. (3) MEB du péricarde d’un patient VAD. La fibrose s’est divisée en deux moitiés (flèches) qui prennent en sandwich une couche de tissu lâche nouvellement formée (L). Notez que l’échelle est la même en (2) et en (3). La forme ondulée des faisceaux de collagène est une méthode mécaniquement efficace sur le plan énergétique pour faire face au mouvement que la fibrose doit constamment subir pour suivre le rythme du cycle cardiaque. Comme un accordéon, les faisceaux de collagène s’étendent et se contractent respectivement en diastole et en systole. Cependant, lors d’un épisode de tachycardie soudaine et violente (fréquente chez les patients VAD), ce rythme peut être considérablement augmenté (jusqu’à 200 battements par minute, en quelques secondes) et le stress mécanique imposé à la monocouche MC peut menacer son intégrité structurelle. L’une des fonctions de la couche de tissu lâche doit certainement être l’apport de sang et de nutriments à cet organe beaucoup plus grand. Remarques : micrographies de l’ultrastructure, obtenues par microscopie électronique à balayage (SEM) et à transmission (TEM). Paroi péricardique chez des personnes exposées et non exposées 1) exposée (microscopie optique) 2) non exposée (MEB) et 3) exposée (MEB) [50] Alves-Pereira M., Branco C. (2007) Vibroacoustic disease: biological effects of infrasound and low-frequency noise explained by mechanotransduction cellular signaling http://www.sciencedirect.com/science/article/pii/S0079610706000927. Page 11 FIG 2. Avec l’autorisation de l’auteur.

Citation des auteurs [22] Page 96 :

« Il est donc essentiel que les modèles soient validés dans la mesure du possible par rapport aux données expérimentales. Ce n’est qu’après une telle validation que les modèles mathématiques peuvent potentiellement tenir leur promesse de fournir des outils puissants et prédictifs pour étudier la dynamique et l’organisation spatio-temporelle des réponses induites mécaniquement dans les cellules ».

Ma déclaration : Plusieurs prédécesseurs [27] [33] [34] [35] ont effectué des travaux préparatoires essentiels pendant des années, avec des preuves solides ; l’ensemble du processus de mécanotransmission est hautement dynamique, avec de nombreuses voies imbriquées les unes dans les autres. Des modèles informatiques sont nécessaires pour obtenir la meilleure approximation possible des processus dynamiques afin d’améliorer la compréhension de la mécanotransduction cellulaire. Le travail complémentaire de Na (2008) [35] en tant qu’étude expérimentale est l’une des études expérimentales requises, qui confirme les modèles mathématiques. Aucune étude dans ce sens n’a été réalisée sur des sources techniques émettant des infrasons.

Figure 8. Description originale (MEB) Épithélium bronchique non exposé. La BC au centre de l’image présente une touffe de microvillosités individuellement identifiables, uniformément réparties et s’élevant vers les voies respiratoires. Autour de la BC se trouvent des SC avec des microvillosités de différentes tailles. Des touffes de cils comportant des vésicules sont également visibles. Aucun cil cisaillé, hirsute ou flétri n’est visible (SEM). Aucun œdème n’est présent. BC (cellules en brosse), SC (cellules sécrétoires). Épithélium bronchique de rat, exposé à 2160 heures d’IFLN en continu.
Figure 9. Description originale (MEB) Épithélium bronchique de rat exposé à 2160 h d’ILFN en continu. Une BC se trouve au centre de l’image. Ses microvillosités ne poussent pas vers le haut et ont fusionné, formant une indentation centrale qui semble s’étendre vers l’extérieur. Les SC proéminents qui entourent la BC sont gonflés et forment des vallées profondes au niveau des jonctions intercellulaires. Les microvillosités des CS sont très irrégulières. Des vésicules ciliaires sont visibles. Micrographies de l’ultrastructure, obtenues par microscopie électronique à balayage (MEB) et à transmission (MET). BC (cellules en brosse), SC (cellules sécrétoires). Épithélium bronchique de rat, exposé à 2160 h d’IFLN en continu.

4.5. Régulation extrinsèque supplémentaire de la microcirculation

L’influence de la partie extrinsèque sur la fonction vasomotrice via le système nerveux autonome est la partie variable qui dépend fortement des capacités individuelles à compenser les facteurs de stress. Il s’agit d’un facteur d’influence supplémentaire qui explique probablement pourquoi des personnes se trouvant dans le même environnement ne réagissent pas de la même manière dans leur symptomatologie. La comparaison entre une charge de stress à court terme et une charge de stress permanente permet d’envisager les résultats suivants : au bout d’un certain temps, les possibilités de compensation des systèmes biologiques sont épuisées.

4.6. Premières recherches et méthodes proposées

Pour plus de confirmation, nous proposons un plan expérimental avec un nombre déterminé de sujets exposés aux infrasons par rapport à des sujets non exposés. Le groupe positif est exposé à un agent stressant infrasonore défini en termes de fréquence, de pression acoustique p in (Pa), de profil temps/effet (impulsivité) et de durée. Il s’agit d’une étude en double aveugle, en mode marche/arrêt, avec la technique de vidéomicroscopie SDF, qui permet d’examiner la vasomotion sensible de la muqueuse buccale. Des expériences animales correspondantes sont envisageables pour évaluer les modifications vasomotrices directes sous infrasons (par exemple chez le hamster via la joue). Les indications sur les modifications du comportement animal et du comportement reproductif chez les vertébrés et les non-vertébrés constitueraient un complément significatif et une extension de la clarification scientifique.

4.7. Importance de notre recherche

La santé vasculaire est étroitement liée à la biodisponibilité du NO. La classification des éventuels facteurs environnementaux nuisibles est d’une grande importance pour le maintien de la santé vasculaire. Les groupes de population particulièrement sensibles doivent être le banc d’essai. Notre hypothèse peut aider à définir les stades sensibles à la mécanotransmission de fréquences profondes de « bruit ».

5. Méthodes établies pour évaluer et visualiser les processus microcirculatoires

La microcirculation peut être visualisée in vivo sur les nouveau-nés via la peau, sur les adultes via la muqueuse buccale [1]. Les changements, en particulier dans la vasomotion, peuvent être détectés immédiatement et sont reproductibles. Les techniques appropriées sont les techniques de vidéomicroscopie telles que l’imagerie SDF (side stream dark field). Une meilleure visualisation de la microcirculation in vivo est devenue possible [66]. La microcirculation dans le contexte des maladies peut être visualisée et quantifiée immédiatement après l’exposition au facteur de stress, ainsi qu’en son absence. Les paramètres qui peuvent être spécifiquement observés sont les suivants :

– La vasomotion intacte en premier ordre
– Un changement instantané de la vasomotion sous l’effet d’un facteur de stress défini
– La densité fonctionnelle des vaisseaux sanguins (FVD) (mm/mm2)
– La vitesse d’écoulement des globules rouges (RBCV)
– Nombre de capillaires perfusés (N/A) (n/mm2)
– Diamètre du vaisseau capillaire (DM)
– L’épaisseur du glycocalyx en μm (envisageable pour d’autres projets de recherche).

6. Pistes de recherche proposées ; questions relatives à la cible

– Dans quelles conditions définies le bruit ayant certaines propriétés affecte-t-il la transduction mécanique des signaux au niveau cellulaire (par exemple les composants membranaires, le cytosquelette) et/ou l’interaction cellule-cellule ?
– Quels sont les mécanosenseurs, les structures définies, qui sont spécifiquement sensibles ? Quel rôle jouent les canaux PIEZO-1 ?
– Quelle pression acoustique est nécessaire à une certaine fréquence pour obtenir une réponse de transfert ?
– Quel rôle spécifique jouent les effets de résonance ?
– Quel est le rôle spécifique des canaux PIEZO-2 dans la perception des fréquences profondes ?
– Quels sont les paramètres permettant de mettre en évidence l’émergence d’un déséquilibre du système redox et de distinguer en même temps l’aggravation de l’athérosclérose dans ses causes ?

7. Les conclusions

Pour la première fois, la symptomatologie des humains et des animaux exposés de manière chronique aux infrasons peut être classée de manière physiopathologique dans une hypothèse cohérente. Cela a été rendu possible par les progrès réalisés dans la connaissance de la mécano-transduction endothéliale, essentielle en tant que fonction vasculaire de caractère vital en réponse à des forces mécaniques. Des processus cellulaires cruciaux tels que la croissance, la différenciation, la migration, l’angiogenèse, l’homéostasie redox et l’inflammation dépendent simultanément des forces mécaniques et de l’intégrité de l’endothélium.

Normalement, le flux dans la microcirculation des mammifères est laminaire et non variable. Cela est dû à la connexion en amont des vaisseaux de résistance dans les artérioles. Des changements persistants dans les modèles de contrainte de cisaillement, en particulier le flux oscillatoire, ont été associés à une diminution de la biodisponibilité du NO, à une augmentation des espèces réactives de l’oxygène (ROS), à des taux d’oxydation des lipoprotéines plus élevés, à une augmentation de l’apoptose endothéliale, à une pro-athérogénicité, à une inflammation chronique et à un développement possible du cancer. Nous avons des preuves positives de notre hypothèse selon laquelle un agent stressant oscillant agissant de manière chronique et présentant certaines conditions en termes de fréquence, de profil temps/effet, de pression sonore et de durée peut induire un champ de stress oscillant et donc déclencher une réaction de stress au niveau cellulaire. Avec les bases cruciales de la mécano-transduction, il existe maintenant des preuves solides et des indicateurs évidents d’une interaction possible des infrasons, en particulier avec des fréquences profondes et un caractère impulsif, comme c’est le cas, par exemple, avec les IWT ou les pompes à chaleur. L’élucidation de la forte dépendance de la mécanotransduction par rapport à la fréquence du « bruit » et l’identification des filaments d’actine et des microtubules en tant que « filtres passe-bas » confirment notre hypothèse. Ainsi, la propagation de l’onde sonore dans l’organisme viscoélastique pourrait devenir une information décodable. La régénération, qui se produirait lors d’une exposition unique ou peu fréquente, ne pourrait pas avoir lieu en cas d’impact chronique. Dans un premier temps, on peut s’attendre à des perturbations fonctionnelles du système vasomoteur orchestré, respectivement de la vasomotion sensible, puis, avec une exposition plus longue, à des lésions pathologiques anatomiquement reconnaissables de l’intégrité endothéliale. Dans ce contexte, les changements structurels qui tendent à s’autorenforcer, comme décrit dans l’exemple du remodelage du cœur, sont importants. En élucidant probablement la voie physiopathologique par laquelle les infrasons/IFLN peuvent conduire aux principaux troubles de la santé, il sera possible de progresser dans la définition de distances de sécurité pour vivre ou travailler avec des installations techniques émettrices. De nombreuses questions scientifiques restent sans réponse, mais il existe suffisamment de preuves pour suggérer que, par mesure de précaution, les nouvelles technologies impliquant des fréquences très basses et/ou des émissions impulsives ayant un impact potentiel sur les organismes vivants devraient être limitées ou mieux évitées jusqu’à ce que toutes les questions soient scientifiquement résolues. Les effets possibles sur les insectes, qui n’ont pas encore été clarifiés, pourraient être d’une grande importance, par exemple pour la biodiversité et la coopération des pollinisateurs, et donc pour la nutrition.

Le décodage des canaux PIEZO-1 aurait déjà dû alerter le public sur les risques potentiels. Les organes internes sont sensibles aux sons et aux vibrations. L’état actuel des connaissances sur la mécano-transduction ainsi que les effets connus du stress oscillatoire et oxydatif vont dans le sens de notre hypothèse et devraient justifier des mesures de précaution urgentes et des recherches plus approfondies.

Remerciements

Werner Roos, chef émérite du département de biologie pharmaceutique à l’université Martin Luther de Halle, pour son examen critique et ses contributions constructives. Je remercie Manfred Krueger, Berlin, graphiste pour la figure 5.

Clause de non-responsabilité

L’auteur n’a aucun conflit d’intérêts. L’auteur souhaite préciser que : les formes alternatives d’énergie renouvelable, telles que les éoliennes industrielles, sont considérées comme des compléments utiles sur des sites appropriés. Il en va de même pour les installations de biogaz, les pompes à chaleur et les centrales thermiques de type bloc. Les données présentées ici ont été examinées dans le cadre d’un seul et unique programme, celui de la recherche scientifique pure. Il n’y a aucun accord commercial, financier ou professionnel.

Conflits d’intérêts

L’auteur ne déclare aucun conflit d’intérêts concernant la publication de cet article.

Références

[1] Nussbaum, C.F. (2017) Neue Aspekte der Mikrozirkulation im Rahmen von Entzündung, Entwicklung und Erkrankung. Kumulative Habilitationsschrift zur Erlangung der Venia Legendi. Fach Pädiatrie. Université Ludwig-Maximilians de Munich. Kinderklinik und Kinderpoliklinik im Dr. von Haunerschen Kinderspital. München.

[2] Sperando, M. et Brandes, R. (2019) Kap. 20. Mikrozirkulation. In: Brandes, R., Lang, F., Schmidt, R.F., Eds, Physiologie des Menschen mit Pathophysiologie, Springer, Vol. 32, 241-256.

[3] Fernandes, C.D., Araujo Thaıs, S., Laurindo, F.R.M. et Tanaka, L.Y. (2018) Cap. 7. Forces hémodynamiques dans l’endothélium. Mécanotransduction à Implications sur le développement de l’athérosclérose. In: Da Luz, P.L., Libby, P., Laurindo, F.R.M. et Chagas, A.C.P., Eds, Endothelium and Cardiovascular Diseases. Vascular Biology and Clinical Syndromes, Mica Haley, Sao Paolo, 85-94.

[4] Durán, W.N., Sánchez, F.A. et Breslin, J.W. (2011) Microcirculatory Exchange Function. In: Comprehensive Physiology. Programme de biologie vasculaire, États-Unis.

[5] de Wit, C., Wölfle, S.E. et Höpfl, B. (2006) Connexin-Dependent Communication within the Vascular Wall: Contribution to the Control of Arteriolar Diameter. Advances in Cardiology, 42, 268-283.
https://doi.org/10.1159/000092575

[6] Moore, P.R., Dyson, A., Singer, M. et Frazer, J. (2015) Microcirculatory Dysfunction and Resuscitation: Why, When, and How. British Journal of Anaesthesia, 115, 366-375.
https://doi.org/10.1093/bja/aev163

[7] Voets, T. et Nilius, B. (2009) TRPCs, GPCRs and the Bayliss Effect. The EMBO Journal, 28, 4-5.
https://doi.org/10.1038/emboj.2008.261

[8] Chien, S. (2007) Mechanotransduction and Endothelial Cell Homeostasis: The Wisdom of the Cell. The American Journal of Physiology-Heart and Circulatory Physiology, 292, H1209-H1224.
https://doi.org/10.1152/ajpheart.01047.2006

[9] Jones, T. W. (1854) Discovery That the Veins of the Bat’s Wing Are Endowed with Rhythmical Contractility, and That Onward Flow of Blood Is Accelerated by Each Contraction (Découverte que les veines de l’aile de la chauve-souris sont dotées d’une contractilité rythmique et que le flux sanguin vers l’avant est accéléré par chaque contraction). Philosophical Transactions of the Royal Society of London, 142, 131-136.
https://doi.org/10.1098/rstl.1852.0011

[10] Aalkjaer, C. et Mulvany, M. J. (2020) Structure et fonction de la microcirculation. In: Agabiti-Rosei, E., Heagerty, A.M. et Rizzoni, D., Microcirculation in Cardiovascular Diseases, Springer, Berlin, 1-14.
https://doi.org/10.1007/978-3-030-47801-8_1

[11] Laurindo, F.R.M., Liberman, M., Fernandes, D.C. et Leite Paulo, F. (2018) Cap. 8. Vasodilatation dépendante de l’endothélium : Nitric Oxide and Other Mediators. In: Da Luz, P.L., Libby, P., Laurindo, F.R.M. et Chagas, A.C.P., Eds, Endothelium and Cardiovascular Diseases. Vascular Biology and Clinical Syndromes, Mica Haley, Sao Paolo, 97-98.

[12] Espey, M.G., Miranda, K.M., Thomas, D.D., Miranda, K.M. et Wink, D.A. (2002) A Chemical Perspective on the Interplay between NO, Reactive Oxygen Species, and Reactive Nitrogen Oxide Species. Annales de l’Académie des sciences de New York, 962, 195-206.
https://doi.org/10.1111/j.1749-6632.2002.tb04068.x

[13] Wink, A.A. et Mitchell, J. (1998) Chemical Biology of Nitric Oxide: Insights into Regulatory, Cytotoxic, and Cytoprotective Mechanisms of Nitric Oxide. Free Radical Biology and Medicine, 25, 434-456.
https://doi.org/10.1016/S0891-5849(98)00092-6

[14] Augusto, O., Bonini, M.G., Amanso, A.M. et Linares, E. (2002) Nitrogen Dioxide and Carbonate Radical Anion: Two Emerging Radicals in Biology. Free Radical Biology and Medicine, 32, 841-859.
https://doi.org/10.1016/S0891-5849(02)00786-4

[15] De Wit, C., Hoepfl, B. et Woelfle, S.E. (2006) Endothelial Mediators and Commu-nication through Vascular Gap Junctions. Biological Chemistry, 387, 3-9.
https://doi.org/10.1515/BC.2006.002

[16] Suthahar, N., Meijers, W.C., Silljé, H. et de Boer, R. (2017) From Inflammation to Fibrosis-Molecular and Cellular Mechanisms of Myocardial Tissue Remodelling and Perspectives on Differential Treatment Opportunities. Current Heart Failure Reports, 14, 235-250.
https://doi.org/10.1007/s11897-017-0343-y

[17] Ley, K., Laudanna, C., Cybulsky, M.I. et Nourshargh, S. (2007) Getting to the Site of Inflammation: The Leucocyte Adhesion Cascade Updated. Nature Reviews Immu-nology, 7, 678-689.
https://doi.org/10.1038/nri2156

[18] Serhan, C.N., Brain, S.D., Buckley, C.D., Gilroy, D.W., Haslett, C., O’Neill, L.A., Perretti, M., Rossi, A.G. et Wallace, J. (2007) Resolution of Inflammation: State of the Art, Definitions and Terms. FASEB Journal, 21, 325-332.
https://doi.org/10.1096/fj.06-7227rev

[19] Nussbaum, C. et Sperando, M. (2011) Innate Immune Cell Recruitment in the Fetus and Neonate. Journal of Reproductive Immunology, 90, 74-81.
https://doi.org/10.1016/j.jri.2011.01.022

[20] Nussbaum, C., Klinke, A., Matti, A., Baldus, S. et Sperando, M. (2013) Myeloper-oxidase : A Leucocyte-Derived dans la résolution de l’inflammation aiguë. Immunity, 40, 315-327.

[21] Buckley, C.D., Gilroy, D.W., Charles, N. et Serhan, C.N. (2014) Pro-Resolving Lipid Mediators and Mechanisms in the Resolution of Acute Inflammation (Médiateurs lipidiques pro-résolutifs et mécanismes dans la résolution de l’inflammation aiguë). Immunity, 40, 315-327.
https://doi.org/10.1016/j.immuni.2014.02.009

[22] Mazzag, B., Gouget, C., Hwang, Y. et Barakat, A.I. (2014) Cap. 5. Transmission des forces mécaniques via le cytosquelette dans les cellules endothéliales vasculaires. In: Rosado, J.A. et Redondo, P.C., Eds, Endothelial Cytoskeleton, CRC Press, Boca Raton, 91-115.

[23] Hahn, C. et Schwartz, M.A. (2009) Mechanotransduction in Vascular Physiology and Atherogenesis. Nature Reviews Molecular Cell Biology, 10, 53-62.
https://doi.org/10.1038/nrm2596

[24] Guimarães Di Stasi, M. et Pratschke, A. (2020) Acting Cybernetically in Architec-ture: Homeostasis and Synergy in the Work of Buckminster Fuller, Fuller, R.B. (1975). Cybernetics and Human Knowing, 27, 65-88.

[25] Shimizu, Y. et Garci, J.G.N. (2014) Cap. 1. Le cytosquelette endothélial. Rôle multifonctionnel du cytosquelette endothélial d’actomyosine. In: Rosado, J.A. et Redondo, P.C., Eds, Endothelial Cytoskeleton, CRC Press, Boca Raton, 1-26.

[26] Dudek, S., Jacobson, J., Chiang, E., et al. (2004) Pulmonary Endothelial Cell Barrier Enhancement by Sphingosine 1-Phosphate: Rôles de la Cortactine et de la Myosine Light Chain Kinase. Journal of Biological Chemistry, 279, 24692-24700.
https://doi.org/10.1074/jbc.M313969200

[27] Wang, L. et Dudek, S.M. (2009) Regulation of Vascular Permeability by Sphingosine 1-Phosphate. Microvascular Research, 77, 39-45.
https://doi.org/10.1016/j.mvr.2008.09.005

[28] Lee, T.Y. et Gotlieb, A.I. (2003) Microfilaments and Microtubules Maintain Endothelial. Microscopy Research and Technique, 60, 115-127.
https://doi.org/10.1002/jemt.10250

[29] Belvitch, P., Htwe, Y.M., Brown, M.E. et Dudek, S. (2018) Cortical Actin Dynamics in Endothelial Permeability. In: Belvitch, P. et Dudek, S., Eds, Current Topics in Membranes, Elsevier, Amsterdam, 141-195.
https://doi.org/10.1016/bs.ctm.2018.09.003

[30] Mazzag, B. et Barakat, A.I. (2010) The Effect of Noisy Flow on Endothelial Cell Mechanotransduction: A Computational Study. Annals of Biomedical Engineering, 39, 911-921.
https://doi.org/10.1007/s10439-010-0181-5

[31] Davies, P.F., Spaan, J.A. et Krams, R. (2005) Shear Stress Biology of the Endothelium. Annals of Biomedical Engineering, 33, 1714-1718.
https://doi.org/10.1007/s10439-005-8774-0

[32] Helmke, B.P., Goldman, R. et Davies, P.F. (2000) Rapid Displacement of Vimentin Intermediate Filaments in Living Endothelial Cells Exposed to Flow. Circulation Research, 86, 745-752.
https://doi.org/10.1161/01.RES.86.7.745

[33] Hsu, H.-J., Lee, C.-F., Locke, A., Vanderzyl, S.Q. et Kaunas, R. (2010) Stretch-Induced Stress Fibre Remodelling and the Activations of JNK and ERK Depend on Mechanical Strain Rate, but Not FAK. PLOS ONE, 5, e12470.
https://doi.org/10.1371/journal.pone.0012470

[34] Hwang, Y., Gouget Cecile, L.M. et Barakat, A.I. (2012) Mechanisms of Cytoskeleton-Mediated Mechanical Signal Transmission in Cells. Communicative & Integrative Biology, 5, 538-542.
https://doi.org/10.4161/cib.21633

[35] Na, S., Collin, O., Chowdhury, F., Tay, B., Ouyang, M., Wang, Y. et Wang, N. (2008) Rapid Signal Transduction in Living Cells Is a Unique Feature of Mechanotransduction. Proceedings of the National Academy of Sciences of the United States of America, 105, 6626-6631.

[36] Donati, A., Damiani, E., Domizi, R., Romano, R., Adrario, E., Pelaia, P. et Singer, M. (2013) Alteration of the Sublingual Microvascular Glycocalyx in Critically Ill Pa-tients. Microvascular Research, 90, 86-89.
https://doi.org/10.1016/j.mvr.2013.08.007

[37] Pries, A.R. (2016) Coronary Microcirculatory Pathophysiology: Can We Afford It to Remain a Black Box? European Heart Journal, 38, 478-488.
https://doi.org/10.1093/eurheartj/ehv760

[38] Rode, B., Shi, J., Endesh, N., Drinkhill, P., Webster, P.J., Lotteau, S., et al. (2017) Piezo1 Channels Sense Whole Body Physical Activity to Reset Cardiovascular Homeostasis and Enhance Performance (Les canaux Piezo1 détectent l’activité physique du corps entier pour réinitialiser l’homéostasie cardiovasculaire et améliorer les performances). Nature Communications, 8, article n° 350.
https://doi.org/10.1038/s41467-017-00429-3

[39] Lai, A., Chen, Y.C., Cox, C.D., Jaworowski, A., Peter, K. et Baratchi, S. (2020) Analyzing the Shear-Induced Sensitization of Mechanosensitive Ion Channel Piezo-1 in Human Aortic Endothelial Cells. Journal of Cellular Physiology, 236, 2976-2987.
https://doi.org/10.1002/jcp.30056

[40] Lewin, G. (2018) Molekulare Physiologie der somatosensorischen Wahrnehmung. Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft. Gruppenleiter. Pressemitteilung Nr. 5./15. März 2018/Berlin.
https://www.mdc-berlin.de/de/news/press/wie-zellen-sich-vor-mechanischer-ueberreizung-schuetzen

[41] Exposition à des forces mécaniques inanimées (rubriques W20 à W49).
https://www.icd10data.com/ICD10CM/Codes/V00-Y99/W20-W49

[42] Causes externes/exposition à un autre mécanisme.
https://icd.who.int/browse11/l-m/en#/http://id.who.int/icd/entity/1574666141

[43] Evans, A. (2017) Environmental Noise Pollution : La santé publique est-elle devenue trop utilitaire ? Open Journal of Social Sciences, 5, 80-107.
https://doi.org/10.4236/jss.2017.55007

[44] Pilger, C. et Ceranna, L. (2017) The Influence of Periodic Wind Turbine Noise on Infrasound Array Measurements. Journal of Sound and Vibration, 388, 188-200.
https://doi.org/10.1016/j.jsv.2016.10.027

[45] Roos, W. et Vahl, C.F. (2021) Infraschall aus technischen Anlagen. Wissenschaftliche Grundlagen für eine Bewertung gesundheitlicher Risiken. ASU Arbeitsmed Sozialmed Umweltmed, 56, 420-430.
https://doi.org/10.17147/asu-2107-7953

[46] Vanderkooy, J. et Mann, R. (2014) Measuring Wind Turbine Coherent Infrasound.

[47] Douglas, C. et Giancoli, D.C. (2019) Physik. Vol. 4, Pearson Deutschland GmbH, München.

[48] Krahé, D., Schreckenberg, D., Ebner, F., Eulitz, C. et Möhler, U. (2014) Machbar-keitsstudie zu Wirkungen von Infraschall. Entwicklung von Untersuchungsdesigns für die Ermittlung der Auswirkungen von Infraschall auf den Menschen durch unterschiedliche Quellen. Verlag Umweltbundesamt.
https://www.umweltbundesamt.de/publikationen/machbarkeitsstudie-zu-wirkungenvon-infraschall

[49] Weichenberger, M., Bauer, M., Kühler, R., et al. (2017) Altered Cortical and Subcortical Connectivity due to Infrasound Administered near the Hearing Threshold-Evidence from fMRI (altération de la connectivité corticale et sous-corticale due à des infrasons administrés près du seuil d’audition — preuves issues de l’IRMf). PLOS ONE, 12, e0174420.
https://doi.org/10.1371/journal.pone.0174420

[50] Alves-Pereira, M. et Branco, C. (2007) Vibroacoustic Disease: Biological Effects of Infrasound and Low-Frequency Noise Explained by Mechanotransduction Cellular Signalling. Progress in Biophysics and Molecular Biology, 93, 256-279.
https://doi.org/10.1016/j.pbiomolbio.2006.07.011
http://www.sciencedirect.com/science/article/pii/S0079610706000927

[51] Branco, C. et Alves-Pereira, M. (2015) Low Frequency Noise-Induced Pathology: Contributions fournies par le cas des éoliennes portugaises. Euronoise 2015, Maastricht, 31 mai-3 juin 2015, 2659-2661.
https://www.researchgate.net/publication/290444707_Low_Frequency_Noise-Induced_Pathology_Contributions_Provided_by_the_Portuguese_Wind_Turbine_Case

[52] Louisinha, A., Oliveira, R.M.J., Borrecho, G., Brito, J., Oliveira, P., Oliveira da Car-valho, A., et al. (2018) Infrasound Induces Coronary Perivascular Fibrosis in Rats. Cardiovascular Pathology, 37, 39-44.
https://doi.org/10.1016/j.carpath.2018.10.004

(53) Liu, Z., Gong, L., Li, X., et al. (2012) Infrasound Increases Intracellular Calcium Concentration and Induces Apoptosis in Hippocampi of Adult Rats. Molecular Medicine Reports, 5, 73-77.
https://doi.org/10.3892/mmr.2011.597

(54) Pei, Z., Chen, B. Y., Tie, R., et al. (2011) Infrasound Exposure Induces Apoptosis of Rat Cardiac Myocytes by Regulating the Expression of Apoptosis-Related Proteins. Cardiovascular Toxicology, 11, 341-346.
https://doi.org/10.1007/s12012-011-9126-y

[55] Zhang, M. Y., Chen, C., Xie, X. J., et al. (2016) Damage to Hippocampus of Rats after Being Exposed to Infrasound. Biomedical and Environmental Sciences, 29, 435-442.

(56) Zhou, X., Yang, Q., Song, F., et al. (2020) Tetrahydroxystilbene Glucoside Ameliorates Infrasound-Induced Central Nervous System (CNS) Injury by Improving Antioxidant and Anti-Inflammatory Capacity. Oxidative Medicine and Cellular Longevity, 2020, Article ID: 6576718.
https://doi.org/10.1155/2020/6576718

[57] Chaban, R., Ghazy, A., Georgiadem, E., Stumpf, N. et Vahl, C.F. (2021) Negative Effect of High-Level Infrasound on Human Myocardial Contractility: In Vitro Controlled Experiment. Noise Health, 23, 57-66.

[58] Zhang, H., Qi, P., Si, S.Y. et Ma, W.M. (2013) Effect of Infrasound on the Growth of Colorectal Carcinoma in Mouse. Chinese Journal of Cancer Prevention and Treatment, 20, 1145-1149.

[59] Dumbrille, A., McMurtry, R.Y. et Krogh Marie, C. (2021) Wind Turbines and Adverse Health Effects: Applying Bradford Hill’s Criteria for Causation. Environmental Disease, 6, 65-87.

[60] Bittner-Mackin, E. (2006) Excerpts from the Final Report of the Township of Lincoln Wind Turbine Moratorium Committee. Zoning Board of Appeals, Bureau County.
http://www.aweo.org/windlincoln.html

[61] Nissenbaum, M.A., Aramini, J.J. et Hanning, C.D. (2012) Effects of Industrial Wind Turbine Noise on Sleep and Health. Noise Health, 14, 237-243.
https://www.noiseandhealth.org/text.asp?2012/1460/237/102961
https://doi.org/10.4103/1463-1741.102961

[62] Walker, B., George, F., Hessler, D.M., Rand, R. et Schomer, P. (2012) A Coopera-tive Measurement Survey and Analysis of Low Frequency and Infrasound at the Shirley Wind Farm in Brown County, Wisconsin. Report Number 122412-1 (Issued: December 24, 2012). Cooperative Measurement Survey.
https://puc.sd.gov/commission/dockets/electric/2018/EL18-003/testimony/testimony/mogen/Noise%20Exhibit%204.pdf

[63] Bräuner, E.V., Jørgensen, J.T., Duun-Henriksen, A.K., Backalarz, C., Laursen, J.E., Pedersen, T.H., Simonsen, M.K. et Andersen, Z.J. (2019) Long-Term Wind Tur-bine Noise Exposure and the Risk of Incident Atrial Fibrillation in the Danish Nurse Cohort (Exposition à long terme au bruit des turbines à vent et risque de fibrillation auriculaire dans la cohorte des infirmières danoises). Environment International, 130, Article ID: 104915.
https://doi.org/10.1016/j.envint.2019.104915

[64] Nguyen, D.P., Hansen, K. et Zajamsek, B. (2018) Characterizing Tonal Amplitude Modulation of Wind Farm. Conférence Australian Acoustic Society, Brisbane, 6 novembre 2018, 581-590.
https://www.acoustics.asn.au/conference_proceedings/AAS2018/abstracts/themes-papers.htm#p101

[65] Poulsen, H., Raaschou-Nielsen, O., Hahmann, P.A. andrea, N., Nordsborg, B.R., Ketzel, M., et al. (2019) Long-Term Exposure to Wind Turbine Noise and Risk for Myocardial Infarction and Stroke, a Nationwide Cohort Study (Exposition à long terme au bruit des éoliennes et risque d’infarctus du myocarde et d’accident vasculaire cérébral, une étude de cohorte nationale). Environmental Health Perspectives, 127, article n° 37004.
https://doi.org/10.1289/EHP3340

[66] De Backer, D., Ospina-Tascon, G., Salgado, D., Favory, R., Creteur, J. et Vincent, J. (2010) Monitoring the Microcirculation in the Critically Ill Patient: Current Methods and Future Approaches. Intensive Care Medicine, 36, 1813-1825.
https://doi.org/10.1007/s00134-010-2005-3




Un professeur de biologie de l’Arizona démissionne en raison de l’addiction de ses élèves à leur téléphone portable

[Source : aubedigitale.com]

Par Gabriel Hays

Un professeur de lycée de l’Arizona démissionne en raison de l’addiction de ses élèves… à leur téléphone.

L’utilisation constante des smartphones dans sa classe a poussé Mitchell Rutherford, du lycée Sahuaro, à déclarer la semaine dernière à Fox News qu’il « abandonnait » son métier de professeur de biologie parce qu’il ne pouvait pas contrôler l’utilisation des téléphones.

« J’ai eu des problèmes de santé mentale cette année, principalement à cause de ce que j’ai identifié comme étant une dépendance au téléphone chez les élèves », a-t-il commenté.

Après avoir enseigné pendant 11 ans, il a démissionné. Il a déclaré la semaine dernière qu’il avait mis en œuvre une « variété de plans de cours » pour essayer de faire comprendre à ses élèves les effets négatifs de l’utilisation constante du téléphone.

« Voici un crédit supplémentaire, vérifions votre temps d’écran, créons des habitudes, faisons une unité sur le sommeil et pourquoi le sommeil est important et comment réduire l’utilisation de votre téléphone pour une routine au coucher, et nous en avons parlé tous les jours et avons créé un panier appelé “prison de téléphone” », a-t-il déclaré à Fox News.

Il a comparé les téléphones à d’autres dépendances dans la région : « Les opioïdes, évidemment un énorme problème, la cocaïne, l’héroïne, toutes ces drogues, l’alcool, tout cela est un gros problème, mais le sucre est encore plus important que cela, et les téléphones encore plus ».

Selon lui, « quelque chose a changé » chez les enfants pendant la pandémie de Covid-19 et leur dépendance à l’égard de leur téléphone s’est aggravée.

Des études récentes indiquent que les perturbations liées aux pandémies ont considérablement nui à l’éducation et à la productivité des élèves de la maternelle à la terminale dans tout le pays. Rutherford a fait part de ses inquiétudes aux médias et s’est d’abord accusé d’être à l’origine des lacunes croissantes en matière d’éducation. Il a noté que certains élèves se désintéressaient ouvertement de l’école, mais il pense finalement que des changements sociétaux sont nécessaires pour inculquer de meilleures habitudes aux enfants.

« En tant que société, nous devons donner la priorité à l’éducation de nos jeunes et à leur protection, et permettre à leur cerveau, à leurs compétences sociales et à leur bonheur de se développer de manière naturelle, sans leur téléphone », conclut-il.

« Une partie de moi a l’impression d’abandonner ces enfants », a-t-il déclaré, ajoutant : « Je dis tout le temps aux enfants de faire des choses difficiles, et maintenant je m’en vais ? Mais j’ai décidé d’essayer quelque chose d’autre qui ne me consume pas complètement et ne m’épuise pas. »




Dans l’univers des soins

[Source : apocalypseenapproche.wordpress.com]

Par Amal

Les futurs dentistes

Georgette et Olivette sont étudiantes à l’hôpital universitaire bucco-dentaire. Elles ont vingt-deux ans. Elles ont un visage angélique. Elles ont une voix douce et elles sont charmantes quand on les voit la première fois. Les deux jeunes filles se ressemblent : les mêmes charlottes colorées, les mêmes perles autour du cou, les mêmes boucles d’oreilles en or, les mêmes crocs colorés, les mêmes masques roses et les mêmes tenues. Elles ne sont pas sœurs, mais c’est tout comme. Il y a chez elles une attitude détendue, décomplexée et je dirai un peu trop cool. Elles veulent sympathiser avec le patient. Elles se racontent des anecdotes en riant. Elles parlent de leurs examens. Elles parlent de leurs parents. Elles parlent de leurs professeurs. Elles travaillent lentement, sans organisation et sans méthode. Elles enfilent les gants, touchent la poubelle et reviennent vous mettre ça dans votre bouche sans tilter. Elles font tomber des objets qu’elles réutilisent sans désinfecter.
Georgette et Olivette n’aiment en faire qu’à leur tête, si une consigne d’un professeur ne leur convient pas, elles ne la suivent pas. Si un professeur leur fait une critique, elles se vexent et râlent. Elles sont de mauvaise foi aussi. Elles se comportent comme des petites garces gâtées à qui on a tout cédé.
Un jour, elles ont décidé de jouer à un petit jeu de pute. Elles ont donné un rendez-vous. La veille du rendez-vous, elles l’annulent. Elles redonnent un nouveau rendez-vous pour la semaine suivante, qu’elles annulent encore la veille du rendez-vous et le remplacent à nouveau, et cela, pendant deux bons mois.
Elles ont été signalées au chef de service et changées par un nouveau binôme.

Voilà une génération d’incompétents et de capricieux qui arrivera dans deux ans sur le marché du travail. La catastrophe arrive.

Le kiné

Dylan est kiné, c’est un jeune homme de trente ans. Blond, grassouillet et grand. Porte des jeans slim clairs qui lui tombent sur les fesses. Of course, on voit l’élastique de son boxer, car monsieur n’a pas pensé à l’accessoire indispensable qu’est la ceinture. Son haut est une tunique en col V et à manches courtes, portée sans maillot, ce qui permet de découvrir la toison généreuse de son torse. Il lui arrive de mettre un bermuda style jogging avec un t-shirt Mickey Mouse. Je répète, il a trente ans.
Dylan est maniéré comme Gérard dans Les filles d’à côté. Au début, j’ai cru que c’était une « Tata », mais à la deuxième ou troisième séance, il m’a confié qu’il était en couple avec une jeune femme et qu’il avait un enfant.
Bref, c’est Dylan, la pipelette, le moulin à parole très haut débit. Il ne peut pas rester une minute sans sortir un mot de sa bouche. Il en est conscient et s’en fout.
Il parle de tout et de rien avec une légèreté inquiétante. Il accepte mes points de vue, mais n’est pas affecté.
Il entend ce que je dis, mais ne percute pas. Il est de glace quand je lui fais observer les défaillances de notre monde. Il constate les changements, mais ne s’en inquiète pas.
J’ai parlé avec lui de politique, de l’actualité nationale et internationale et du wokisme. Sans surprise, il est indifférent.

Je lui demande si ça ne le gêne pas que dans notre petite ville de campagne, on croise un mec en robe et talons hauts. Il me répond : « Ah, je crois bien que je sais de qui vous parlez. » Oui et ? Il s’en fout. Il ne percute pas du danger qui s’approche et du poison qui se dilue petit à petit. Pour Dylan, l’essentiel, c’est les potins et de raconter sa life [sa vie].
Fin du massage, il m’accompagne en chantonnant, tout joyeux et heureux. Il a déjà oublié notre conversation.
Au revoir et bon week-end !

Le spécialiste

Le docteur Ahmed est un homme grand, imposant et très calme. Il parle mal français et l’écrit comme il peut. D’ailleurs, dans son dernier rapport, il m’a recommandé « la mère » au lieu de « la mer » ; ou il a de l’humour noir.
Le docteur Ahmed a un immense bureau, avec des meubles des années soixante-dix. Il y a des fauteuils, des objets médicaux çà et là, des posters… Il a une grande bibliothèque. On a l’impression d’être avec « El maestro » de la spécialité.

Le docteur Ahmed a hélas vite montré ses limites, à vrai dire. Il n’est pas si perspicace. Il est vague dans ses explications. Il faut insister pour avoir des réponses. Il passe son temps à noter sur son ordinateur. Il est sûr qu’il y a un problème, mais ne s’en inquiète pas. Il faut juste continuer le traitement qui ne marche pas pour être sûr qu’il ne marche pas.
En somme, c’est la même depuis le départ. J’ai un problème, on ne sait pas d’où ça vient ni ce que c’est. Je crois que le mystère va rester tel quel.
Au revoir, prochain rendez-vous dans six mois.
Bon, je crois que le concept de guérison n’est pas dans la philosophie de nos spécialistes.
Je suis déçue du docteur Ahmed. Il est comme les autres.

Conclusion

Afin d’éviter d’avoir affaire aux susnommés, je vais essayer de suivre le conseil pertinent, mais irréalisable de Jean Castex, celui d’éviter de tomber malade.

[Note de Joseph : C’est visiblement la plus sage des résolutions ; et la probablement meilleure prévention consiste à maintenir son homéostasie interne et son équilibre sur les divers autres plans, ceci par :
– une alimentation saine (pas d’aliments ultra-transformés ou empoisonnés, mais bio…), variée et modérée ;
– l’absence d’injection de vaccins et de pseudo vaccins ;
– l’absence d’absorption de drogues allopathiques (privilégier les plantes médicinales [tisanes, décoctions, onguents, huiles essentielles…], les médecines douces et naturelles, en cas de besoin) ;
– un environnement sain (sans Wi-Fi à la maison, sans smartphone, sans Bluetooth, pour limiter — tant que faire se peut — l’exposition aux ondes électromagnétiques pulsées, etc. Voir le dossier 5G et ondes pulsées) ;
– une activité physique modérée ;
– suffisamment de sommeil ;
– la gestion du stress (notamment par une philosophie de vie appropriée, par des exercices respiratoires, et/ou par la pratique d’un art martial tel que le Qi Gong) ;
– le domptage des émotions (sans les réprimer, mais en les canalisant et les orientant par le mental et la volonté) ;
– la gestion des pensées (par la méditation, la contemplation…) ;
– le lien à l’essence des choses, de soi-même et de l’Univers (dimension spirituelle).]




Tous nos systèmes sont conçus pour accroître la méchanceté

[Source : caitlinjohnstone.com]

Par Caitlin Johnstone

Dans The Usual Suspects [Les suspects habituels], Kevin Spacey raconte la fable du mystérieux Keyser Soze et comment il est devenu un baron du crime.

« L’histoire que les gars m’ont racontée, l’histoire que je crois, remonte à l’époque où il vivait en Turquie », dit-il. « Il y avait une bande de Hongrois qui voulaient leur propre mafia. Ils ont compris que pour être au pouvoir, il n’était pas nécessaire d’avoir des armes, de l’argent ou même des effectifs. Il suffisait d’avoir la volonté de faire ce que l’autre ne voulait pas faire. »

Le personnage de Spacey décrit la façon dont les Hongrois se sont lancés à la poursuite de Soze et de sa famille pour s’emparer de son trafic de drogue, mais la méchanceté avec laquelle ils l’ont fait n’a rien à voir avec la méchanceté avec laquelle ils ont été accueillis.

« Il a alors montré à ces hommes de volonté ce qu’était vraiment la volonté », déclare Spacey, décrivant la façon dont Soze tue sa propre famille, puis anéantit les familles et les amis de toute la bande hongroise.

Le plus drôle, c’est que si vous observez attentivement la façon dont le pouvoir évolue dans le monde, vous verrez que c’est à peu près ainsi qu’il fonctionne. Les plus vicieux d’entre nous sont élevés au sommet, parce que tous nos systèmes sont construits de manière à élever la méchanceté.

L’empire américain est capable de dominer le monde exactement parce qu’il a « la volonté de faire ce que l’autre ne ferait pas ». Chaque fois que je démontre que les États-Unis sont le régime le plus tyrannique de la planète, quelqu’un admet que c’est vrai, mais affirme que les États-Unis se comportent ainsi uniquement parce qu’ils sont les plus puissants. Tout autre gouvernement doté de la puissance des États-Unis se comporterait avec la même méchanceté, voire pire, affirment-ils.

Je leur réponds toujours qu’ils ont tout faux. Les États-Unis ne sont pas uniquement vicieux parce qu’ils sont le gouvernement le plus puissant du monde, ils sont le gouvernement le plus puissant du monde parce qu’ils sont uniquement vicieux.

Les États-Unis ont mis un point d’exclamation à la fin de la Seconde Guerre mondiale en larguant deux bombes nucléaires sur le Japon, non pas parce qu’ils en avaient besoin (ce n’était pas le cas), mais parce qu’ils voulaient intimider l’Union soviétique. Ils se sont ensuite immédiatement lancés dans une succession de nouvelles guerres et d’opérations stratégiques d’une étonnante méchanceté, dans le but de devenir à terme le dominateur mondial. Ils y sont parvenus à la chute de l’URSS, après quoi ils ont immédiatement institué une politique visant à s’assurer qu’aucune superpuissance rivale ne se développe jamais et ont commencé à travailler à la « domination totale » de la terre, de la mer, de l’air et de l’espace. Tous les grands conflits internationaux actuels sont le résultat direct de ces politiques.

Aucune des personnes qui dirigent la structure du pouvoir impérial qui nous gouverne n’occupe son poste grâce à sa sagesse ou à sa bonté. Les oligarques parviennent au sommet de leurs entreprises et de leurs échelles financières en étant prêts à marcher sur tous ceux qu’ils doivent piétiner pour avancer. Les stratèges militaires accèdent à leur poste en démontrant une aptitude à la domination militaire. Les fonctionnaires des services de renseignement accèdent à leur poste parce qu’ils savent comment faciliter les intérêts de l’empire oligarchique. Les hommes politiques accèdent au sommet en affichant leur volonté de servir le pouvoir impérial.

Et ce principe s’applique de haut en bas à l’ensemble de notre société. Le seul système de valorisation du comportement humain dont nous disposons est l’argent, mais quel comportement humain l’argent valorise-t-il ? La compétitivité rapporte de l’argent. La guerre et le militarisme rapportent de l’argent. L’écocide rapporte de l’argent. La maladie rapporte de l’argent. Les marchandises limitées rapportent de l’argent. L’enchevêtrement du pouvoir des entreprises et de l’État fait de l’argent. La propagande visant à faire croire aux gens qu’ils ont besoin de plus que ce qu’ils ont fait rapporte de l’argent.

Qu’est-ce qui ne rapporte pas d’argent ? La gentillesse. La collaboration. La paix. Une biosphère prospère. La santé. Le bien-être psychologique. La transparence et l’intégrité politiques. Des décisions prises dans l’intérêt de tous. Des sources d’énergie qui ne peuvent être contrôlées par les puissants. L’abondance. Des personnes satisfaites de ce qu’elles ont.

L’argent n’a pas de sagesse. La « main invisible » du marché libre ne valorisera jamais les meilleurs anges de l’Humanité.

Les laboratoires pharmaceutiques ont tout intérêt à valoriser les traitements au détriment de la prévention et de la guérison. L’industrie de l’armement a tout intérêt à attiser les hostilités entre les nations. Les industries écocides ont tout intérêt à s’assurer qu’elles restent capables de violer et de piller notre planète sans intervention légale, tout en se déchargeant du coût des conséquences sur le public. Les entreprises monopolistiques ont tout intérêt à s’imbriquer dans le pouvoir gouvernemental pour se protéger des affaires antitrust.

Tout ce que nous souhaitons pour notre monde — la façon dont nous savons qu’il devrait être au plus profond de notre cœur — est subverti par les systèmes que nous avons mis en place, qui sont tous orientés vers la direction exactement opposée.

Le monde ne connaîtra jamais la paix tant que la guerre sera rentable. Le monde ne connaîtra jamais la santé tant que la maladie sera rentable. L’écosystème ne prospérera jamais tant que l’écocide sera rentable. Nous resterons gouvernés par des tyrans tant que nos systèmes favoriseront la tyrannie.

Pour avoir un monde sain, nous devrons mettre en place des systèmes qui favorisent la santé plutôt que la méchanceté. En attendant, l’attraction gravitationnelle de ces systèmes nous orientera continuellement vers le dysfonctionnement. Espérer que nous pourrons évoluer vers la paix et l’harmonie sans changer ces systèmes revient à se jeter du haut d’une falaise en espérant ne pas tomber.

Nous devons passer de modèles fondés sur la concurrence à des modèles fondés sur la collaboration. Des systèmes qui valorisent le travail en collaboration pour le plus grand bien, à la fois en collaboration les uns avec les autres et avec notre écosystème. Tant que nous ne le ferons pas, nous tomberons à chaque fois.

[Voir aussi :
Changer le Système ?]


Caitlin Johnstone

Mon travail est entièrement financé par les lecteurs, alors si vous avez aimé cet article, n’hésitez pas à le partager, à me suivre sur Facebook, Twitter, Soundcloud ou YouTube, à acheter un numéro de mon magazine mensuel ou à jeter un peu d’argent dans mon pot à pourboires sur Ko-fi, Patreon ou PayPal. Si vous voulez en savoir plus, vous pouvez acheter mes livres. Le meilleur moyen d’être sûr de voir ce que je publie est de s’inscrire à la liste de diffusion sur mon site web ou sur Substack, ce qui vous permettra d’être informé par courriel de tout ce que je publie. Tout le monde, à l’exception des plateformes racistes, a ma permission de republier, d’utiliser ou de traduire n’importe quelle partie de ce travail (ou de tout autre document que j’ai écrit) de la manière qu’il souhaite et gratuitement. Pour plus d’informations sur qui je suis, ma position et ce que j’essaie de faire avec cette plateforme, cliquez ici. Toutes les œuvres sont coécrites avec mon mari américain Tim Foley.




Gogol, Goldman Sachs et les âmes mortes

[Publication initiale : libertepolitique.com]

Par Nicolas Bonnal, le 29 avril 2010

On peut spéculer sur le pétrole, sur les matières premières, sur les produits agricoles, sur la forêt amazonienne ; on peut aussi spéculer sur la ruine des hommes, la ruine des femmes comme Madame Bovary, les dettes des États, et alors bâcler un dossier que l’on aura tôt fait de vendre aux naïfs et aux complices des banques centrales et des gouvernements incapables pour ensuite spéculer encore contre le futur des peuples. Videmus nunc per speculum in aenigmate [Aujourd’hui nous voyons au moyen d’un miroir, d’une manière obscure] comme dit saint Paul à sa foule ébaubie…

Et nous ne sommes pas les seuls. Il y en a d’autres qui voient le monde par leurs écrans et transforment en milliers de milliards de dettes ou de gains ce que la foule anonyme ne comprend pas. Les Grecs et les Portugais se seront ainsi fait avoir par les golden boys comme les Noirs et les Chicanos de la banlieue de Chicago. Et au pays de plonger, et au contribuable d’éponger. Les plus malins s’en sortent, sous les applaudissements de la plèbe et du parterre. Comme la foule ne s’intéresse qu’à la santé de Loana ou aux adoptions de Madonna, cela se fait sans coup férir.

Le gouvernement anglo-saxon est devenu sous Bush et Paulson une des succursales de Goldman Sachs, comme le pouvoir français une succursale de Bettancourt-l’Oréal (Mitterrand jadis, aujourd’hui Woerth, ministre du budget) ou de LVMH (Madame Chirac, connue pour sa connaissance du luxe d’après Bernard Arnault, témoin du deuxième mariage de Sarkozy).

À Trichet, poursuivi en son temps pour les différentes et rocambolesque escroqueries du Crédit Lyonnais (vous vous souvenez de l’incendie ?), succédera l’an prochain un certain Vetri à la tête de la BCE, qui est aussi un banquier de Goldman Sachs, la banque d’affaire des gagneurs, des super Tapie, qui avait organisé avec les cousins oligarques la ruine de la Russie exsangue d’Eltsine, contrainte de brader toutes ses richesses nationales aux mains d’une poignée de voyous, pendant que vingt millions de pauvres hères mouraient faute de soins, de retraites (préparons-nous à perdre les nôtres, comme les Grecs) ou de chauffage, en se saoulant à l’alcool de bois ou à la vodka frelatée de la famille Bronfman.

Ce génocide de slaves est davantage passé inaperçu que celui perpétré par les nazis, mais ne sommes-nous pas dans le Meilleur des Mondes ? Toute thérapie de choc n’a-t-elle pas son prix ?

Le monde qui va venir

J’ai parlé de Gogol, pas de Google (on ne sait jamais, par les temps qui courent…). Dans son chef-d’œuvre inachevé, Gogol, contemporain de quelques génies comme Balzac, Edgar Poe ou bien Dickens, comprend le monde qui va venir. Ces grands auteurs inventent d’ailleurs deux genres littéraires modernes comme le fantastique ou le policier, si caractéristiques de l’époque pancapitalistique. Ils sont conspirationnistes avant l’heure. Dans les Âmes mortes, Gogol décrit la geste amusante de Tchitchikov, affairiste sans scrupules dans lequel on a voulu reconnaître le diable, mais ce serait trop facile…

Le livre se passe à l’époque tsariste. C’est toujours la Russie avec ces espaces infinis, ces tzars inexistants, sa bureaucratie dégoulinante et ses matières premières, ici les hommes. Tchitchikov profite d’une énième absurdité bureaucratique : les propriétaires des serfs payaient des impôts sur les serfs qu’ils possédaient, serfs qu’on appelait donc des âmes.

Or il se trouve que les propriétaires, les barines, comme on disait alors, possédaient ces âmes même après leur mort, jusqu’au prochain recensement, car il y avait déjà des recensements (il y en a même dans la Bible, et le dieu de David lui envoie une peste pour en avoir pratiqué un), et les impôts qui allaient avec. Tchitchikov promet des baisses d’impôts lui aussi… Je vous affranchis et de vos impôts et de vos problèmes… Un vrai ingénieur financier !

Que fait donc Tchitchikov ? Il parcourt la province, la grande plaine russe, et il convainc les propriétaires et autres hobereaux de lui vendre pour une somme modique leurs serfs morts. Il pourra ainsi se constituer une propriété fictive grâce à laquelle il espère ensuite obtenir un bel emprunt. Il spéculera sur ces fonds, pardon ces morts rachetés à bon prix, croître et multiplier. Le roublard deviendra ainsi un pouzaty, un ventru, un de ceux qui posent leur séant quelque part, qui y deviennent puissants et pleins d’espoir.

Il y a quand même une différence entre les gens de Goldman Sachs et Tchitchikov : lui spécule sur des morts (comme nos politiciens qui les font voter), eux sur des vivants ; certes des vivants si stupides dont on ne sait plus s’ils sont vivants.




Covid-19 : les « complotistes » avaient vu juste

Par Me NONOBSTANT

[NDLR L’Histoire récente nous a cependant largement montré que s’élever contre la vaccination pasteurienne ou la fausse vaccination à supposé ARNm n’empêche nullement les entreprises pharmaceutiques de continuer de sévir et de contrôler l’enseignement médical, ni les Bill Gates et autres milliardaires de poursuivre leur agenda eugéniste.
Par contre, si suffisamment de monde en général et de personnels soignants en particulier poussent plus avant leur démarche « complotiste » de remise en question des croyances modernes et creusent plus profond, ils réaliseront probablement et en nombre suffisant la vacuité et l’ineptie scientifique de l’hypothèse virale (abusivement nommée, désormais, « théorie virale »)1, et il n’existera plus mondialement aucun justificatif aux vaccins et autres cocktails thérapeutiques prétendument « antiviraux » ni aux diverses mesures « sanitaires ». Les maladies dites virales ont bien d’autres causes que les virus pathogènes fantomatiques, et les diverses substances utilisées en allopathies pour soi-disant soigner ne contribuent le plus souvent qu’à soulager des symptômes, ceci en produisant de surcroît des effets secondaires plus ou moins nocifs. Consulter le dossier Vaccins et virus permettrait au lecteur d’approfondir le sujet.]





Il faut bannir les traitements médicaux et chirurgicaux de transition chez les mineurs

Par Nicole et Gérard Delépine

Les bloqueurs de puberté ne sont pas anodins et la chirurgie est mutilante et irréversible

Un article de Lucas ROJOUAN, publié le 27 mai dans Ouest France, minimise les risques des bloqueurs de puberté donnés chez les enfants en malaise d’identité sexuelle.

On ne peut pas reprocher à un journaliste politique et sociétal de méconnaître des problèmes médicaux, mais on peut s’étonner des lacunes de son enquête qui ne cite aucun des rapports officiels britannique1, suédois2, finlandais3 4, français5 et des plus de 20 états américains qui ont conduit ces pays à interdire les traitements médicaux chez les mineurs en malaise d’identité sexuelle6, ni les nombreux livres qui étudient en détail ces traitements, références bibliographiques à l’appui7 8.

Il est par exemple stupéfiant qu’il prétende que les « travaux Annelou de Vries font référence sur ces traitements »hormonaux (!) sans qu’il ne s’interroge sur les compétences en hormonothérapie d’une psychiatre et sans qu’il précise qu’il s’agit d’une militante historique affirmée des transformations de genre dont elle vit professionnellement depuis des décennies.

Dans son article, Lucas ROJOUAN paraît victime de sa confiance aveugle en l’Agence France-Presse qui affiche constamment une attitude plus militante qu’objective sur le problème. Notre tribune vise donc à combler les lacunes d’un exposé superficiel, partisan et peu sourcé.

Les bloqueurs de puberté constituent un traitement expérimental de la dysphorie de genre

Les bloqueurs de puberté sont des analogues de l’hormone entraînant la libération de gonadotrophines (GnRH) et visent à suspendre l’apparition et le développement des caractères sexuels secondaires (poitrine, voix, pilosité) relevant du sexe auquel le mineur ne s’identifie pas. Aucun essai randomisé n’a jusqu’ici évalué l’utilité, ni la toxicité des bloqueurs de puberté dans cette indication qui se singularise par sa durée du traitement et sa prescription pour une non-maladie.

C’est pour cette raison qu’ils n’ont pas d’autorisation de mise sur le marché pour traiter les enfants en confusion d’identité sexuelle. Les médecins qui prescrivent ces traitements en dehors de toute autorisation de mise sur le marché engagent leur responsabilité personnelle et s’exposent, en cas de complications, à des plaintes en justice au cours desquelles il leur serait difficile de prétendre avoir convenablement évalué et informé des risques de ce traitement à moyen et long terme.

Johan, suédois traité à l’hôpital Karolinska regrette ses deux années d’hormonothérapie9 :

« On n’aurait jamais dû m’autoriser à faire ça, mon père était très agressif. Beaucoup de violence, de négligence, avec des abus sexuels quand j’étais petit. J’ai réalisé que la dysphorie de genre était une manière de m’échapper d’un corps, qui, je le pensais, m’avait trahi enfant. C’était aussi une forme d’automutilation de faire ça à mon corps, mais c’était inconscient. Le personnel de la clinique savait pour mon enfance… ça aurait dû être un “drapeau rouge”. Parce que maintenant la transition est un traumatisme de plus. Dans mon cas, mes seins ont poussé. Ça ne s’efface pas ».

Keira Bell, Anglaise traitée à la clinique Tavistok, a porté plainte contre l’établissement pour information insuffisante :

« Après une série de conversations superficielles avec des travailleurs sociaux, j’ai été mis sous antipubertaires à 16 ans. Un an plus tard, je recevais des injections de testostérone. À 20 ans, j’ai subi une double mastectomie…En grandissant, j’ai reconnu que la dysphorie de genre était un symptôme de ma misère globale, et non sa cause. Cinq ans après avoir commencé ma transition médicale pour devenir un homme, j’ai entamé le processus de détransition.Les conséquences de ce qui m’est arrivé ont été profondes : une possible infertilité, la perte de mes seins et l’impossibilité d’allaiter, des organes génitaux atrophiés, une voix définitivement altérée, une pilosité faciale… Lorsque j’ai été vu à la clinique de Tavistock, j’avais tellement de problèmes qu’il était réconfortant de penser que je n’en avais qu’un seul à résoudre : j’étais un homme dans un corps de femme. Mais c’était le travail des professionnels de prendre en compte toutes mes comorbidités, pas seulement d’affirmer mon espoir naïf que tout pourrait être résolu avec des hormones et une intervention chirurgicale. »

C’est pour ces motifs que la Finlande10 11, la Grande-Bretagne12 13 et la Suède14 15, pays pionniers de ces traitements, ont, après enquêtes officielles, décidé de les réserver uniquement aux essais médicaux convenablement conçus et suivis. La Norvège est en train de les imiter16 comme le veulent d’ailleurs les sénateurs républicains qui viennent d’adopter, ce mardi 28 mai, un texte de loi visant à encadrer les transitions de genre avant la majorité17.

Les bloqueurs de puberté et les autres traitements ne diminuent pas le risque de suicide18

Le taux considérable de suicides est la principale menace qui pèse sur les personnes transgenres.

En Grande-Bretagne l’étude de Bailey19 portant sur 889 trans révèle une prévalence à vie de 84 % d’idées suicidaires et de 48 % de tentatives de suicide. En Ontario, au cours d’une seule année, 35,1 % des trans ont sérieusement envisagé de se suicider et 11,2 % sont passés à l’acte20. En Thaïlande21, sur 411 LGBT, 39 % des participants à l’enquête ont déclaré avoir eu des idées suicidaires au cours de leur vie, 19,0 % des idées suicidaires au cours des 12 derniers mois et 13,1 % des tentatives de suicide au cours de leur vie. L’étude nord-américaine d’Austin22 indique que 82 % des personnes transgenres ont ressenti des envies de suicide et 40 % ont tenté de se suicider, la tendance suicidaire étant plus élevée chez les jeunes. Le projet Trevor23 étudiant le vécu de près 35 000 LGBTQ Américains âgés de 13 à 24 ans confirme ces taux exorbitants de suicide.

Globalement les transsexuels souffrent d’une tendance suicidaire 4 à 6 fois24 25 26 plus élevée que les autres minorités sexuelles (homosexuels, lesbiennes et bisexuels) et 10 à 20 fois plus forte que les hétérosexuels. Environ deux tiers des suicides observés se produisent chez des personnes encore sous traitement actif (phase diagnostique, hormonale ou chirurgicale)27 qui paraissent donc incapables de les prévenir.

Le lobby trans genre affirme que le stress de minorité et les discriminations dont souffrent les trans en seraient les causes, mais un tel taux de suicide ne s’observe heureusement pas chez les autres minorités sexuelles (gays, lesbiennes, bi), tout autant soumis au stress de minorité et discriminées.

Les avocats des traitements médicaux prétendent qu’ils permettraient de diminuer le risque de suicide des adolescents en crise d’identité sexuelle, mais les séries publiées n’en apportent aucune preuve28 et certaines affirment le contraire29 . Jay Greene, comparant les taux de suicide selon la politique des différents états américains30 conclut ainsi :

« Abaisser les barrières juridiques pour permettre aux mineurs de subir plus facilement des interventions médicales transsexuelles sans le consentement de leurs parents ne réduit pas les taux de suicide. En fait, cela conduit probablement à des taux de suicide plus élevés chez les jeunes dans les États qui adoptent ces changements. »

Une étude suédoise du Karolinska31 et une étude américaine32 rappellent qu’après changement chirurgical de sexe, les personnes transsexuelles présentent des risques de mortalité, de comportement suicidaire et de morbidité psychiatrique considérablement plus élevés que la population générale. Elles démontrent que le changement de sexe, bien qu’il atténue souvent le ressenti de la dysphorie de genre, ne suffit pas à la traiter et que des soins psychiatriques et somatiques sont indispensables.

S’affirmer trans et subir des traitements de changement de sexe mène au suicide dans 40 % des cas !

Les bloqueurs de puberté exposent à des complications

Les médecins qui prescrivent des traitements hormonaux pour transsexualisme publient très rarement leurs résultats médicaux, ce qui rend difficile l’évaluation objective des effets secondaires. Quatre cliniques américaines, pratiquant les transitions de genre, qui avaient reçu 7 millions de dollars en 2015 pour examiner les effets des bloqueurs et des traitements hormonaux sur les jeunes transgenres, affirmaient en 2022 que les résultats seraient bientôt disponibles. Mais en 2024 on les attend toujours ! Heureusement quelques rares publications lèvent le voile.

Les bloqueurs de puberté diminuent les niveaux d’hormone lutéinisante et d’hormone folliculostimulante, abaissant ainsi les niveaux de testostérone jusqu’à la castration. Ces modifications hormonales exposent à des événements indésirables, notamment des troubles cardiovasculaires, une déminéralisation33 34 35 des fractures osseuses36, un dysfonctionnement métabolique37 prédisposant au diabète38 et une altération de la fonction cognitive, car la puberté représente une période développementale pendant laquelle ont lieu d’importants changements au niveau de la réactivité émotionnelle, la motivation, l’apparence physique, les processus psychologiques et les interactions sociales39.

Les avocats des bloqueurs de puberté prétendent que leur action serait totalement réversible et ne menacerait pas la fertilité future de ceux qui en prennent. Mais cette affirmation, très incertaine, est entre autres, contredite par une étude de la Mayo Clinic, publiée fin mars 202440, constatant que les bloqueurs de puberté peuvent provoquer des problèmes de fertilité « irréversibles » chez les garçons qui avaient pris des bloqueurs de puberté pendant une période allant de 3 à 52 mois. D’ailleurs la majorité des auteurs qui ont étudié le problème conseillent l’utilisation de techniques de préservation de la fertilité41 42 43 44.

Une enquête menée au Portugal chez des personnes transgenres, qui suivaient ou avaient suivi une thérapie hormonale pendant au moins une année ininterrompue, a révélé que 89 % d’entre elles ont eu des effets secondaires. Tous sexes confondus, plus de la moitié se plaint des troubles émotionnels et 10 % éprouvent des maux de tête récurrents. 66 % des hommes en voie de féminisation auraient une perte de libido, 15 % éprouvent des nausées, et 15 % sont en proie à des démangeaisons (exanthème). Chez les femmes qui se masculinisent 52,9 % souffrent d’acné, 38 % de perte de cheveux et 25 % de douleurs pelviennes. Les traitements hormonaux combinés (estrogène and cyprotérone acétate) visant à féminiser les hommes sont suivis par une multiplication par 45 des thrombophlébites, hyperprolactinémie (*400-fois)45, poussées dépressives (15 fois), et une élévation des enzymes hépatiques46. Les androgènes donnés pour masculiniser les femmes de naissances sont associés avec une prise de poids de plus de 17,2 % et d’acné (12,3 %).

Comme tout traitement actif, les bloqueurs de puberté exposent à des complications. Ils doivent pour cette raison n’être administrés que par des équipes médicales non partisanes qui suivent soigneusement leurs patients et publient leurs résultats à moyen et long terme.

Vouloir protéger les mineurs n’est pas transphobe !

La transphobie est l’expression d’une hostilité à l’égard des transsexuels et peut se manifester par des violences physiques, verbales et des comportements discriminatoires. Depuis que la transphobie a été déclarée délictueuse, toute expression d’une opinion qui déplaît aux extrémistes trans est qualifiée par eux de transphobe pour empêcher tout débat démocratique.

Mais critiquer l’idéologie trans, sa propagande permanente dans les médias, le comportement quasi sectaire de certains extrémistes qui conseillent aux adolescents de couper les relations avec leur famille, ou vouloir protéger les mineurs des risques des traitements qu’elle prône, n’est pas transphobe. Les mineurs en questionnement d’identité sexuelle ne doivent devenir les victimes de propagandistes extrémistes, de médecins, de chirurgiens et de laboratoires pharmaceutiques qui profitent de leur mal être.

Anaïs Perrin-Prevelle, coprésidente de l’association OUTrans, est très représentative de l’outrance habituelle de leurs propos. Elle qualifie le projet de loi des républicains de « texte criminel » que les traitements médicaux, incapables de diminuer le risque de suicide des trans exposent à des complications diverses.

Elle prétend de plus que « cette loi ferait de la France le pire pays d’Europe en termes de législation sur le sujet, au niveau des États américains les plus restrictifs » alors que le projet de loi ne ferait qu’aligner la législation française sur l’évolution de celles des pays nordiques et de la Grande-Bretagne et reste infiniment plus permissive que celles de nombreux états américains (Alabama, Arkansas, Florida, Georgia, Iowa, Kentucky, Mississippi, Oklahoma, South Dakota, Tennessee, Texas, Utah…) dont certains érigent en crime le fait pour un médecin d’administrer des traitements médicaux pour transformation sexuelle à des mineurs47.

Le projet de loi qui se discute actuellement veut simplement protéger les mineurs d’une idéologie qui les entraîne vers une communauté au comportement quasi sectaire, qui encourage à prendre des traitements expérimentaux, à sacrifier leur fertilité et à subir des mutilations sexuelles aboutissant aux tentatives de suicide de 40 % de ses membres.

Les bloqueurs de puberté et les traitements hormonaux pour les adolescents en malaise d’identité sexuelle sont expérimentaux. Ils devraient par conséquent être délivrés uniquement lors d’essais médicamenteux qui permettraient d’évaluer objectivement leur éventuelle utilité et leurs complications permettant de définir leurs indications. Mais serait-ce bien éthique ?





Naufrage médiatique occidental : ce qu’ils nous disent et ce qu’ils se disent

[Source : mondialisation.ca]

[Illustration : source]

Par Daniel Vanhove

Au stade de la tragédie absolue qui se déroule sous nos yeux à Gaza, il me semble utile de revenir à un élément sur lequel aucun média occidental — et pour cause — ne s’est arrêté. On sait désormais la partialité avec laquelle les grands médias font et défont l’actualité, en fonction de ce qui arrange leurs patrons en hauts lieux. On a compris depuis un certain temps, les complicités morbides des gouvernements et des lobbies qui manœuvrent en coulisses avec pour seule boussole les intérêts privés d’une caste financière aussi puissante que mafieuse. Et il faut dénoncer et insister sur leur rôle criminel incessant qui s’abat sur les plus démunis, leur rendant toute vie impossible.

Il y a quelques semaines, je relevais un article paru dans le média libanais Al Mayadeen, dont des journalistes ont été assassinés par l’armée du régime terroriste israélien — et pour cause, là aussi — et qui relayait lui-même un communiqué des services des renseignements russes (SVR) :

« Russian Intel reveals US urging ‘Israel’ to expedite genocide in Gaza. The SVR highlighted Washington’s concern over the indiscriminate nature of airstrikes hitting hospitals and refugee camps in Gaza and the effects of such actions on its image. At the same time, the office noted that various representatives from the US State Department and Defense Department are advocating for a ceasefire.

However, a contrary reality unfolds in private conversations between US officials and the Israeli leadership. The US has been effectively urging ’Israel’ to expedite their aggression on the strip to avoid prolonged conflict, fearing it could detrimentally affect Biden’s pre-election position, as noted by the SVR. »

Que l’on peut traduire comme ceci :

« Les renseignements russes révèlent que les États-Unis exhortent “Israël” à accélérer le génocide à Gaza. Le SVR a souligné l’inquiétude de Washington quant au caractère aveugle des frappes aériennes frappant les hôpitaux et les camps de réfugiés à Gaza et aux effets de telles actions sur son image. Parallèlement, le bureau a noté que divers représentants du Département d’État américain et du Département de la Défense plaidaient en faveur d’un cessez-le-feu. » (Voilà pour la partie officielle et « ce qu’ils nous disent »).

« Cependant, une réalité contraire se dévoile dans les conversations privées entre les responsables américains et les dirigeants israéliens. Les États-Unis ont effectivement exhorté “Israël” à accélérer son agression dans la bande de Gaza pour éviter un conflit prolongé, craignant que cela n’affecte négativement la position pré-électorale de Biden, comme l’a noté le SVR. » (Voilà pour la partie officieuse et « ce qu’ils se disent » entre eux).

Les coulisses des enceintes politiques sont un peu comme les cuisines de certains restaurants : mieux vaut ne pas s’y aventurer, sous peine de nausée.

Pourtant, en parallèle à ce que nous lisons et voyons de ces machines médiatiques bien huilées au service des tenants du pouvoir, on ne peut que constater leur échec de plus en plus patent. De plus en plus de citoyens n’adhèrent plus à leurs histoires. N’est qu’à voir les manifestations massives et continues dans le monde, en soutien à la résistance palestinienne contre le régime terroriste colonial, bien que les discours des gouvernements de l’occident global s’entêtent dans leur exposé à l’inverse des faits. Les journalistes qui travaillent dans ces grands médias devraient y regarder à deux fois : ils se prennent à nouveau un sérieux coup dans les gencives.

Et quand elles n’alimentent pas le récit fallacieux dicté et imposé par le couple pervers américano-israélien, certaines chaînes d’infos ont fait le choix, ô combien courageux, d’ignorer les faits et de passer le génocide quotidien des Palestiniens par le régime terroriste israélien, sous silence. Toutes les stratégies pour minimiser, trahir et ignorer les évènements tragiques qui se déroulent en Palestine sont convoquées. Pourtant, rien n’y fait : les rues sont de plus en plus pleines de manifestants qui mettent en pièces et indiquent à ces journalistes et chroniqueurs de petite semaine qu’ils ne sont plus écoutés, et ont perdu tout crédit. Pour des pays se targuant d’être des exemples de démocratie et de liberté d’expression, dont la presse et les médias représentaient il y a quelques années encore le 4e pouvoir (face aux pouvoirs législatif, judiciaire, et exécutif), le constat est des plus amer. Ces médias censés donner la voix aux sans-voix se sont couchés. Les grands groupes appartenant à quelques milliardaires les ont achetés… et muselés.

Le phénomène serait-il récent ? Je ne le pense pas. Il existait auparavant, mais sans doute dans une moindre mesure. Ce qui me paraît avoir amplifié la défiance des citoyens vis-à-vis des représentants politico-médiatiques au point même de la rupture telle que nous pouvons la vérifier ces derniers mois, est probablement l’accumulation de bêtises mensongères liées à la crise du Covid-19 et ses suites. Puis, du récit tout aussi mensonger sur la guerre que mène l’OTAN contre la Russie, utilisant l’Ukraine comme fusible, y causant d’innombrables victimes dans des dépenses insensées pour un résultat connu d’avance. Bref, les 5 dernières années ont été un terrain incroyablement fertile en termes de mensonges d’État relayés à profusion par ce que certains qualifient aujourd’hui — et à raison — de « journaleux » — quand ce n’est pas de « journalopes ». Et la suite arrive avec l’inénarrable feuilleton du « changement climatique ».

Mais, ce que cette caste de la haute finance semble n’avoir ni capté ni intégré — dans sa certitude d’avoir les outils et leviers de tout contrôler par sa puissance d’argent — est que les moyens et relais de communication sont devenus tels, que les fables qu’ils tentent de nous imposer ne passent plus. Un simple téléphone portable qui filme et enregistre une actualité en direct, et se propage par internet à travers le monde entier, défait tous leurs plans, même les plus sombres, élaborés parfois poussivement depuis des années.

Heureusement, une minorité de journalistes ayant encore le sens et la déontologie de leur métier ont pu mettre en place des sites d’informations alternatives, venant étayer des versions complètement opposées à ce qui nous est raconté en boucle par ce qu’il faut bien appeler une propagande étatique via ses médias de caniveaux.

Par exemple, à ce stade, la plupart des citoyens sont devenus plus que méfiants face à l’Organisation mondiale de la Santé (OMS) et ses projets de « pass-vaccinal » mondial. Et le rôle de certains médecins lors de la crise sanitaire du C-19 n’a rien fait pour mettre les citoyens dans une relation de confiance avec les autorités médicales. Sans parler des plus hautes instances européennes mêlées à un trafic de milliards d’euros lors de commandes insensées, dont la principale intéressée Mme von der Leyen a effacé toute trace de décision, parce que trop compromettant. Ce qui s’est joué lors de cette crise n’est pas seulement honteux, mais aussi scandaleux, et mériterait que des actions en justice et des sanctions exemplaires soient prises à l’encontre de tous ceux qui s’en sont fait les relais.

De même, beaucoup ont compris l’arnaque qui nous a été présentée d’une Russie qui aurait pour ambition d’envahir l’Europe, alors que depuis des années elle répétait à ses pairs européens que ses exigences toutes légitimes ne relevaient que de sa sécurité aux frontières, rappelant que les avancées de l’OTAN — qui avait pourtant juré de ne pas avancer d’un pouce vers la Russie après l’effondrement de l’URSS — n’étaient plus acceptables. Sans parler des bombardements réguliers des autorités de Kiev à l’encontre des populations du Donbass depuis 2014 ; ni des accords de Minsk que certains écervelés européens se sont vantés qu’ils n’avaient servi qu’à gagner du temps pour préparer l’armée ukrainienne dans sa future offensive contre la Russie, préparée de longue date par la Maison-Blanche. Et faut-il reparler de l’explosion des gazoducs Nord-Stream sur laquelle la lâcheté et le silence européens sont sans équivalent ?! Au point que c’est la Chine qui aujourd’hui se fait entendre et exige une enquête et des réponses claires à ces attentats qui ont pour effet de ruiner l’économie européenne, puisque le prix des énergies participe directement à l’inflation qui touche tant les ménages que les industries.

Bref, les désinformations et les « fakes » se sont accumulées ces derniers temps et les citoyens ont toutes les raisons de se méfier tant des organes médiatiques que politiques. Dans ce pitoyable contexte, comment les autorités ont-elles imaginé que les citoyens croiraient à leur nouvelle propagande à propos de leur récit sur les évènements à Gaza ? Cet exemple de la Palestine est sans doute le plus évident dans la faillite de la caste qui tente d’imposer ses volontés au reste du monde. Les Palestiniens ont une patience et une résilience qui dépasse tout ce que ces fonctionnaires hors sol peuvent imaginer. Et les citoyens qui suivent depuis des années la violation du droit international par un régime porté à bout de bras par l’Occident global ne sont pas dupes. Au contraire, plus les mensonges et les tromperies se multiplient dans ce dossier d’une injustice écœurante, plus les populations rejettent ceux qui en sont à l’origine et l’alimentent. Avec pour effet, un gouffre de plus en plus profond entre les citoyens et les représentants du pouvoir qui ne connaissent qu’une manière d’agir : la répression. Or, plus celle-ci s’intensifie, plus le mouvement de soutien à la Palestine augmente. L’injustice est devenue telle, que le ras-le-bol voire la rage des citoyens prend le dessus sur les menaces des autorités. Les multiples manipulations de l’opinion publique s’érodent et dans le dossier palestinien où l’horreur dépasse l’entendement, elles ne prennent plus. À chacun d’imaginer quelle en sera l’issue…

Après tout cela, ils pourront toujours venir, tout sourire, nous demander de les plébisciter pour un nouveau mandat lors des prochaines élections. Tout ce fumier est à dégager !

Daniel Vanhove –
28.05.24

Daniel Vanhove, France/Belgique : observateur civil l en Palestine 2001 – 2004. Il est l’auteur de plusieurs livres : co-auteur de « Retour de Palestine », 2002 – Ed. Vista ; « Si vous détruisez nos maisons, vous ne détruirez pas nos âmes », 2004 (Préface de Ilan Halevi – Ed. M. Pietteur) ; co-concepteur du DVD « Au bord de la mort, nous cultivons l’espoir », Témoignages in situ accompagnant le livre, La Démocratie Mensonge, 2008 – Ed. Marco Pietteur – coll. Oser Dire. Administrateur du blog Mouvement Citoyen Palestine (MCP).

La source originale de cet article est Mondialisation.ca
Copyright © Daniel Vanhove, Mondialisation.ca, 2024




Les aliments ultra-transformés, arme ultime de destruction douce

[Source : armageddonprose.substack.com via santeglobale.world]

Par Ben Bartee

Nous, les serfs du techno-fief qu’est le monde moderne, pouvons — du moins en théorie, du moins pour l’instant — renoncer aux injections d’ARNm, même sous la menace de la perte de nos moyens de subsistance (bien que, en rapport avec le thème de cet article, l’ARNm modifié [ou plus probablement le graphène ? — NDLR] soit de plus en plus souvent ajouté à l’approvisionnement alimentaire, éliminant ainsi le consentement éclairé).

Voir aussi : La FDA criminelle déclare le consentement éclairé nul et non avenu

Nous pouvons jeter les prescriptions pharmaceutiques toxiques à la poubelle aussi vite que les médecins de l’industrie peuvent les rédiger.

Nous pouvons éviter les radiations de la 5G grâce à une relocalisation stratégique.

À ce jour, la plupart des armes biologiques de la technocratie déguisées en thérapies médicales ou en commodités technologiques peuvent être évitées, même si c’est souvent au prix de dépenses et de risques personnels importants.

Mais tout le monde doit manger de la nourriture et tout le monde doit boire de l’eau.

Et, à moins de draguer l’eau de son propre puits et de cultiver sa propre nourriture de manière totalement indépendante (et même dans ce cas, il n’y a aucune protection contre l’épuisement des sols ou l’introduction sur votre propriété d’un ADN OGM provenant d’une exploitation voisine), l’approvisionnement en nourriture et en eau est un environnement riche en cibles que les technocrates dépopulateurs — et les entreprises, les ONG et les gouvernements qui sont dans leurs poches — peuvent exploiter.

Voir aussi : Une action en justice est intentée pour interdire la fluoration de l’eau publique sans consentement éclairé

Il y a quelques années, j’ai pris l’habitude de lire la liste des ingrédients des produits que j’envisageais d’acheter au supermarché ou ailleurs — on pourrait dire (haletant !), de faire mes propres recherches en tant que paysan non diplômé, ce que les « experts » déconseillent sévèrement.

Une règle empirique, un peu de sagesse transmise depuis je ne sais plus où, est que si vous ne pouvez pas prononcer chacun des ingrédients, ou si la liste est plus longue que cinq articles, c’est probablement une bonne idée de passer son chemin.

Via U.S. Right to Know (caractères gras ajoutés) :

« Les “aliments ultra-transformés” sont des produits alimentaires qui ont été créés ou modifiés par rapport à leur état naturel par l’ajout de sucres ou d’édulcorants artificiels, de sel, d’additifs, de conservateurs ou d’autres produits chimiques. Les édulcorants ajoutés en particulier, y compris le sirop de maïs à haute teneur en fructose, le sucralose et l’aspartame, sont courants dans les aliments ultra-transformés.

Ils contiennent aussi souvent des additifs et des conservateurs, tels que des colorants alimentaires (notamment le rouge 40, le jaune 5 et le dioxyde de titane), du benzoate de sodium, du nitrate de sodium et du nitrite de sodium, de l’huile végétale bromée (BVO), du bromate de potassium, de l’hydroxyanisole butylé (BHA) et de l’hydroxytoluène butylé (BHT) ».

Presque tous les produits alimentaires transformés que vous achetez au supermarché sont susceptibles d’être remplis non pas d’un, mais de dizaines de ces ingrédients, un ensemble toxique d’absurdités synthétiques.

La suite via U.S. Right to Know :

« Les produits d’épicerie ultra-transformés les plus courants sont les biscuits, les sodas et les boissons énergisantes, les yaourts aromatisés aux fruits, la margarine, les pâtisseries emballées, les viandes et laits végétaux, les soupes en conserve, les repas surgelés, les céréales sucrées pour le petit-déjeuner, les barres granola et énergétiques, les hot-dogs, les charcuteries et les chips.

Des marques comme Nestlé, PepsiCo, Coca-Cola, Unilever, Frito-Lay, Kraft Heinz et Kellogg’s comptent parmi les plus grands fabricants mondiaux d’aliments ultra-transformés ».

Avec le temps — et ce n’est pas une surprise dans un monde ultra-impatient qui exige la commodité à tout prix, saturé de publicités de l’agro-industrie — la consommation d’aliments ultra-transformés augmente. À terme, il ne restera plus que Soylent Green au menu.

Voir aussi : Le PDG de Kellogg’s encourage les paysans à court d’argent à manger des céréales pour le dîner

Via l’American Journal of Clinical Nutrition (AJCN):

« En ajustant les changements dans les caractéristiques de la population, la consommation d’aliments ultra-transformés a augmenté chez tous les adultes américains de 2001-2002 à 2017-2018 (de 53,5 à 57,0 % kcal ; P-tendance < 0,001). La tendance était cohérente dans tous les sous-groupes sociodémographiques, à l’exception des Hispaniques, dans les analyses stratifiées. En revanche, la consommation d’aliments peu transformés a diminué de manière significative au cours de la période d’étude (de 32,7 à 27,4 % kcal ; P-tendance < 0,001) et dans toutes les strates sociodémographiques. La consommation d’ingrédients culinaires transformés a augmenté de 3,9 à 5,4 % kcal (P-tendance < 0,001), tandis que la consommation d’aliments transformés est restée stable à ∼10 % kcal tout au long de la période d’étude (P-tendance = 0,052). »

Nous arrivons ici à l’intersection de l’obésité morbide — une véritable épidémie en Occident s’il en est — et de l’un des pires délinquants de la liste des aliments ultra-transformés, le sirop de maïs à haute teneur en fructose (HFCS).

Via PLOS One :

« L’obésité a augmenté de façon spectaculaire au cours des dernières décennies, un phénomène largement associé à ce que l’on appelle le “régime occidental” : des aliments à forte densité énergétique, très appétissants et à forte teneur en graisses et en sucres. Plus récemment, on s’est intéressé à la contribution possible du sirop de maïs à haute teneur en fructose (HFCS) à l’augmentation de l’obésité. Largement utilisé dans presque tous les aliments commerciaux, du pain aux boissons, la consommation de HFCS a augmenté parallèlement à l’accroissement du poids corporel et des taux d’obésité. S’il est prouvé qu’il existe un lien entre l’augmentation de la consommation de sucre et l’augmentation de la prévalence de l’obésité et des troubles métaboliques, la contribution du HFCS en tant que tel, en raison de sa teneur plus élevée en fructose, a fait l’objet d’une controverse, avec des arguments pour et contre le HFCS, qui constitue une responsabilité spécifique au-delà de l’augmentation de la consommation de sucre en général.

Le HFCS-55, qui contient 55 % de fructose, 42 % de glucose et 3 % d’autres saccharides, est principalement utilisé dans les produits liquides. Le fructose, y compris le HFCS dont la teneur en fructose est plus élevée, est plus lipogène que les autres sucres et est métabolisé différemment. Alors que le glucose peut pénétrer dans les cellules par GLUT4 (divers tissus), GLUT3 (neurones), GLUT2 (homéostasie par absorption dans l’intestin) et GLUT1 (astrocytes et indépendant de l’insuline), le fructose utilise principalement GLUT5, que l’on ne trouve pas dans les cellules bêta du pancréas, qui est spécifique au fructose et ne répond pas à l’insuline. GLUT2 transporte également le fructose de manière non sélective, bien que ce transporteur à faible affinité soit impliqué dans le transport principalement dans le foie, l’intestin et les reins ».

Via Pharmacologie, biochimie et comportement :

« Les rats soumis à un régime riche en HFCS pendant 6 ou 7 mois présentent une prise de poids anormale, une augmentation des [triglycérides] circulants et une augmentation du dépôt de graisse. Tous ces facteurs indiquent une obésité. Ainsi, la surconsommation de HFCS pourrait bien être un facteur majeur de l’“épidémie d’obésité”, qui est en corrélation avec l’augmentation de l’utilisation du HFCS ».

Et nous ne faisons que gratter la partie émergée de l’iceberg avec le HFCS.

Qu’en est-il du Red 40, de l’aspartame, de l’huile végétale bromée ou de tout autre produit ?

Ce sont là, garçons et filles, des histoires pour un autre jour à Armageddon Prose.

Ben Bartee, auteur de Broken English Teacher : Notes From Exile, est un journaliste américain indépendant basé à Bangkok et doté de pouces opposables.




Mgr Viganò : le « plan d’extermination » mondialiste sert l’objectif de Satan de tuer le corps et l’âme

[Source : profidecatholica.com via profession-gendarme.com]

Vous trouverez ci-dessous le texte intégral d’un discours prononcé par l’archevêque Carlo Maria Viganò le 10 mai à l’Auditorium Gavirate de Varèse, en Italie.

REGARDER AU-DELÀ

Une approche « médico-légale » du crime psychopandémique
Prise de position pour le congrès « La mort niée »
Auditorium de Gavirate (Varese, Italie), 10 mai 2024

Par Mgr Carlo Maria Viganò

Vous avez le diable pour père,
et vous voulez réaliser les désirs de votre père.
Dès le début, il était un meurtrier
et n’a pas persévéré dans la vérité,
car il n’y a pas de vérité en lui.
Quand il dit la fausseté, il parle de lui-même,
car il est un menteur et le père du mensonge.

Jn 8:44

L’un des effets les plus immédiats de l’opération psychopandémique diabolique et manipulatrice est le refus des masses d’admettre qu’elles sont victimes d’une fraude colossale. Sous prétexte d’empêcher la propagation d’un virus présenté comme mortel et incurable — et dont on sait aujourd’hui qu’il n’a jamais pu être isolé conformément aux postulats de Koch1 —, des milliards de personnes ont été contraintes de se faire vacciner avec un médicament expérimental dont on savait qu’il était inefficace pour son objectif déclaré. Et pour y parvenir, les autorités responsables n’ont pas hésité à discréditer les méthodes de traitement existantes, qui auraient rendu impossible l’autorisation de la vente de ce sérum génétique.

La raison de ce refus instinctif des masses de se reconnaître comme victimes d’un véritable et authentique crime contre l’Humanité n’élimine cependant pas les preuves des intentions des auteurs de ce crime. Ces intentions, proclamées pendant des décennies sur la base d’une falsification grotesque de la réalité, se traduisent par une action systématique visant à favoriser le dépeuplement de la planète par le biais de pandémies, de famines, de guerres, d’affrontements entre différents groupes de population, de l’appauvrissement des couches les plus faibles de la population et de la réduction drastique des services publics — y compris la Santé et la Sécurité Sociale — que l’État devrait garantir à ses citoyens. Le Bill & Melinda Gates Institute for Population and Reproductive Health (ici et ici) est l’un des principaux architectes d’un plan de réduction de la population qui part de l’hypothèse néomalthusienne selon laquelle la population de la Terre doit être drastiquement réduite et que les ressources alimentaires et énergétiques doivent faire l’objet d’interventions favorisant cette réduction. Les déclarations qui confirment ce plan d’éradication ne sont même plus dissimulées ; au contraire, elles sont explicitement affirmées dans les conférences et les études organisées par le réseau d’organisations et d’instituts financés par des philanthropes autoproclamés.

Mais si un lobby de gens très riches déclare vouloir réduire la population mondiale par des vaccinations de masse qui provoquent la stérilité, la maladie et la mort, et si ces vaccinations provoquent effectivement la stérilité, la maladie et la mort chez des millions de personnes vaccinées, alors nous devrions tous élargir notre horizon — et j’adresse mon appel à des juristes et des intellectuels respectés ainsi qu’à des médecins et des scientifiques — et ne pas nous limiter à une enquête dont le seul objet serait les effets nocifs et mortels du sérum expérimental. Si nous ne replaçons pas l’organisation de la psychopandémie dans le contexte plus large du plan criminel qui l’a imaginé et conçu, nous nous priverons de la possibilité non seulement de comprendre qu’il s’agit d’un crime prémédité, mais aussi d’identifier les autres fronts sur lesquels nous sommes ou serons l’objet de nouvelles attaques — qui ont toutes le même objectif final, à savoir la destruction physique de milliards d’êtres humains.

Compte tenu du fait que ces sérums ne font pas ce qu’ils ont promis lors de leur homologation par les différentes autorités sanitaires, mais qu’ils se révèlent au contraire très efficaces pour déclencher les maladies les plus graves, provoquer des décès et stériliser les vaccinés, il est nécessaire de passer à l’étape suivante — celle que le système, qui l’a imposée — et de dénoncer la malveillance et la préméditation — la mens rea, comme diraient les juristes — de ceux qui ont délibérément utilisé une fausse pandémie pour éradiquer la population, en accord avec une vision folle et antihumaniste qui considère l’humanité comme un cancer de la planète.

Je vous invite donc à faire le prochain pas dans cette louable opération de vérité et de dénonciation dans laquelle vous vous engagez courageusement.

Ne posez pas les mauvaises questions, car vous obtiendrez les mauvaises réponses. Si vous partez du principe que les autorités sanitaires ont agi dans une intention légitime et que les erreurs commises sont dues à l’inexpérience ou à la pression de l’urgence ; si vous partez du principe que les fabricants de sérum génétique ont pour objectif la guérison des maladies et non le profit le plus cynique et la création de malades chroniques, vous déformerez la réalité et les conclusions auxquelles vous arriverez seront nécessairement trompeuses. Procédez plutôt de manière médico-légale, si l’on peut dire, de sorte qu’une parfaite cohérence apparaisse entre les moyens mis en œuvre et les résultats obtenus, indépendamment des objectifs déclarés ; sachant que les véritables motivations ont dû être cachées et niées précisément en raison de leur désir inhérent de nuire. Qui admettrait jamais, avant d’imposer frauduleusement un traitement génétique de masse, que l’objectif visé est de rendre une très grande partie de la population mondiale soit malade, soit stérile, soit morte ?

Mais si tel est l’objectif de l’idéologie néomalthusienne, s’il existe des preuves que les effets nocifs des sérums ont été malicieusement dissimulés ; si les différents lots contiennent des substances qui n’ont aucune justification prophylactique mais qui, au contraire, provoquent des pathologies et permettent une manipulation de l’ADN humain, alors les conclusions logiques ne peuvent que mettre en évidence la volonté criminelle derrière l’opération et donc la complicité coupable des institutions publiques, des institutions privées, voire des dirigeants de la hiérarchie catholique, des médias, de la justice, de la police, des forces armées et de l’ensemble du corps médical — sauf très rares exceptions — dans une opération de destruction massive.

Quis custodiet ipsos custodes ? (Qui gardera les gardiens eux-mêmes ?) demande Juvénal (Satires, VI, 48-49). Lorsqu’un système de gouvernement est structuré de telle sorte que ceux qui détiennent le pouvoir peuvent nuire à ceux qui doivent leur obéir, lorsque des forces qui ne sont légitimées par aucun mandat politique ou social parviennent à diriger des gouvernements entiers et des institutions supranationales avec l’intention de s’approprier le pouvoir et de concentrer entre leurs mains tous les instruments de contrôle et toutes les ressources — finances, santé, justice, transports, commerce, alimentation, éducation, information ; lorsqu’une entité subversive peut se targuer publiquement d’avoir des premiers ministres, des ministres et des fonctionnaires à son service2, nous devons ouvrir les yeux et dénoncer l’échec de ce pacte social qui est à la base de la coexistence civile et qui légitime la délégation de pouvoirs du peuple à ses représentants. Et cela doit nécessairement faire prendre conscience que la pandémie — tout comme l’état d’urgence climatique et toutes les autres pseudo-catastrophes orchestrées par le même lobby à des fins d’intimidation — est une pièce essentielle dans le cadre d’un coup d’État global plus vaste auquel il faut s’opposer, dont les auteurs — tant à la tête de ces organisations subversives que dans les gouvernements, les institutions publiques et au plus haut niveau de l’Église catholique — seront inévitablement poursuivis pour haute trahison et crimes contre l’humanité.

Mais pour cela — vous devrez le reconnaître après quatre ans — il est indispensable de comprendre que ce lobby criminel agit pour le mal, sert le mal et vise la mort non seulement du corps, mais aussi de l’âme de chacun d’entre nous3 ; que ses émissaires sont des serviteurs de Satan qui se sont voués à la destruction de tout ce qui ressemble de près ou de loin à l’œuvre parfaite de la création, de tout ce qui se rapporte à l’acte généreux et gratuit par lequel le Créateur donne la vie. Satan est un meurtrier depuis le début (Jn 8,44) et ceux qui le servent ne peuvent faire autrement que de souhaiter la mort, quel que soit le moyen utilisé pour la provoquer.

Faire comme si nous avions affaire à de vils marchands qui ne s’intéressent qu’à l’argent et refuser de voir la matrice satanique du plan mondialiste est une erreur impardonnable qu’aucun d’entre nous ne doit commettre si nous voulons vraiment arrêter la menace qui pèse sur l’humanité entière. Pour cela, je vous assure de mes prières et vous demande la bénédiction de Dieu et le patronage de la Sainte Vierge Salus Infirmorum.





Des psychiatres européens vent debout contre les traitements de « transition »

[Source : avenirdelaculture.info]

Par Nathalie Burckhardt

Une importante organisation psychiatrique européenne met en garde les médecins contre la promotion de « traitements » transgenres « expérimentaux » auprès d’enfants et d’adolescents troublés par leur genre.

Il s’agit de la Société européenne de psychiatrie de l’enfant et de l’adolescent (SEPEA), dont les membres ont souligné « le manque de fiabilité et l’instabilité d’un diagnostic de dysphorie de genre chez un enfant spécifique au fil du temps » et « les effets possibles des décisions de bloquer la puberté ou d’empêcher la transition médicale sur le développement psychosocial de l’enfant ».

>>> A LIRE Wokisme et cancel culture : où cela nous mène-t-il ?

La Société a donc émis publié une déclaration exhortant les prestataires de soins de santé « à ne pas promouvoir des traitements expérimentaux et inutilement invasifs dont les effets psychosociaux ne sont pas prouvés et, par conséquent, à adhérer au principe “primum-nil-nocere” (“avant tout, ne pas nuire”) ».

Les scientifiques de la SEPEA ont souligné également que « les résultats des recherches sont publiés uniquement sur la base de critères de qualité et non sur la base de leurs résultats ».

Le document rappelle à ses lecteurs les principes éthiques fondamentaux qui doivent être respectés dans les cas de mineurs souffrant de confusion sexuelle, à savoir :

  • le principe de non-malfaisance : ne pas utiliser, en dehors de l’environnement de recherche, des interventions expérimentales ayant des effets potentiellement irréversibles ou des interventions dont les conséquences à long terme sont inconnues ; ne pas adopter prématurément de nouvelles pratiques sans preuves suffisantes ; ne pas poursuivre des pratiques dépassées qui pourraient ne pas être dans le meilleur intérêt du patient.
  • le principe de bienfaisance : adopter des interventions médicales présentant un rapport avantages/inconvénients favorable ; tenir compte du rapport avantages/inconvénients de l’absence d’interventions médicales ; assurer un diagnostic et un traitement adéquats des troubles psychiatriques coexistants ; assurer une évaluation diagnostique complète de la dysphorie de genre au lieu de s’appuyer uniquement sur l’auto-évaluation des enfants et des adolescents.
  • le principe d’autonomie : impliquer les mineurs dans les processus de prise de décision concernant leurs soins d’une manière adaptée à leur âge et à leur développement, en évaluant leur capacité à consentir ; adopter un processus de consentement éclairé adéquat pour les décisions irréversibles et susceptibles de durer toute la vie, en veillant à ce que les enfants et les adolescents comprennent pleinement les risques potentiels, les avantages et la nature irréversible des traitements ; prendre en compte le droit des parents et des tuteurs à consentir à toute intervention majeure ou à la participation de leurs enfants à des recherches sur des traitements expérimentaux ; prendre en compte le droit des parents et des tuteurs à être pleinement informés des soins actuels prodigués à leurs enfants ; offrir un soutien et des ressources adéquats à ceux qui décident de revenir au sexe qui leur a été assigné, et respecter leur décision en la matière.
  • le principe de justice : garantir l’accès à des informations fiables et actualisées, à une évaluation et à un traitement de la dysphorie de genre, pendant la transition ou la détransition ; adopter des mesures de précaution égales pour tous ; et protéger les droits des enfants et des jeunes en tant que groupe se trouvant dans une phase de développement particulièrement vulnérable.

Ce document de la CESAP est le dernier exemple en date de la réticence croissante du corps médical européen à l’égard de ce qu’on appelle les « soins d’affirmation du genre ».

Au Royaume-Uni, la publication du rapport Cass aavait déjà incité de nombreux prestataires de soins de santé à modifier leurs pratiques de prescription de bloqueurs de puberté nocifs ou d’hormones de sexe opposé à des mineurs. Le Dr Hilary Cass, pédiatre chargé par le Service national de santé britannique d’examiner les « services » transgenres mis à la disposition des mineurs dysphoriques, avait en effet constaté que la « médecine du genre » était « bâtie sur des fondations fragiles » et que si ces interventions radicales devaient être abordées avec une extrême prudence, « c’est tout le contraire qui s’est produit dans le domaine de la prise en charge du genre chez les enfants ».

>>> A LIRE Qui est à l’origine du transgendérisme ?

De même, des cliniques écossaises spécialisées dans les questions de genre et le National Health Service (NHS) britannique ont depuis cessé de prescrire des bloqueurs de puberté.

Enfin, d’autres pays européens, comme le Danemark et la Suède, se sont également éloignés du « modèle affirmatif de prise en charge » des mineurs souffrant de dysphorie de genre dans un passé récent.

Source : https://www.lifesitenews.com/news/european-psychiatrists-warn-against-experimental-and-harmful-transgender-medicine/




Les racines occultes du Forum économique mondial

[Source : lifesitenews.com]

« Les justifications des politiques mondiales obscurantistes de l’ONU et du Forum économique mondial, qui visent à soumettre les peuples, sont habillées sous la forme de science, alors qu’elles sont basées sur l’ésotérisme et l’occulte et ne sont donc que la pensée irrationnelle d’imbéciles ».

[Voir aussi :
https://nouveau-monde.ca/un-professeur-finlandais-expose-les-racines-occultes-du-forum-economique-mondial/]

Par Frank Wright

De nombreuses théories délirantes circulent sur ceux qui seraient les maîtres de notre avenir. Peu d’entre elles peuvent rivaliser avec les idées abracadabrantes de ces personnes, dont les paroles, lorsqu’elles sont citées mot pour mot, semblent farfelues.

Que penser alors des affirmations d’un homme qui a eu affaire à certains de ces individus en personne ? Aujourd’hui, je vous présente les travaux du professeur Mikko Paunio, dont l’argument « … est qu’en fin de compte, les programmes mondiaux fondés sur l’ésotérisme et l’occultisme ou, plus simplement, le nouveau panthéisme de la nature, sont fous et donc socialement dangereux ».



Dire que le Forum économique mondial et ses groupes de pairs sentent le soufre, c’est faire preuve de méchanceté à l’égard de l’enfer. Pourtant, c’est en décrivant avec précision les actes de ces technocrates fantaisistes, pour qui nous ne sommes guère plus qu’un problème de gestion à résoudre, que l’on servira le mieux la cause de l’Humanité.

Une affirmation aussi audacieuse, si elle est faite sans preuve, peut être rejetée sans discussion. Pourtant, les recherches menées depuis 30 ans par le professeur Mikko Paunio, qui n’est pas étranger aux réunions au niveau de l’État, présentent un ensemble de travaux qui révèlent que « les politiques environnementales de l’ONU, du Club de Rome et du Forum économique mondial sont des absurdités ésotériques ».

Les arguments suivants ont été présentés pour la première fois à un public finlandais en octobre 2022, dans une présentation simplement intitulée « Le pouvoir occulte ». Ils ne sont pas avancés par un obscur théoricien du complot, mais par un homme dont la longue carrière l’a conduit dans les couloirs mêmes du pouvoir :

Les justifications des politiques mondiales obscurantistes de l’ONU et du Forum économique mondial, qui visent à asservir les peuples, sont présentées sous la forme d’une science, alors qu’elles sont fondées sur l’ésotérisme et l’occultisme et ne sont donc que la pensée irrationnelle d’imbéciles.

Le professeur Paunio est un épidémiologiste qui a travaillé pour un certain nombre d’institutions de santé publique dans son pays natal, la Finlande, et qui a fait un bref passage à la Banque mondiale. Il est actuellement médecin-chef au ministère finlandais des Affaires sociales et de la Santé. Son travail de conseiller scientifique et politique l’a amené à participer à des réunions au niveau de l’État dans toute l’Europe et aux États-Unis.

Il a combiné cela avec une opposition franche au culte du climat dont les « idées néo-malthusiennes » sont un point de principe parmi l’élite technocratique. En fait, c’est son travail de spécialiste en santé publique qui l’a d’abord alerté sur les sombres dessous de ces misanthropes adorateurs de la nature.

Lorsque j’étais un jeune chercheur en médecine, je suis devenu l’un des secrétaires de la commission de l’énergie du Premier ministre au lendemain de l’accident de Tchernobyl, en Finlande. Moi-même et les autres secrétaires devions lire un interminable flux de données manuscrites d’un membre de la commission appelé Pentti Malaska, professeur d’études prospectives à l’université d’économie et de commerce de Turku.

Qu’y avait-il de si remarquable dans cette réunion ?

Il s’est avéré plus tard qu’il s’agissait d’un occultiste.

L’intérêt du professeur Paunio a été piqué, et c’est ainsi qu’a commencé son long voyage dans ce qu’il appelle «… le nouveau panthéisme de la nature qui est né dans le cadre de l’ONU, avec ses partenaires le Club de Rome et le Forum économique mondial ».

Le Club de Rome a été fondé en 1968, l’année de sa publication phare, Les limites de la croissance. Il est composé d’une centaine de dirigeants d’État et de technocrates issus de gouvernements, d’entreprises et de bureaucraties supranationales telles que l’ONU.

Ce livre a marqué un tournant dans le culte moderne de la Terre, en présentant l’Humanité comme un handicap supporté par une planète souffrante. Il présentait un avenir marqué par un effondrement catastrophique — des systèmes et de la population humaine — sans l’intervention d’une organisation internationale bienveillante et éclairée.

En combinant les prophéties de malheur et les promesses d’espoir, elle a creusé un sillon que les dirigeants des bureaucraties internationales d’aujourd’hui ont bien su emprunter. L’Organisation mondiale de la santé, les Nations unies et le Forum économique mondial sont tous des adeptes de cette méthode et sont bien sûr unis dans leur engagement en faveur de projets tels que Net Zero.

Toutefois, comme l’explique M. Paunio, ces organisations ne sont pas seulement unies par un intérêt commun pour le marketing de la crise.

Dès 1991, dans mon premier livre, Vihreä valhe [Le mensonge vert], je faisais remarquer qu’une grande partie des activistes du mouvement néo-malthusien Green antiscience étaient attirés par l’anthroposophie ou la pensée occulte plus originale, c’est-à-dire la théosophie.

Le point de vue de Paunio est que les prétendus maîtres du monde sont des fantaisistes, et que leurs fantasmes sont directement inspirés d’une tradition occulte remontant au 19e siècle. Il affirme qu’ils n’appartiennent pas seulement à une secte, mais que la promotion et la pratique de ces croyances, qu’elles soient cachées ou non, constituent un credo qui a supplanté celui de l’Église.

Cette religion a largement remplacé le christianisme dans les pays occidentaux. Le panthéisme naturel s’inspire spécifiquement de la « sagesse » de la théosophie, fondée sur l’ésotérisme et l’occultisme de la plus célèbre escroc du monde, Madame Blavatsky, qui prétendait avoir découvert la « vérité perdue » qui unit les religions du monde.

Paunio prend soin de faire la distinction entre « ésotérique » — qui signifie « personnel » — et « occulte » — qui signifie « caché ». Il affirme qu’un culte de la fantaisie personnelle, dont les pratiques privées se reflètent dans une vision du monde détachée de la réalité, est endémique au sein de l’élite dirigeante. Si tel est bien le cas, cela expliquerait pourquoi tant de nos dirigeants ne semblent se préoccuper que d’eux-mêmes, et pourquoi leurs croyances et leurs politiques semblent souvent n’avoir que peu de rapport avec la réalité observable.

Quelles sont les preuves de l’existence d’un tel culte ? Certains de ses adeptes les plus éminents ne se soucient guère de garder pour eux leurs croyances occultes. En janvier 2016, Klaus Schwab «… est apparu dans une interview télévisée avec RTS Suisse en Suisse, où il a ouvertement révélé son occultisme ésotérique fou. »

Dans la vidéo mentionnée, Schwab parle de la « fusion des mondes numérique, physique et biologique » à travers une technologie qui, selon Paunio, n’est rien d’autre que de la science-fiction.

[NDLR Sauf que cette technologie est malheureusement bien réelle (et pas seulement brevetée) dans la plupart des cas, comme des articles des dossiers Implants numériques et contrôle mental et 5G et ondes pulsées permettent de s’en rendre compte. Il semble que ces individus aient les moyens de leurs ambitions.]

Tout ce que Schwab a mentionné à la télévision suisse en 2016 est tout simplement de la science-fiction contraire à l’éthique. Une telle technologie n’existe pas et n’existera jamais. Il s’agit juste de la pensée grincheuse d’un vieil homme grincheux basée sur des vols dans l’espace intérieur et des idées dérivées de rituels occultes.

Paunio affirme que la soi-disant science présentée par des gens comme Schwab n’est qu’une fantaisie. Qu’en est-il du protégé de Schwab, Yuval Noah Harari ?

[Paunio s’est-il donné la peine d’investiguer dans ce domaine technologique, ou bien se trouve-t-il sur ce point particulier face à quelque chose qu’il ne peut ou ne veut pas croire ?]

Le WEF a délibérément créé un faux CV en sciences naturelles pour Yuval Harari, qui est en réalité un historien.

Harari n’est qu’un imposteur, inventé par son maître pour ressembler à un prophète scientifique du futur. Il n’est rien d’autre qu’un autre Walter Mitty, affirme Paunio — mais un Walter Mitty dirigé par un homme ayant un certain attachement aux traditions occultes.

Klaus Schwab a recruté le fonctionnaire non élu de l’ONU chargé de l’environnement de loin le plus influent, Maurice Strong, un riche industriel canadien sans éducation (1929-2015), pour diriger la fondation du WEF. Maurice Strong a été LA figure centrale de la promotion de l’agenda du développement durable depuis le premier sommet environnemental de l’ONU à Stockholm en 1972. Il était également un occultiste et un ésotériste invétéré.

Paunio a longuement écrit sur le développement de la tradition occulte à partir du 19e siècle, notant et nommant des personnalités politiques qui ont visiblement absorbé les principes du nouveau panthéisme de la nature.

Comment ces fous ont-ils pu atteindre une plate-forme aussi puissante ?

Grâce au soutien inconditionnel que leur apportent les grands médias, les politiques mondiales insensées du FEM, qui visent à nous appauvrir et à aggraver les problèmes environnementaux, ont gagné du terrain dans toutes les institutions occidentales, y compris les églises protestantes et l’Église catholique.

Il n’y a pas à discuter, car les preuves sont partout autour de nous. Nous habitons déjà les monuments numériques d’un culte qui s’est emparé de nos dirigeants et de nos médias. Pourtant, les conclusions de Paunio vont plus loin que la religion internationale du malheur. Son travail révèle comment des organisations telles que le FEM travaillent avec les gouvernements pour falsifier les preuves afin de promouvoir un agenda — celui de l’effondrement.

Paunio a prouvé dans cet article que le Forum économique mondial a utilisé un fonds d’innovation finlandais pour promouvoir la Grande Réinitialisation de Schwab.

En 2016, SITRA, qui dépend du Parlement finlandais, a publié un rapport falsifié sur le miracle finlandais de l’économie circulaire et a créé le concept actuel d’économie circulaire pour le Forum économique mondial, qui est nuisible à l’environnement, à la santé humaine et à l’économie.

En exploitant ce concept, la Commission européenne a présenté aux législateurs de l’UE, par exemple, le règlement sur la taxation de la finance verte, le paquet sur l’économie circulaire de Jyrki Katainen et l’énorme ensemble de mesures sur le climat Fit for 55, qui est encore principalement entre les mains des législateurs de l’UE, et qui conduira finalement à une planification quinquennale de type soviétique et à la chute de la société industrielle moderne.

Le travail du professeur Paunio ne consiste pas simplement à se moquer des bouffons et à démentir leurs fausses références. Il s’agit d’une tentative sérieuse de contribuer au contre-récit d’un management technocratique dont le mal est rendu plus compréhensible par la révélation de ses inspirations occultes.

Il termine son long essai sur le sujet par un cri de ralliement adressé à la communauté de l’économie réelle.

Nous, le peuple, les travailleurs ordinaires et les entrepreneurs qui aiment leur pays et leur famille, devons nous réveiller pour défendre l’instruction, la liberté et la société moderne. Seule la recherche du bien, à partir de ses propres points de départ, peut supplanter ces expériences humaines menées depuis l’étranger. La Finlande, en tant que société à part entière et historiquement dominée par d’autres nations, est aujourd’hui une plate-forme solide pour des expériences farfelues, à moins que nos décideurs ne soient conscients des énormes dangers qui y sont associés.

Pour en savoir plus sur les travaux du professeur Paunio, consultez l’émission de John Henry Westen, ainsi que les articles à venir de Frank Wright sur le contexte de ses travaux.




Graphène : de micro à nanotechnologie

[Source : @Poussix81]

ℹ️ Le graphène, substance connue jusqu’à récemment seulement par un petit groupe d’initiés est aujourd’hui sur toutes les lèvres.

Entre ses détracteurs et ceux qui en sont devenus quasiment des adeptes, cet assemblage malléable d’atomes de carbone aux propriétés conductrices tant apprécié des neurones subit attaques et tentatives d’invisibilisation. Et de fait, le graphène n’a pas fini de susciter l’émoi.

C’est en 2021 que Guillaume Bousquières et Sébastien Iozzia se voient contraints de renoncer au métier qu’ils aiment et les passionne : le soin.

L’un est naturopathe, l’autre infirmier et laborantin. L’obligation vaccinale contre la Covid-19, à base de produits expérimentaux dont on ignore encore aujourd’hui la composition exacte, entre en vigueur, balayant les rêves des deux amis comme ceux de tant de soignants.

Seuls une insatiable curiosité et le besoin de comprendre vont permettre à ces courageux, plus connus maintenant sous le nom de Next dose, de ne pas sombrer.

Un camping-car et un microscope optique plus tard, leurs constatations sont sans appel : ces injections contiennent bien d’autres choses que les vaccins classiques.

À force de persévérance, leur technique s’améliore, leur compréhension des phénomènes aussi ; leur notoriété s’accroît. Ce ne sont plus seulement des flacons de produits qu’ils peuvent observer ou leur sang y mélangé, mais bien celui des personnes qui, contraintes ou convaincues par la ruse et les mensonges d’état, sont à présent victimes de graves soucis de santé et cherchent des réponses.

De nombreux patients souffrant d’effets indésirables parfois très étranges, vont donc les contacter. Mais pas seulement…

Les travaux et publications des Next dose, qui corroborent les observations faites à l’international, attirent l’attention de quelques personnes à l’équipement bien plus performant. C’est avec un microscope électronique cette fois que de nouvelles découvertes sont faites. Micro, puis nanotechnologies apparaissent sur les écrans, confirmant les pires craintes que l’équipe pouvait avoir en lisant brevets officiels et publications délirantes sur la 6 G ou l’internet des corps et le contrôle des masses.

Pour sa seconde édition, le Conseil Opérationnel et Scientifique, ou COS, animé par le docteur Laurence Kayser, accueille Guillaume et Sébastien pour une émission hors normes (et en français, ce qui est chose rare) où les images et vidéos les plus frappantes des Next dose tentent de soulever un coin du voile sur les injections anti-covid tout en appelant les savants du monde entier à mettre leurs compétences, moyens et carnets d’adresses au service de la science véritable pour le plus grand bien de l’humanité.

Les questions posées ici sont d’une particulière gravité.

  • 00:00 : Introduction et présentation
  • 12:58 : Le graphène : de la micro à la nanotechnologie — Partie 1
  • 13:32 : Après la 5 G en 2020, arrivée de la 6G en 2030
  • 17:17 : Des Microsystèmes aux Nanosystèmes
  • 24:34 : Le graphène
  • 28:18 : Un brevet et des études scientifiques qui interpellent
  • 31:40 : Les rapports de l’OTAN
  • 35:10 : Les masques au graphène
  • 40:50 : L’origine du graphène dans les injections, le rapport Pablo Campra
  • 42:07 : Présence de graphène dans le sang ?
  • 57:02 : Mécanisme de croissance des nanotubes de carbone (graphène)
  • 1:01:29 : Témoignage d’une personne injectée
  • 1:11:45 : Le graphène : de la micro à la nanotechnologie — Partie 2
  • Réactions de l’organisme face à ce corps étranger
  • 1:11:55 : L’oxyde de graphène est dégradé par les neutrophiles
  • 1:15:20 : Les injections peuvent engendrer des fusions de neutrophiles
  • 1:20:58 : Les injections peuvent engendrer des Nétoses (mort des neutrophiles), l’oxyde de graphène peut induire la Nétose
  • 1:29:28 : Les injections peuvent engendrer des agglutinations de plaquettes, la Nétose induit la thrombogenèse
  • 1:32:26 : Le principe de fonctionnement des puces interrogeables à distance (présentation par un ingénieur spécialiste en microtechnologie)
  • 1:52:35 : Le graphène : de la micro à la nanotechnologie — Partie 3
  • 1:53:32 Les valeurs limites d’exposition
  • 1:57:00 : Détection de champs électriques chez des personnes injectées
  • 2:00:55 : Détection d’adresses MAC in vitro et chez des personnes injectées
  • 2:09:41 : Solutions éventuelles
  • 2:15:27 : Quelques citations…
  • 2:18:25 : Conclusion






L’hypothèse des germes — Partie 1

Les problèmes de Pasteur

[Source : mikestone.substack.com]

Par Mike Stone
17 MAI 2024

Selon l’Encyclopaedia Britannica, la « théorie » des germes, qui affirme que certaines maladies sont causées par l’invasion de l’organisme par des micro-organismes trop petits pour être visibles, a « longtemps été considérée comme prouvée ». Selon l’université de Harvard, cette « théorie » a été « développée, prouvée et popularisée en Europe et en Amérique du Nord entre 1850 et 1920 environ ». Wikipédia affirme que la « théorie » des germes est « la théorie scientifique actuellement acceptée pour de nombreuses maladies ». Des articles publiés dans des revues scientifiques affirment que Louis Pasteur et Robert Koch « ont fermement établi la théorie des germes de la maladie » et qu’ils « ont prouvé pour la première fois la théorie des germes de la maladie dans la seconde moitié du dix-neuvième siècle ». Ainsi, si nous devions écouter ce que déclarent les sources dominantes, il semblerait que la « théorie » des germes ait été scientifiquement prouvée sur la base des preuves établies par Louis Pasteur et Robert Koch. Il faut croire que les travaux de ces deux hommes ont permis de « prouver » l’hypothèse initiale des germes et de l’élever au rang de théorie scientifique. Mais est-ce vraiment le cas ? Pasteur et Koch ont-ils apporté les preuves scientifiques nécessaires à la confirmation de l’hypothèse des germes ? Que faut-il pour accepter ou rejeter une hypothèse ? Comment une hypothèse devient-elle une théorie scientifique ? Dans la première partie d’un examen en deux parties de l’hypothèse des germes portant sur les travaux des deux hommes, nous commencerons par examiner deux des premières tentatives de Pasteur pour prouver son hypothèse : dans les cas du choléra des poules et de la rage. Nous étudierons comment il est parvenu à son hypothèse sur les germes, puis nous chercherons à savoir si ses preuves expérimentales reflètent ce que l’on peut observer dans la nature. Ce faisant, nous découvrirons si Louis Pasteur a pu ou non valider et confirmer son hypothèse sur les germes.

Qu’est-ce qu’une hypothèse ?

Pour commencer cette enquête, nous devons comprendre ce qu’est exactement une hypothèse. Pour en revenir à Brittanica, une hypothèse scientifique est définie comme « une idée qui propose une explication provisoire d’un phénomène ou d’un ensemble restreint de phénomènes observés dans le monde naturel ». En d’autres termes, une hypothèse est une explication basée sur un phénomène naturel observé. Mais qu’est-ce qu’un phénomène naturel dans le cadre des sciences naturelles ? Selon les normes scientifiques de la prochaine génération (NSPG), un phénomène naturel est défini comme « un événement observable qui se produit dans l’univers et que nous pouvons expliquer ou prédire grâce à nos connaissances scientifiques ». Cette définition des NSPG est le fruit d’un effort de 26 États qui ont élaboré de nouvelles normes d’enseignement des sciences en collaboration avec la National Science Teachers Association (NSTA [Association nationale des professeurs de sciences]), l’American Association for the Advancement of Science (AAAS [Association américaine pour l’avancement des sciences]), le National Research Council (NRC [Conseil national de la recherche]) et l’organisation à but non lucratif Achieve. Plusieurs philosophes des sciences, comme Ian Hacking, considéré comme le premier à définir les phénomènes du point de vue des scientifiques, soutiennent la définition de la NSPG selon laquelle un phénomène est « généralement un événement ou un processus d’un certain type qui se produit régulièrement dans des circonstances définies. Le mot peut également désigner un événement unique que nous considérons comme particulièrement important ». Michela Massimi, une autre philosophe des sciences, est d’accord avec Hacking dans son livre Perspectival Realism, affirmant que « les phénomènes sont des événements : ce ne sont pas des choses, des entités, des structures, des faits ou des états de choses ». Ainsi, à partir de ces définitions, nous pouvons réduire les phénomènes naturels à des événements (ou processus) observables. Néanmoins, n’importe quel événement n’est pas suffisant. Pour qu’un phénomène soit naturel, ces événements doivent se produire dans la nature sans influence ni interférence humaine. En d’autres termes, les événements ne doivent pas être créés par l’homme. Si ces conditions sont remplies et qu’un phénomène naturel est observé, une proposition d’explication peut être formulée pour tenter de décrire ce qui peut se produire.

La Britannica poursuit en indiquant que deux caractéristiques très importantes et primordiales d’une hypothèse scientifique sont la réfutabilité et la testabilité. La réfutabilité signifie que l’hypothèse est formulée de telle sorte qu’il est possible de prouver qu’elle est fausse par l’expérimentation. Cette idée a été introduite par le philosophe scientifique Karl Popper en 1935 dans son livre The Logic of Scientific Discovery (La logique de la découverte scientifique). Selon ce concept, quelqu’un devrait pouvoir concevoir une expérience susceptible de prouver que l’hypothèse est fausse. Si une hypothèse est susceptible d’être infirmée, mais qu’elle est étayée par des preuves expérimentales de sa véracité, elle peut être considérée comme une hypothèse scientifique. Une hypothèse réfutable doit être formulée sous la forme d’une déclaration « Si… alors » qui résume l’idée établie à partir du phénomène, et elle doit pouvoir être testée, ce qui signifie qu’elle peut être étayée ou réfutée par l’expérimentation.

L’observation d’un phénomène naturel et la création d’une hypothèse réfutable et testable constituent la première partie de la méthode scientifique, comme indiqué au chapitre 2 ~ La science comme moyen de comprendre le monde naturel de l’ouvrage Environmental Science.

« La méthode scientifique commence par l’identification d’une question concernant la structure ou la fonction du monde naturel, qui est généralement développée à l’aide de la logique inductive (figure 2.1). La question est interprétée en fonction de la théorie existante et des hypothèses spécifiques sont formulées pour expliquer le caractère et les causes du phénomène naturel ».

« En revanche, une hypothèse est une proposition d’explication de la survenue d’un phénomène. Les scientifiques formulent des hypothèses sous forme d’énoncés et les testent ensuite par le biais d’expériences et d’autres formes de recherche. Les hypothèses sont élaborées à l’aide de la logique, de la déduction et d’arguments mathématiques afin d’expliquer les phénomènes observés. »

Selon Elsevier, une société néerlandaise d’édition universitaire spécialisée dans les contenus scientifiques, techniques et médicaux, sans hypothèse, il ne peut y avoir de base pour une expérience scientifique. Nous pouvons donc conclure que l’hypothèse est cruciale pour obtenir des preuves scientifiques. Ils précisent que l’hypothèse est « une prédiction de la relation qui existe entre deux ou plusieurs variables ». Cela signifie qu’une hypothèse doit être conçue et rédigée de manière à « prouver » l’existence ou non d’une relation prédite, dérivée du phénomène naturel, entre deux variables : la variable indépendante (la cause présumée) et la variable dépendante1 (l’effet observé).

Cette hypothèse est généralement formulée comme l’hypothèse nulle, qui prédit qu’il n’y a pas de relation entre les variables, et comme l’hypothèse alternative, qui prédit qu’il y a une relation entre les variables.

Une fois l’hypothèse établie, une expérience appropriée peut être conçue afin de la tester. Selon le philosophe et historien des sciences américain Peter Machamer, dans son article Phénomènes, données et théories : un numéro spécial de Synthèse (2009), l’expérience doit nous montrer quelque chose d’important qui se produit dans le monde réel. L’objectif est de s’assurer que les aspects du phénomène naturel observé qui ont été à l’origine de l’hypothèse sont « pris en compte » dans la conception de l’expérience. Ainsi, l’expérience pourra nous apprendre quelque chose sur le monde et les phénomènes étudiés. Il est donc essentiel que l’hypothèse soit testée correctement à l’aide d’un plan d’expérience qui reflète fidèlement le phénomène naturel observé et ce que l’on voit dans la nature.

L’expérience nous montre-t-elle réellement quelque chose d’important sur ce qui se passe dans le monde réel, en dehors du cadre expérimental ? La distinction entre les phénomènes et les artefacts (voir Feest 2003, 2005, 2008) permet de répondre à cette question. Ce problème se pose lorsqu’il s’agit d’opérationnaliser un phénomène afin qu’il puisse faire l’objet d’une étude expérimentale en laboratoire ou dans un autre cadre non naturel. Fondamentalement, nous voulons nous assurer que lorsque nous créons un modèle expérimental, nous sommes raisonnablement sûrs de « capturer » les aspects du phénomène qui ont suscité notre intérêt à l’origine ou que nous cherchions à expliquer. Nous voulons que nos expériences nous apprennent quelque chose sur le monde, sur les phénomènes. Lorsque nous concevons des expériences, nous essayons de simplifier les situations afin de pouvoir contrôler les variables pertinentes, ce qui nous permettra ensuite d’intervenir et d’observer ce qui se passe à la suite de l’intervention. Nous concevons des expériences pour générer des données, qui peuvent ensuite être utilisées pour nous renseigner sur l’état ou le fonctionnement du monde. Mais souvent, nous savons quelque chose du phénomène qui nous intéresse avant de mettre en place l’expérience.

Si l’hypothèse est testée correctement par le biais d’une conception expérimentale adéquate selon la méthode scientifique, et que des tests répétés renforcent la corrélation entre deux ou plusieurs choses se produisant en association les unes avec les autres et aboutissant au phénomène naturel observé, la cause d’un phénomène naturel peut être prouvée. Il est alors possible de déterminer la probabilité que l’événement se reproduise. Si les résultats sont confirmés par la réplication et la reproductibilité par des chercheurs indépendants, cela confère à l’hypothèse un pouvoir prédictif. Une fois que les prédictions fournies par l’hypothèse sont confirmées de manière répétée par une vérification indépendante et une validation par la communauté scientifique, l’hypothèse peut alors être élevée au rang de théorie scientifique.

Cependant, pour devenir une théorie scientifique, l’hypothèse doit d’abord être confirmée par une expérimentation précise et ne doit pas être réfutée. Ce fait absolument essentiel semble avoir été oublié lorsque l’hypothèse des germes a été élevée au rang de théorie scientifique. Comme l’a déclaré Albert Einstein, « Aucune expérience ne peut me donner raison ; une seule expérience peut me donner tort ». Qu’en est-il des preuves à l’appui d’une hypothèse si les expériences conçues pour refléter l’hypothèse ont échoué et que les preuves obtenues pour la « soutenir » l’ont été par des expériences qui n’étaient pas conçues correctement et qui ne reflètent pas l’explication proposée ? Si les expériences ne reflètent pas l’hypothèse dérivée du phénomène naturel observé, les connaissances acquises peuvent-elles encore être considérées comme des connaissances scientifiques qui nous disent quelque chose de vrai sur ce qui se passe réellement dans la nature ? Avec ces questions à l’esprit, voyons si les hypothèses de Louis Pasteur résistent à l’examen.

Création de l’hypothèse des germes

Selon le microbiologiste franco-américain René Dubos, le « dogme central de la théorie des germes est que chaque type particulier de fermentation ou de maladie est causé par un type spécifique de microbe ». Si l’idée que les maladies peuvent être causées par des germes invisibles existe depuis que Girolamo Fracastoro a publié De Contagione et Contagiosis Morbis en 1546, le chimiste français Louis Pasteur a élaboré sa propre hypothèse sur les germes au début des années 1860, sur la base de ses travaux sur la fermentation. Il est vrai que Pasteur avait largement plagié les travaux du chimiste et médecin français Antoine Bechamp, qu’il a ensuite mal interprétés, car Bechamp considérait que les microbes, qu’il appelait microzymas, remplissaient une fonction nécessaire et vitale en décomposant les substances et les tissus afin d’évacuer les cellules mortes et les autres déchets. En d’autres termes, les microbes sont l’équipe de nettoyage de la nature et ne sont pas la cause de la maladie. Comme il l’indique dans Le sang et son troisième élément anatomique, Bechamp considère que ces processus naissent chez tous les êtres vivants en fonction de l’environnement interne de l’individu :

« Les bactéries n’étaient pas la cause de l’état maladif, mais un de ses effets ; partant des microzymas morbides, elles étaient capables d’induire cet état maladif chez l’animal dont les microzymas étaient en état de le recevoir. On voit donc que l’altération des matières naturelles animales est spontanée et justifie le vieil aphorisme si bien exprimé par Pidoux : “Les maladies naissent de nous et en nous”. »

« D’autre part, la méconnaissance de cette loi de la nature, dont l’établissement ferme est complété par le présent travail, a nécessairement conduit M. Pasteur à nier la vérité de l’aphorisme, et à imaginer une panspermie pathogène, comme il avait auparavant conçu, a priori, qu’il y avait une panspermie des fermentations. Que M. Pasteur, après avoir été spontanéiste2, en arrive à une telle conclusion, c’est assez naturel ; il n’était ni physiologiste, ni médecin, mais seulement chimiste, sans aucune connaissance des sciences comparées ».

Pasteur, quant à lui, considérait les germes, tels que les levures impliquées dans la fermentation du sucre pour produire de l’alcool, ainsi que d’autres microbes responsables de la putréfaction et de la décomposition des tissus, comme des envahisseurs extérieurs. Il affirmait que les microbes, isolés à partir de blessures et d’autres tissus dégénérés, étaient la cause de la destruction des tissus normaux, conduisant à la maladie. Son point de vue allait à l’encontre de la notion populaire de l’époque selon laquelle les microbes étaient le résultat et non la cause de la maladie. Pasteur, ainsi qu’une minorité d’autres scientifiques pensaient que les maladies provenaient de l’activité de ces micro-organismes, tandis que des opposants tels que Bechamp et le pathologiste allemand Rudolf Virchow pensaient que les maladies provenaient d’un déséquilibre de l’état interne de l’individu atteint. Comme le note Bechamp, de même que Pasteur avait supposé qu’il existait un microbe spécifique pour chaque ferment, il a fait de même en supposant que cela devait être vrai pour les maladies humaines et animales.

Cependant, l’hypothèse des germes pose un problème, car Pasteur n’a jamais pu observer un germe « infectant » quelqu’un pour provoquer une maladie. Le seul phénomène naturel qu’il a pu observer était les signes et les symptômes de la maladie, et il a tenté d’établir une corrélation entre les microbes et la maladie en trouvant des microbes dans les plaies et les tissus malades. Comme nous le savons, la corrélation n’est pas synonyme de causalité. Le fait que des microbes soient trouvés sur le corps d’un animal en décomposition ne signifie pas que les microbes ont causé la mort de l’animal3. Les microbes apparaissent après coup pour remplir une fonction nécessaire, en l’occurrence la décomposition. Plutôt que de conclure que les microbes étaient présents dans les blessures en raison de la nécessité de guérir la blessure Pasteur a supposé que les microbes, qui, selon lui, étaient présents tout autour de nous dans l’air, étaient attirés par les blessures, profitant de leur état de faiblesse. Avec cette hypothèse a priori en tête, Pasteur a entrepris de créer des preuves pour étayer son idée préconçue.

Test de l’hypothèse des germes

Choléra du poulet

Bien que Pasteur ait eu l’idée que les maladies étaient causées par des micro-organismes dès les années 1860, il n’a pas mis son hypothèse à l’épreuve avant la fin des années 1870. Dans une conférence donnée en 1878 La théorie des germes et ses applications à la médecine et à la chirurgie prononcée devant l’Académie des sciences le 29 avril 1878, Pasteur avait déjà émis l’hypothèse de la présence d’un « virus » (c’est-à-dire d’une forme de poison chimique, le mot ne désignant pas à l’époque obligatoirement un parasite intracellulaire) dans les solutions des cultures bactériennes sur lesquelles il travaillait. Il a ensuite affirmé que ce poison s’accumulait dans le corps de l’animal au fur et à mesure que la bactérie se développait. Il est intéressant de noter que son hypothèse présuppose la formation et l’existence nécessaire de la bactérie, admettant ainsi que son hypothèse n’est basée sur aucun phénomène naturel observé.

« Il n’y a qu’une seule hypothèse possible quant à l’existence d’un virus en solution, c’est que cette substance, qui était présente dans notre expérience en quantités non mortelles, soit continuellement fournie par le vibrion lui-même, au cours de sa croissance dans le corps de l’animal vivant. Mais cela n’a guère d’importance puisque l’hypothèse suppose la formation et l’existence nécessaire du vibrion ».

Quoi qu’il en soit, les tentatives de Pasteur pour prouver son hypothèse sur les germes ont commencé plus tard la même année avec son étude de la maladie des volailles connue sous le nom de choléra des poules. Selon The Private Science of Louis Pasteur de Gerald Geison, en décembre 1878, Henri Toussaint, un vétérinaire français qui prétendait avoir cultivé la bactérie responsable, a fourni à Pasteur du sang provenant d’un poulet malade. Selon une autre version, Toussaint aurait envoyé à Pasteur le cœur d’un cochon d’Inde inoculé avec le germe présumé du choléra des poules. Quoi qu’il en soit, Pasteur tente immédiatement d’isoler le microbe dans un état de « pureté » afin de démontrer qu’il est le seul responsable du choléra des poules. Il s’aperçoit alors que le microbe se développe plus facilement dans un bouillon de poulet neutre que dans l’urine neutre utilisée par Toussaint comme milieu de culture. Pasteur remercie Toussaint, mais Geison note qu’il « laisse peu de doute sur le fait qu’il considère les travaux et les techniques de Toussaint comme nettement inférieurs aux siens ». Pasteur finit par affirmer qu’il pouvait faire des cultures successives de ce qu’il appelait le « virus » (c’est-à-dire le poison) toujours dans un état de « pureté » dans un milieu de bouillon de poule provenant de poulets malades. Il l’utilisait ensuite pour inoculer des poulets sains et provoquer des maladies.

Dans son article de 1880 intitulé Sur les maladies virulentes et en particulier sur la maladie appelée vulgairement 4, Pasteur expose son hypothèse sur la manière dont il pense que la maladie se propage. Après avoir tenté en vain de rendre des cobayes malades à l’aide de l’« organisme » cultivé, il a supposé que les cobayes pouvaient être « infectés », mais qu’ils étaient essentiellement « immunisés » en dehors de la formation d’abcès. Il a supposé que le pus des abcès laissés après l’injection contenait le microbe responsable de la maladie à l’état pur. Pasteur a ensuite émis l’hypothèse que ces pustules éclateraient et déverseraient le contenu bactérien sur la nourriture des poulets et des lapins, les contaminant et provoquant la maladie.

« L’inoculation de cet organisme aux cobayes est loin d’entraîner la mort aussi sûrement que chez les poules. Chez les cobayes, surtout d’un certain âge, on n’observe qu’une lésion locale au point d’inoculation, qui se termine par un abcès plus ou moins gros. Après s’être ouvert spontanément, l’abcès se referme et guérit sans que l’animal ait cessé de s’alimenter et d’avoir toutes les apparences de la santé. »

« Les poulets ou les lapins qui vivraient en compagnie de cochons d’Inde ayant de tels abcès pourraient tomber subitement malades et périr sans que la santé des cochons d’Inde ne paraisse le moins du monde altérée. Pour cela, il suffirait que les abcès des cobayes, à peine ouverts, déversent un peu de leur contenu sur la nourriture des poulets et des lapins. Un observateur, témoin de ces faits et ignorant la filiation dont je parle, s’étonnerait de voir poulets et lapins décimés, sans causes apparentes, et croirait à la spontanéité du mal, car il serait loin de supposer qu’il ait pris naissance chez des cochons d’Inde, tous sains, surtout s’il savait que les cochons d’Inde sont également sujets à la même affection. »

Il est clair que l’hypothèse de Pasteur concernant l’exposition à des aliments contaminés couverts de pustules de cobaye ne repose sur aucun phénomène naturel observé. Il s’agit d’une idée qu’il a évoquée après ses tentatives infructueuses de rendre des cobayes malades. Il n’y a aucune tentative de recréer ce scénario hypothétique dans l’article de Pasteur de 1880 intitulé L’atténuation de l’agent causal du choléra aviaire. Il ne mentionne pas non plus les détails exacts de ses méthodes de culture ni la manière dont les poulets ont été inoculés afin de recréer la voie d’exposition présumée. Certaines sources affirment qu’il a nourri les poulets avec la bactérie, tandis que d’autres affirment que les poulets ont reçu une injection. La seule mention de l’alimentation des poulets que j’ai pu trouver provient d’un article publié par Pasteur en 1881 et intitulé Le choléra des poulets : étude des conditions de non-récidive et de quelques autres caractères de cette maladie. Dans cet article, Pasteur affirme avoir imité la façon dont la maladie se produit naturellement dans les poulaillers en nourrissant les poulets avec les muscles de poulets malades, afin de démontrer l’efficacité de la vaccination.

« Quant à l’introduction du parasite dans les organes digestifs, j’ai imité les épidémies qui dépeuplent les poulaillers, en introduisant le parasite dans la nourriture des poulets. »

« Chaque jour, je donnais à ces vingt-quatre poulets un repas composé de muscles malades de poulets morts du choléra des poules. »

Cependant, lorsqu’il a expliqué comment il avait étudié la maladie en vue de la vaccination, Pasteur a déclaré qu’il injectait son poison de culture dans les muscles pectoraux et les cuisses des poulets.

« Je les inocule dans les muscles pectoraux ou, mieux encore, dans le muscle de la cuisse, afin d’observer plus facilement l’effet de l’inoculation. »

Le recours aux injections pour « prouver » que le microbe est l’agent causal a été admis par Pasteur dans son discours de 1881 intitulé Discours sur la vaccination relative au choléra des poules et à la fièvre splénique, dans lequel il affirme avoir injecté le sang et le bouillon de culture de poulets « infectés » dans la peau de poulets sains.

« Prenons une de nos séries de préparations de culture, la centième ou la millième, par exemple, et comparons-la, sous le rapport de la virulence, avec le sang d’une volaille morte du choléra ; en d’autres termes, inoculons sous la peau dix volailles, par exemple, chacune séparément avec une petite goutte de sang infectieux et dix autres avec une quantité semblable du liquide dans lequel le dépôt a d’abord été agité. Curieusement, ces dix dernières volailles mourront aussi rapidement et avec les mêmes symptômes que les dix premières : le sang de toutes ces volailles contiendra, après leur mort, les mêmes minuscules organismes infectieux ».

Je crois que Pasteur déteste vraiment les poulets…

Il est évident que le fait de nourrir des poulets avec des muscles malades provenant d’autres poulets morts et d’injecter du bouillon de culture et du sang dans les pectoraux, les cuisses et la peau de poulets sains ne sont pas des voies d’exposition naturelles et, par conséquent, cette recréation de la maladie expérimentale ne refléterait rien de ce qui pourrait être observé dans la nature. Ces expériences ne correspondaient pas à la voie d’exposition naturelle supposée par Pasteur, à savoir la contamination des aliments par le pus des cobayes. L’hypothèse proposée n’a donc jamais été testée d’une manière qui aurait pu logiquement la confirmer ou l’infirmer. Au lieu de cela, Pasteur a utilisé des méthodes non naturelles où des poulets cannibalisaient d’autres poulets ou recevaient des injections de substances auxquelles ils n’auraient pas été soumis dans la nature, invalidant ainsi les preuves présentées.

Mais ce n’est pas la révélation la plus accablante. Dans l’article de 1882 intitulé « Pasteur’s Experiments » (Les expériences de Pasteur) de Rollin Gregg, M.D., une faille fatale a été mise en évidence concernant les hypothèses formulées par Pasteur et d’autres chercheurs étudiant le choléra des poules et des maladies apparentées. Ils confondaient la fibrine coagulée avec des micro-organismes vivants.

« Cela nous amène donc à l’une des questions les plus importantes pour une compréhension meilleure et plus scientifique de ce sujet, à savoir : Que sont ces microbes ? Pasteur dit que ce sont des organismes vivants, des bactéries ou des parasites végétaux, et tous les chercheurs et écrivains, non seulement sur ces maladies, mais aussi sur la diphtérie, affirment la même chose. Mais tous ces observateurs n’ont-ils pas négligé un fait omniprésent et très important dans tous ces cas et dans d’autres cas similaires, à savoir que dans tous les cas où le sang se congestionne à la suite de l’inoculation, la fibrine du sang de l’animal inoculé commence immédiatement ou bientôt à se coaguler, d’abord localement, puis plus ou moins dans tout le système, en minuscules granules à la suite de l’introduction du poison, et que ces minuscules granules de fibrine ont été pris par eux pour des organismes vivants ou des parasites végétaux ? »

Le Dr Gregg a ajouté que ces particules de fibrine ne se distinguent pas des formes de bactéries découvertes à l’époque et que l’injection de fibrine coagulée à des poulets sains provoque la même coagulation en leur sein, ce qui entraîne la maladie.

« Il faut également garder à l’esprit que les granules moléculaires, les fibrilles et les spirales de fibrine coagulante sont, dans leur apparence même et en toutes circonstances, exactement comme les trois formes classées* de bactéries, sphériques, en forme de bâtonnets et spiralées (le microscope n’a jamais fait la moindre distinction entre elles), et qu’elles occupent les mêmes positions et se comportent exactement de la même manière où qu’elles se trouvent.

Par conséquent, si le Prof. Pasteur répète ses expériences très importantes, récemment rapportées à Londres, et qu’il garde bien à l’esprit les faits précédents, il sera sans doute amené à réviser ses conclusions, en voyant que ses microbes, ou bactéries, du choléra des poules et de la fièvre splénique, sont simplement des particules coagulées de fibrine dans le sang des animaux malades, et que ceux qui sont provoqués chez les animaux sains par l’inoculation de ce sang ne sont rien d’autre que des particules coagulantes de la fibrine de leur sang, la coagulation étant simplement induite chez l’animal sain par une matière similaire, la fibrine coagulée, dans le sang de l’animal malade, introduite par l’inoculation. »

Le Dr Gregg a ensuite reproché à Pasteur de supposer et d’affirmer sans preuve la présence d’éléments non naturels dans le sang tout en ignorant un élément naturel dans la fibrine qui peut être prouvé facilement. Il a ensuite mis Pasteur au défi de prouver sa charge d’un élément non naturel, ou l’explication naturelle devrait prendre sa place.

« Il suppose et affirme la présence d’un élément étranger et non naturel, d’un organisme végétal, dans le sang, etc., sans en apporter la preuve évidente, alors que nous pouvons positivement affirmer et prouver la présence réelle d’un élément normal, la fibrine, dans le sang, mais morbidement modifiée, c’est-à-dire coagulée en minuscules particules, par le poison inoculant, ou par l’inflammation qu’il excite. Par conséquent, je le répète, c’est à lui qu’incombe la charge de la preuve et il doit prouver ses affirmations contre nature, faute de quoi le fait naturel doit et devrait prendre sa place. »

Sur la base du récit du Dr Gregg, nous pouvons voir que c’est une mauvaise interprétation de ce que Pasteur a observé dans le sang, ainsi que le mode d’injection expérimental non naturel, qui ont conduit à la maladie. Cela n’a absolument rien à voir avec la façon dont un poulet aurait contracté la maladie dans la nature ou avec la voie d’exposition naturelle supposée par Pasteur. Les expériences de Pasteur n’ont donc pas permis d’expliquer la relation observée d’un phénomène naturel. Ironiquement, même Robert Koch a rejeté certaines des expériences de Pasteur en les jugeant inutiles et naïves, ridiculisant en particulier son travail sur le choléra des poules.

Quoi qu’il en soit, sur la base de ses expériences avec la bactérie, Pasteur a finalement été crédité de la création d’un vaccin atténué contre le choléra des poules en 1880, ce que certains considèrent comme la naissance de l’’immunologie ». Cependant, la manière dont cela s’est produit fait l’objet d’une controverse. Selon la légende racontée par Émile Duclaux, l’associé le plus fidèle de Pasteur et racontée dans sa semi-autobiographie écrite par son gendre René Vallery-Radot, une culture virulente de Pasteurella qui tuait les poules injectées a été oubliée par un assistant et laissée sur la paillasse pendant les vacances de Pasteur au cours de l’été 1879. À son retour, Pasteur utilise cette ancienne culture bactérienne pour injecter les poules et constate avec surprise qu’elle ne les tue pas. Il prépare alors une nouvelle culture virulente et l’injecte aux mêmes poules, ce qui n’entraîne pas la mort des poules comme prévu. À partir de cette observation, Pasteur a supposé que la bactérie, lorsqu’elle était exposée à l’air, perdait sa « virulence », ce qui permettait de l’utiliser comme vaccin. Il poursuit en déclarant : « Dans les domaines de l’observation, le hasard ne favorise que les esprits préparés ». En d’autres termes, la création du vaccin était une heureuse coïncidence. Il est intéressant de noter que Pasteur n’a révélé les méthodes utilisées pour mettre au point ce vaccin qu’à la fin du mois d’octobre 1880, soit neuf mois après avoir annoncé qu’il avait réussi à créer le vaccin. Selon Geison, à cette époque, Pasteur n’expliquait pas pourquoi l’oxygène affaiblissait les microbes, en particulier les microbes aérobies dont la vie dépendait de l’oxygène. Ce retard dans l’explication de son vaccin est peut-être dû au fait que, lorsqu’il l’a annoncé, il s’agissait encore d’un programme de recherche peu concluant et que les moyens n’avaient pas encore été pleinement établis par des expériences décisives. En d’autres termes, Pasteur n’avait tout simplement pas d’explication, et l’histoire concoctée ultérieurement n’était que pure fiction.

À l’appui de cette affirmation, en 1878, Pasteur a donné pour instruction à son gendre de ne jamais permettre que ses carnets de laboratoire soient divulgués au public. Cependant, près de 100 ans plus tard, en 1964, son petit-fils, le professeur Louis Pasteur Vallery-Radot, a fait don des 152 carnets à la Bibliothèque nationale de France. Cela a permis à des historiens, tels que Gerald Geison, de passer au peigne fin les travaux de Pasteur et, ce faisant, il a été révélé que, dans ses carnets, aucun texte entre juillet 1879 et novembre 1879 ne mentionnait cet « heureux » événement qui a entraîné l’atténuation de la culture. Cependant, le 14 janvier 1880, Pasteur écrit dans son cahier de laboratoire : « Les germes de la poule : quand faut-il prendre le microbe, pour qu’il puisse vacciner ? » Il annoncera ensuite la découverte du vaccin en février 1880. C’est un aveu clair que Pasteur ne comprenait rien au vaccin alors qu’il était censé avoir réalisé les expériences l’année précédente. Pasteur a menti sur les événements qui ont conduit à la création du vaccin. Bien qu’on lui reconnaisse toujours le mérite d’avoir prouvé l’agent causal et l’efficacité du vaccin, même Pasteur a noté dans son article de 1881 que, suite à de nombreuses expériences, « les effets de la vaccination sont très variables » et que les vaccins « agissent rarement comme un moyen de prévention complet ». Près de 100 ans plus tard, dans l’article de 1959 intitulé Studies on Control of Fowl Cholera (Études sur la lutte contre le choléra aviaire), nous découvrons que les effets n’étaient pas seulement variables, mais que la vaccination était inefficace contre la maladie et qu’elle n’apportait aucune protection au troupeau vacciné, ce qui en faisait une méthode peu fiable pour lutter contre la maladie.

« Bien que Pasteur ait démontré en 1880 une immunité chez les poulets inoculés avec des cultures atténuées de P. multocida, les chercheurs ont depuis obtenu des résultats irréguliers avec divers vaccins et bactérines. En général, les volailles vaccinées n’étaient pas protégées ou l’immunité obtenue était faible et de courte durée. L’immunisation n’a jamais été acceptée comme une mesure de contrôle fiable du choléra aviaire ».

Ainsi, dès la première tentative de Pasteur pour prouver son hypothèse sur les germes :

  • L’expérience ne correspond pas à son hypothèse sur le mode de propagation de la maladie.
  • L’agent utilisé n’était peut-être rien d’autre que de la fibrine coagulée normale.
  • La voie d’exposition consistant à nourrir les poulets avec des muscles malades et/ou à injecter du sang de poulets malades dans des poulets sains n’était pas une voie d’exposition naturelle.
  • L’injection de fibrine coagulée dans un animal sain peut provoquer une maladie.
  • Le vaccin, utilisé comme preuve de son succès dans l’identification de l’agent causal, s’est avéré inefficace et infructueux malgré les affirmations contraires.
  • Pasteur a fait le récit de la création du vaccin atténué.

Rage

Et les chiens… Pasteur déteste définitivement les chiens…

Si les premières tentatives de prouver son hypothèse sur les germes avec le choléra des poules étaient dénuées de validité scientifique, Louis Pasteur est surtout connu pour avoir « prouvé » son hypothèse avec ses expériences sur la rage, qui ont abouti à la création d’un vaccin antirabique. L’idée que les morsures d’animaux provoquent des maladies n’était pas nouvelle à l’époque où Pasteur a commencé ses recherches sur la rage, en 1880. Toutefois, cette idée s’était imprimée dans son esprit dès l’âge de huit ans, à la suite d’une attaque de loup survenue dans sa ville natale en 1831. Comme le raconte Geison, certaines des victimes de l’attaque s’étaient rendues à la forge de son quartier, et c’est là que le jeune Pasteur a entendu les cris des hommes alors que leurs blessures étaient cautérisées, ce qui était le « remède » contre la rage à l’époque. Plus tard dans sa vie, Pasteur demandera au maire de sa ville d’enquêter pour savoir si les huit victimes décédées avaient été mordues aux mains et au visage, alors que celles qui avaient survécu avaient été mordues à des endroits habillés. Le résultat de cette enquête sur l’événement survenu 50 ans plus tôt indique à Pasteur qu’il est sur la bonne voie avec son hypothèse selon laquelle l’agent causal se trouve dans la salive des animaux enragés. Geison a noté que cette hypothèse était soutenue par la plupart des étudiants en rage qui avaient depuis longtemps admis que la maladie était causée par un poison (ou « virus ») transmis par la salive de l’animal attaquant, même s’il était admis que ce prétendu « virus » échappait à la détection et que son action mortelle « est restée longtemps invisible et intangible ».

Si cet événement de son enfance a pu avoir un impact sur les idées de Pasteur concernant la cause de la maladie, ce n’est apparemment pas la raison pour laquelle il a commencé ses recherches. Geison note que, dans sa correspondance privée, Pasteur insiste sur le fait qu’il n’a commencé ses études sur la rage « que dans l’idée de forcer l’attention des médecins sur ces nouvelles doctrines », reconnaissant ainsi qu’à l’époque, sa « théorie » des germes de la maladie et la technique de la vaccination au moyen de cultures atténuées étaient encore très controversées. Selon Émile Roux, confident de Pasteur, « il pensait que la solution du problème de la rage serait un bienfait pour l’humanité et un triomphe éclatant pour ses doctrines ». Il est vrai qu’un autre facteur y a probablement contribué. Au début des années 1880, Pasteur recevait 10 % ou plus des dépenses annuelles du gouvernement pour l’ensemble de la recherche scientifique en France, et l’activité de vaccination devenait très lucrative pour lui. Au milieu de l’année 1880, Pasteur et son laboratoire réalisaient un bénéfice annuel net de 130 000 francs grâce à la vente de vaccins contre le charbon. Geison souligne que, dans d’autres correspondances inédites, il existe des preuves irréfutables de l’intérêt de Pasteur à tirer profit des vaccins. Comme il tirait déjà profit des vaccins qu’il avait créés pour les maladies animales, tenter de créer des vaccins pour les maladies humaines était la meilleure option.

La recherche sur la rage a commencé le 10 décembre 1880, lorsque Pasteur a utilisé un crayon de peintre pour obtenir le mucus de la bouche d’un garçon de 5 ans qui était censé être mort de la rage. Il mélange le mucus à de l’eau ordinaire et injecte ce mélange à deux lapins. En l’espace de trente-six heures, les deux lapins sont morts, et Pasteur utilisera le sang de ces deux lapins au cours des semaines suivantes pour produire des symptômes similaires chez des lapins et des chiens en bonne santé. Ce faisant, il associe son nouveau microbe à celui qu’il avait observé avec le choléra des poules, tout en affirmant que ce nouveau microbe a des propriétés physiologiques et des effets pathologiques différents. Cependant, si Pasteur désigne sa découverte dans ses carnets comme le « microbe de la rage », celui-ci produirait un tableau clinique étonnamment différent de celui de la « rage ordinaire », tant par les symptômes que par la rapidité avec laquelle les lapins et les chiens meurent. Il a ensuite trouvé le nouveau microbe dans la salive d’adultes en bonne santé ainsi que chez des victimes de maladies autres que la rage. Quoi qu’il en soit, en juin 1881, Pasteur annonce la création d’un vaccin contre ce « microbe salivaire » qu’il a jugé totalement inoffensif pour l’homme, même s’il est mortel lorsqu’il est injecté à des lapins ou à des chiens.

Robert Koch a été particulièrement sévère à l’égard des méthodes de Pasteur, reprochant au chimiste français de supposer que toutes les « maladies infectieuses » sont parasitaires et causées par des microbes, et l’attaquant pour avoir cherché le microbe responsable au mauvais endroit, c’est-à-dire dans la salive plutôt que dans les glandes sublinguales. Il note que la salive est pleine de bactéries et que même les personnes en bonne santé ont des bactéries « pathogènes » dans leur salive. Koch accuse Pasteur d’utiliser des matériaux impurs et lui reproche de commencer ses expériences avec le mauvais animal de laboratoire, le lapin, plutôt qu’avec le chien, lorsqu’il tente de prouver que son microbe salivaire est à l’origine de la maladie de la rage telle qu’elle est observée chez le chien.

« Tout d’abord, Pasteur suppose que toutes les maladies infectieuses sont parasitaires et causées par des microbes. Apparemment, il considère qu’il n’est pas nécessaire d’établir la présence et la distribution des micro-organismes dans le corps — la première des conditions que j’ai mentionnées. Ainsi, Pasteur ne prétend pas avoir découvert un microbe spécifique dans les organes, notamment dans les glandes sublinguales, de l’enfant mort de ce qu’il a appelé la nouvelle maladie de la rage. Ces glandes ont pourtant été le point de départ de ses expériences d’infection. Précisément dans ce cas, une telle investigation est absolument indispensable, car on sait que les glandes sublinguales contiennent du matériel infectieux pour la rage. De plus, comme ces tissus ne contiennent habituellement pas de bactéries, ils seraient l’endroit le plus propice pour découvrir les microbes supposés sous leur forme la plus pure. Mais dans sa tentative de transmission de la rage à partir du cadavre de l’enfant, Pasteur a utilisé la salive plutôt que les tissus de ces glandes. La salive est connue pour contenir de nombreuses bactéries différentes. [Edme-Felix-Albert] Vulpian et (George Miller] Sternberg ont montré que même la salive de personnes saines contient des bactéries pathogènes ».

« Pasteur a commencé avec du matériel impur, et on peut se demander si des inoculations avec un tel matériel peuvent provoquer la maladie en question. Mais Pasteur a rendu les résultats de son expérience encore plus douteux en inoculant, au lieu d’un animal connu pour être sensible à la maladie, la première espèce venue, le lapin. Pour déterminer si une substance contient du poison antirabique, il faut d’abord inoculer des chiens. Supposons que l’on étudie l’étiologie d’une nouvelle maladie du cheval. Même si l’on inocule de la bave de nez, qui est certainement contaminée par d’autres bactéries, plutôt que du sang ou du tissu de rate, il faut au moins utiliser des chevaux comme animaux de laboratoire. Personne ne sait si les lapins peuvent même contracter la fièvre typhoïde du cheval, ni quels symptômes ils présenteraient le cas échéant ».

Cet exemple des premiers essais de Pasteur sur la rage montre comment ses « méthodes défectueuses », comme l’a dit Koch sans ambages, l’ont amené à croire, en recréant la maladie par l’injection de certains produits à des animaux sains, qu’il avait trouvé le « microbe de la rage ». Cependant, Pasteur a fini par conclure que ce n’était pas le bon microbe, mais il a tout de même créé un vaccin pour la maladie expérimentale qu’il avait lui-même créée grâce à ses propres méthodes douteuses. Quoi qu’il en soit, cette expérience et le fait qu’il n’ait pas réussi à produire les symptômes exacts de la maladie associée à la rage en utilisant la salive ou le sang des victimes de la rage, les liquides mêmes dont il avait supposé qu’ils contenaient le microbe de la rage, l’ont amené à se concentrer sur le tissu cérébral des victimes de la rage. Cela a été confirmé dans la semi-autobiographie de Pasteur, La vie de Pasteur, écrite par son gendre Jean Vallery-Radot :

« L’hydrophobie pourrait évidemment être développée par l’inoculation de salive, mais on ne peut pas affirmer avec certitude qu’elle le sera. »

« Mais la même incertitude suivait l’inoculation de la salive ; l’incubation était si lente que des semaines et des mois s’écoulaient souvent pendant que l’on attendait anxieusement le résultat d’une expérience. De toute évidence, la salive n’était pas un agent sûr pour les expériences, et si l’on voulait obtenir davantage de connaissances, il fallait trouver d’autres moyens de les obtenir. »

« Magendie et Kenault avaient tous deux tenté des expériences avec du sang rabique, mais sans résultat, et Paul Bert avait également échoué. Pasteur essaie à son tour, mais en vain. “Il faut essayer d’autres expériences, dit-il avec son infatigable persévérance habituelle.” »

Dans ses études futures, Pasteur utilisera le cerveau et les tissus nerveux d’animaux malades et les injectera dans le cerveau d’animaux sains afin d’essayer de recréer la maladie, en particulier les troubles du système nerveux et l’hydrophobie, dans le but de tuer les animaux plus rapidement.

« L’inoculation de salive s’est avérée être une méthode qui ne produisait pas toujours la rage et les symptômes ne se déclaraient pas avant des mois. La théorie selon laquelle le virus de la maladie s’attaque aux centres nerveux avait déjà été exposée par le Dr Dubous de Paris. Pasteur inocule donc à un certain nombre d’animaux, par voie sous-cutanée, un peu de substance cérébrale provenant d’autres animaux morts de la rage. La plupart des animaux inoculés ont développé la rage, mais pas tous.

Pasteur eut alors l’idée d’introduire dans le cerveau d’animaux de laboratoire du tissu nerveux provenant d’un animal mort de la rage. Cette expérience repose sur le principe de fournir aux organismes responsables le milieu nutritif le mieux adapté à leurs besoins. Pasteur, obligé de sacrifier tant d’animaux, avait une véritable aversion pour la vivisection ; si l’animal criait un peu, il était plein de pitié. L’idée de perforer le crâne du chien lui répugnait, il voulait le faire mais redoutait de le voir faire. C’est donc ce qui a été fait un jour où il était absent. Le lendemain, lorsqu’on lui a parlé de l’inoculation intracrânienne, il a été pris de pitié pour le pauvre chien. »

https://www.jstor.org/stable/3410286?origin=crossref

Pasteur raconte à Jean Vallery-Radot son procédé dans les moindres détails :

C’est alors que Pasteur eut l’idée d’inoculer le virus rabique directement à la surface du cerveau d’un chien. Il pensait qu’en plaçant d’emblée le virus dans son véritable milieu, l’hydrophobie se manifesterait plus sûrement et que l’incubation pourrait être plus courte. L’expérience a été tentée : un chien sous chloroforme a été fixé sur la table d’opération et une petite partie ronde du crâne a été enlevée au moyen d’une tréphine (un instrument chirurgical semblable à une scie à découper) ; la membrane fibreuse dure appelée dure-mère, étant ainsi exposée, a été injectée avec une petite quantité du virus préparé, qui se trouvait dans une seringue de Pravaz. La plaie a été lavée avec du carbolique et la peau a été recousue, l’opération n’ayant duré que quelques minutes. Le chien, lorsqu’il reprenait conscience, semblait tout à fait le même qu’à l’accoutumée. Mais, au bout de quatorze jours, l’hydrophobie est apparue : fureur enragée, hurlements caractéristiques, déchirure et dévoration de son lit, hallucination délirante, et enfin, paralysie et mort.

Selon Geison, la procédure de base de Pasteur consistait « simplement à injecter à divers animaux d’expérience — mais surtout à des lapins — un large éventail de cultures ou de substances, puis à observer ce qui se passait ». Bien qu’il ait pu recréer expérimentalement une maladie en injectant le cerveau et le système nerveux d’animaux malades dans le cerveau d’animaux sains, cette méthode ne reflétait en rien la façon dont un animal aurait contracté la maladie dans la nature. Cela ne correspondait pas non plus au mode d’exposition qu’il avait supposé, à savoir la salive et/ou le sang d’un animal enragé pénétrant dans les plaies de ses victimes.

Outre son incapacité à recréer la maladie telle qu’elle est observée dans la nature par le biais de son mode d’« infection » hypothétique, Pasteur n’a jamais pu isoler un microbe qu’il aurait pu attribuer à la maladie, comme l’a raconté Vallery-Radot.

Pasteur ne peut appliquer la méthode qu’il a utilisée jusqu’alors, c’est-à-dire isoler, puis cultiver en milieu artificiel, le microbe de l’hydrophobie, car il ne parvient pas à détecter ce microbe. Pourtant, son existence ne faisait aucun doute ; peut-être était-il au-delà des limites de la vue humaine.

Geison note que Pasteur a toujours supposé qu’un microbe de la rage devait exister, et il a essayé à plusieurs reprises de l’isoler. Dans ses notes de laboratoire, on trouve des récits où il pensait avoir atteint son objectif, mais il a finalement dû admettre qu’il n’avait pas réussi à isoler le « vrai microbe de la rage ». On voit donc que les expériences de Pasteur n’ont jamais disposé d’une variable indépendante valable, c’est-à-dire d’un microbe réel à faire varier et à manipuler au cours de ses études. Il a supposé qu’il en existait un dans les matériaux qu’il a utilisés, ce qui, en plus de ne pas répondre à son hypothèse d’un microbe de la rage dans la salive, la disqualifie en tant qu’expérience scientifique. La variable indépendante, la cause proposée, doit exister avant que l’expérience n’ait lieu. Tout ce que Pasteur pouvait affirmer, c’est que son procédé d’injection grotesque de tissus du cerveau et du système nerveux prélevés sur des animaux malades dans le cerveau d’animaux sains créait une maladie. Il ne pouvait pas prétendre qu’un microbe spécifique était la cause de ses procédures expérimentales invasives avec des matériaux non purifiés.

Pasteur et le garçon qu’il a abusé avec des injections expérimentales contraires à l’éthique.

Malgré son incapacité à prouver son hypothèse, Pasteur a continué à créer un vaccin contre la maladie, dont la première application connue a été administrée à un garçon de 9 ans, Joseph Meister, le 6 juillet 1885. Selon le CDC, ce vaccin a été administré par une série de 14 injections quotidiennes de suspensions de moelle épinière de lapin contenant « le virus de la rage progressivement inactivé » à l’enfant de 9 ans, qui avait été gravement mordu par un chien enragé deux jours auparavant. Bien que Meister ait survécu aux injections, Geison a souligné que Pasteur avait été très trompeur dans les affirmations qu’il avait faites au sujet de ses tests préalables du vaccin sur les animaux, destinés à établir la sécurité et l’efficacité du vaccin avant de l’utiliser sur les humains. En fait, il n’avait aucune preuve de l’innocuité ou de l’efficacité de son vaccin.

Meister survécut et, trois mois plus tard, Pasteur publia un article indiquant que son vaccin contre la rage avait été testé sur 50 chiens sans le moindre échec avant qu’il ne l’utilise pour traiter le garçon. Mais Geison a découvert, grâce aux carnets, qu’il s’agissait là, « pour le dire charitablement, d’un compte rendu très trompeur ».

En fait, Pasteur avait largement testé un vaccin sur des chiens qui utilisait une approche exactement inverse de celle utilisée sur Meister. La méthode qu’il a utilisée sur le garçon consistait à injecter des doses de plus en plus fortes du virus de la rage. Cette approche était testée sur des chiens de laboratoire à l’époque où l’expérience humaine a été tentée, mais Pasteur ne disposait d’aucun résultat animal concluant démontrant que la technique fonctionnait.

« Il n’existe aucune preuve expérimentale de ses affirmations publiées sur l’étendue de la sécurité et de l’efficacité du vaccin chez les animaux avant l’essai sur l’homme », a déclaré M. Geison.

https://www.washingtonpost.com/archive/lifestyle/wellness/1993/02/23/louis-pasteur-and-questions-of-fraud/196b2287-f63f-4bac-874e-c33b122d6f61

Le CDC a admis que le « traitement Pasteur » de base, qui reposait sur un vaccin à base de tissu cérébral auquel on avait ajouté du formaldéhyde, impliquait toujours des vaccinations quotidiennes pendant 14 à 21 jours et comportait toujours le même risque de séquelles neurologiques (c’est-à-dire de lésions du système nerveux central) que celui observé à l’époque de Pasteur. Il était bien connu que le vaccin de Pasteur pouvait créer exactement la même maladie que celle contre laquelle il était censé protéger. Comme le note Geison, les critiques de son époque prétendaient que le vaccin antirabique de Pasteur non seulement ne protégeait pas toujours ceux qui s’y soumettaient, mais qu’il était lui-même la cause de la mort par rage, et ils essayaient de rendre Pasteur responsable de la mort de tous ceux qui présentaient des symptômes de maladie nerveuse. À l’appui de cette thèse, Geison rappelle que la rage est rare chez l’homme et qu’il ne s’agit pas d’une maladie « infectieuse ». Les symptômes peuvent mettre des années, dans certains cas jusqu’à 25 ans, à se développer, ce qui n’est le cas d’aucune autre maladie. Geison a déclaré que « la corrélation entre les morsures d’animaux et l’apparition ultérieure de la rage est très incertaine, même lorsque l’animal mordeur est certifié enragé ». Il a souligné que la plupart des victimes de morsures par des animaux « enragés » pouvaient renoncer à tout traitement et survivre sans aucune complication à l’avenir. En vaccinant une personne avant l’apparition de la maladie, on ne peut jamais savoir avec certitude si c’est le « virus » ou le vaccin qui a provoqué la maladie et la mort. Les critiques ont fait remarquer que les personnes vaccinées contre la rage étaient désormais confrontées à une nouvelle maladie, créée par Pasteur lui-même : la rage artificielle ou de laboratoire. Ils soulignent également que la forme « paralytique » de la rage, considérée comme rare dans les conditions naturelles, est apparue après les traitements de Pasteur, et que l’utilisation d’un vaccin neurotrope a compliqué le diagnostic chez toute personne vaccinée qui a développé des symptômes nerveux par la suite.

Afin de se défendre contre les allégations selon lesquelles son vaccin aurait entraîné des décès dus à la rage, Pasteur a souligné les incertitudes entourant le diagnostic de la rage et a noté qu’il existait des cas de « fausse rage ». Selon Geison, Pasteur s’appuie sur l’autorité d’un certain Dr Trousseau et cite deux cas où les symptômes de la maladie ont été induits uniquement par la peur.

« Dans un cas, un homme a soudainement présenté plusieurs des caractéristiques classiques de la rage, notamment des spasmes de la gorge, des douleurs thoraciques, une anxiété extrême et d’autres symptômes nerveux, simplement parce que la maladie était devenue le sujet d’une conversation à l’heure du déjeuner. Et cet homme n’avait jamais été confronté à un animal enragé. Le second cas, probablement plus courant, est celui d’un magistrat dont la main avait été léchée longtemps auparavant par un chien suspecté de rage. Apprenant que plusieurs animaux mordus par ce chien étaient morts de la rage, le magistrat devint extrêmement agité, voire délirant, et manifesta une horreur de l’eau. Ses symptômes disparurent dix jours plus tard, lorsque son médecin le persuada qu’il serait déjà mort s’il avait été atteint de la vraie rage ».

Pasteur relate également le cas d’un alcoolique qui, après avoir vu une sorte de dépôt dans son verre pendant le déjeuner, « fut saisi d’un sentiment d’horreur à l’égard du liquide et d’une constriction de la gorge, suivie d’un mal de tête, d’une claudication et d’une fatigue de tous les membres ». Pasteur précise que cet homme, qui a succombé quelques jours après l’apparition des symptômes, « présentait tous les caractères de la rage furieuse », mais qu’il n’est pas mort de la rage puisqu’il n’a jamais été mordu. Ainsi, comme le montre ironiquement Pasteur, aucun microbe n’est nécessaire pour expliquer les symptômes associés à la rage.

Quoi qu’il en soit, Geison affirme que, grâce à son vaccin, Pasteur et son laboratoire ont reçu un grand nombre de dons de la part de particuliers et d’organisations du monde entier. Cela a conduit à l’organisation d’une souscription officielle où les contributions ont facilement dépassé les deux millions de francs en novembre 1888, au moment même où son nouvel Institut Pasteur était officiellement inauguré. Dire que la création d’un vaccin contre la rage a été lucrative pour Pasteur est un euphémisme. Dire qu’il a prouvé son hypothèse selon laquelle un microbe spécifique pouvait causer la maladie de la rage et que son vaccin a empêché la maladie de se produire n’est rien d’autre qu’une fiction pseudo-scientifique. Pasteur n’a pas réussi à cultiver et à identifier le microbe responsable de la rage à partir de la salive, du sang et des tissus du système nerveux des animaux malades. Cependant, il pensait que, malgré l’absence d’un agent pathogène isolé, la création d’un vaccin efficace prouverait que sa « théorie » des germes était vraie. En raison du secret qui entoure ses travaux, Geison note que le débat fait rage sur la question de savoir « si ses travaux sur la rage répondent ou non aux normes d’une recherche véritablement scientifique ».

Ainsi, dans son étude sur la rage, nous constatons que Pasteur a clairement échoué à prouver son hypothèse d’un microbe spécifique comme agent causal :

  • Il n’a pu isoler aucun microbe responsable de la maladie expérimentale qu’il a produite.
  • Il a montré que ses méthodes permettaient de créer des maladies artificielles sans rapport avec la nature en injectant des cultures de microbes, qui pouvaient ensuite être utilisées pour fabriquer des vaccins contre la maladie artificielle qu’il venait de créer.
  • Il a procédé à des injections grotesques et non naturelles de tissus nerveux dans le cerveau d’animaux afin de recréer des maladies du système nerveux qui ne correspondaient pas à la voie d’exposition qu’il avait supposée.
  • Il a conçu un vaccin contre la rage qui produit les mêmes signes et symptômes de la maladie contre laquelle il est censé protéger, et même ceux qui ne sont pas observés dans la nature et qui peuvent conduire à la mort.
  • Il a admis que la maladie de la rage pouvait survenir sans morsure d’animal ni « microbe pathogène » en raison de la peur et de l’abus de drogues.

Manque de soutien

[Réfuté]

Comme nous l’avons vu, l’objectif de l’hypothèse est de proposer une explication pour un phénomène naturel observé qui peut être testé et confirmé par l’expérimentation afin d’acquérir des connaissances sur les événements naturels ou les processus qui se produisent dans la nature. Les expériences et les preuves produites pour étayer cette hypothèse doivent refléter le phénomène naturel observé. Louis Pasteur n’a en aucun cas fourni de preuves qui pourraient être considérées comme proches de cet objectif. Pour « prouver » ses hypothèses, Pasteur a nourri des poulets avec des restes de poulets malades, a injecté à des animaux des substances coagulées dans les muscles et la peau et a percé des trous dans la tête de chiens pour leur injecter de la matière cérébrale et du système nerveux malades. Aucune de ces méthodes d’exposition ne reflète un événement ou un processus observé dans la nature. Pourquoi Pasteur a-t-il dû recourir à des méthodes aussi grotesques pour créer une maladie expérimentale si son hypothèse était correcte, à savoir que l’exposition naturelle aux microbes était la cause de la maladie ? C’est parce que l’exposition aux microbes par voie naturelle, soit par aérosol, soit par l’application de cultures pures à leur nourriture habituelle, n’a pas produit de maladie. Il a donc fallu substituer des méthodes non naturelles et invasives qui ne reflétaient pas la nature jusqu’à ce que les résultats souhaités soient obtenus. Par conséquent, les hypothèses proposées pour expliquer comment les maladies étaient censées se produire dans la nature ont été réfutées par les échecs répétés à recréer la maladie naturellement de cette manière. Sur la base des travaux de Louis Pasteur, l’hypothèse des germes a été réfutée dès le départ et n’aurait jamais dû être élevée au rang de théorie scientifique.

Quoi qu’il en soit, les travaux du contemporain et rival acharné de Pasteur, le bactériologiste allemand Robert Koch, ont finalement apporté une bouffée d’oxygène à l’hypothèse des germes réfutée par Pasteur. Les travaux de Koch ayant contribué à élever l’hypothèse réfutée au rang de théorie scientifique, nous examinerons ses contributions dans la partie 2. Nous verrons si les résultats expérimentaux de Koch, combinés à ses méthodes révolutionnaires et à ses postulats logiques, ont suffi à combler les lacunes fatales de Pasteur.

[Suite :
L’hypothèse des germes — partie 2]


1 NDT Elle est « dépendante » de la variable cause (indépendante) : l’effet (par exemple la lumière d’une ampoule) dépend de la cause (le courant électrique traversant le filament conducteur de l’ampoule).

2 NDT Partisan de l’hypothèse de la génération spontanée des germes.

3 NDT De même que trouver des mouches ou des vers sur les cadavres ne signifie pas qu’ils soient la cause de la mort.

4 NDT En français dans le texte.




Bienfaits de la médecine chinoise (Acupuncture, Alimentation, Qi Gong)

[Source : Exuvie Santé [Santé intégrative]]

Jean Pelissier  Regard sur la médecine traditionnelle chinoise

La médecine chinoise, avec ses 5 000 ans d’histoire et de recul, est un art du soin aussi traditionnel que vivant, gagnant en crédibilité et influence dans les milieux de la médecine académique. Complexe, fondée sur des connaissances, le bon sens et la sagesse, c’est une pratique qui permet de mieux se découvrir soi et son environnement. Médecine préventive par excellence, elle fait de plus en plus d’adeptes. Un ouvrage pour s’ouvrir et s’initier !

Jean Pélissier, grand spécialiste francophone de cette discipline, auteur de nombreux ouvrages références sur le sujet, prend ici le temps de faire une synthèse remarquablement accessible sur les fondements essentiels de cet art de santé : la diététique, le Qi Gong, le massage, les plantes, l’acupuncture et la gestion des émotions.

Extrait du livre

SOMMAIRE
I. Les textes fondateurs
II. Docteur, qu’est-ce que l’énergie ?
III. Les dix trésors
IV. La théorie des méridiens et les points d’acupuncture
V. Qu’en est-il du diagnostic ?
VI. Les grandes méthodes de traitements
VII. Les méthodes Yang Shen Fa
VIII. La gestion du mental et des émotions

Découvrez les bienfaits de la médecine chinoise avec le spécialiste Jean Pélissier, interviewé par Fabien Moine et Carole Fouché et dont le nouveau livre « regard sur la médecine chinoise » sort aux éditions Exuvie Acupuncture, Qi gong, alimentation, massage tuina et spiritualité sont au programme de ce live !




Le fléau de l’huile de soja

[Source : Dr Mercola]

Analyse de Sally Fallon Morell

L’histoire en un coup d’œil

L’huile de soja, l’huile la plus utilisée aux États-Unis, contient des niveaux élevés d’acides gras polyinsaturés oméga-6.

Les graisses polyinsaturées de l’huile de soja se décomposent en radicaux libres et en aldéhydes nocifs lors du traitement à haute température.

Des études associent une consommation élevée d’huile polyinsaturée au cancer, alors que les graisses saturées peuvent offrir une protection.

L’huile de soja affecte l’hypothalamus, perturbant plus de 100 gènes, y compris ceux qui régulent le poids corporel et la production d’hormones. Une étude de 2015 a montré que les souris soumises à un régime riche en huile de soja présentaient une prise de poids accrue, du diabète et des anomalies hépatiques.

Pour éviter l’huile de soja, optez pour des graisses traditionnelles comme le beurre, le saindoux, l’huile de coco et l’huile d’olive, et évitez les aliments transformés.


Le sud du Maryland, où je vis, était autrefois une région de culture du tabac de premier plan. Puis, dans les années 1980, lorsque les risques du tabagisme sont apparus clairement, l’État du Maryland a mis en place un programme de rachat du tabac. Les cultivateurs de tabac ont reçu un paiement important pendant dix années consécutives pour ne plus jamais planter de tabac.

Le problème, c’est que le tabac a été remplacé par du soja, une culture bien plus cancérigène et dangereuse que le tabac. Les champs de cancers du poumon sont devenus des champs de cancers en tout genre.

L’huile de soja peut alimenter le cancer

Graisses et huiles comestibles consommées aux États-Unis, 2017/18. Crédit : USDA.

L’huile la plus utilisée aux États-Unis est l’huile de soja. L’huile de soja est fortement insaturée, ce qui signifie qu’elle contient principalement des acides gras polyinsaturés oméga-6 et environ 10 % d’acides gras oméga-3. Ces types de molécules de graisse se décomposent en radicaux libres et en aldéhydes très réactifs lors du traitement à haute température, et encore plus lors de la friture à haute température — les oméga-6 certainement, mais encore plus les oméga-3 très fragiles.

C’est un secret bien gardé que de nombreuses études associent la consommation de niveaux élevés d’huiles polyinsaturées au cancer ; d’autres études montrent que les graisses saturées, comme l’huile de coco, le beurre, le saindoux et le suif — le type de graisses saines que l’huile de soja a remplacé — nous protègent contre le cancer.

Toutes les huiles transformées industriellement sont cancérigènes, en particulier l’huile de soja. Mais cet ingrédient alimentaire omniprésent a bien d’autres défauts. L’huile de soja perturbe également notre esprit.

Effets sur la santé des régimes à base d’huile de soja

En 2015, des chercheurs de l’université de Californie à Riverside ont comparé des souris soumises à quatre régimes alimentaires différents, à calories égales : un régime riche en huile de coco, un régime riche en huile de soja, un régime à base d’huile de coco et de sirop de maïs riche en fructose (SMRF), et un régime à base d’huile de soja et de SMRF.1

Les souris ayant reçu un régime riche en huile de soja, avec ou sans SMRF, présentaient une augmentation de la prise de poids, de l’adiposité, du diabète, de l’intolérance au glucose et de la résistance à l’insuline. Elles ont également développé des anomalies au niveau du foie, notamment une stéatose hépatique. Les souris soumises à un régime riche en huile de noix de coco en général n’ont pas développé ces problèmes.

Deux ans plus tard, les chercheurs ont répété l’étude en utilisant de l’huile de soja génétiquement modifiée pour contenir moins de polyinsaturés.2 Cette huile a également provoqué l’obésité et d’autres problèmes chez les souris, mais pas autant que l’huile de soja d’origine.

Ces résultats désignent les polyinsaturés — et non le sirop de maïs à haute teneur en fructose — comme les principaux responsables de l’épidémie actuelle d’obésité et de diabète.

En janvier 2020, l’équipe de recherche a publié d’autres mauvaises nouvelles. Non seulement l’huile de soja provoque des maladies métaboliques comme le diabète, mais elle contribue également à des changements génétiques dans le cerveau qui pourraient conduire à des maladies comme l’anxiété et la maladie d’Alzheimer — l’huile de soja conventionnelle et l’huile de soja modifiée ont toutes deux eu le même effet.3

L’huile de soja a un effet prononcé sur votre glande maîtresse

Plus grave encore, les chercheurs ont constaté que l’huile de soja avait un effet prononcé sur l’hypothalamus. L’hypothalamus est la glande maîtresse de l’organisme ; il régule le poids corporel, maintient la température corporelle, dirige la formation des hormones sexuelles, joue un rôle essentiel dans la croissance physique et module notre réponse au stress. L’huile de soja a entraîné la dérégulation d’une centaine de gènes dans cet organe.

Par exemple, chez les souris nourries à l’huile de soja, les niveaux d’ocytocine dans l’hypothalamus ont diminué. L’ocytocine est l’hormone de l’amour ou de la caresse qui joue un rôle dans les liens sociaux, la reproduction sexuelle, l’accouchement et la période qui suit l’accouchement.

L’ocytocine stimule la production de lait et aide les mères à s’attacher à leur bébé. En dehors de l’accouchement, l’ocytocine semble jouer un rôle dans la réduction de la peur et de l’anxiété chez les deux sexes et même dans la protection contre les comportements addictifs.

J’ai souvent dit que l’hypothalamus est le siège du contrôle des impulsions, et s’il y a quelque chose qui caractérise la génération actuelle d’enfants, élevés avec des huiles végétales au lieu du beurre et du saindoux, c’est bien le manque de contrôle des impulsions.

En outre, diverses structures de l’hypothalamus semblent être liées à l’expression du genre, à l’orientation sexuelle et à la confusion des genres, comme la transsexualité.4

La formation de ces structures commence in utero et se poursuit pendant l’enfance et la puberté. L’huile de soja est-elle responsable de la situation tragique dans laquelle se trouvent tant de jeunes aujourd’hui, qui ont l’impression de ne pas avoir le sexe correspondant à leur corps ? Si l’huile de soja affecte l’expression de dizaines de gènes dans l’hypothalamus, il est probable que oui.

L’huile de soja est présente dans la plupart des aliments transformés

L’alimentation moderne comporte de nombreux éléments nocifs — édulcorants raffinés (sucre, sirop de maïs à haute teneur en fructose), GMS (glutamate monosodique) et arômes artificiels, lait pasteurisé et homogénéisé, amidon alimentaire modifié, grains extrudés (céréales du petit-déjeuner), glyphosate et autres produits chimiques agricoles, etc.

Et l’huile de soja est présente partout ! Margarine et pâtes à tartiner, Cool Whip, crèmes et mayonnaise, vinaigrettes et trempettes, chips, crackers et snacks, pain, beignets, gâteaux (surtout le glaçage) et pâtisseries, frites et poulet frit, ainsi que des plats préparés comme la pizza.

La seule façon de l’éviter est de renoncer aux aliments transformés et de revenir aux graisses saines de nos ancêtres — principalement des graisses animales (beurre, saindoux, graisse de canard, suif, etc.), ainsi que des huiles traditionnelles comme l’huile de noix de coco et l’huile d’olive.

Déchets de soja

Par ailleurs, ce qui reste après avoir pressé l’huile de soja de la graine est un résidu riche en protéines, que les transformateurs alimentaires manipulent et raffinent afin d’en retirer les protéines, ce qui donne des produits comme l’isolat de protéines de soja et le concentré de protéines de soja.

Ces déchets sont ensuite utilisés dans une myriade d’aliments hautement transformés tels que les smoothies aux protéines de soja, les barres énergétiques et la fausse viande comme l’Impossible Burger. Ne croyez pas un seul instant que les entreprises qui vendent ces aliments « à base de plantes » comme étant bons pour votre santé et pour la planète ont d’autres motivations que de faire du profit sur un déchet bon marché.

Comment éliminer l’huile de soja de votre alimentation ?

Si vous avez suivi le régime alimentaire américain standard composé d’aliments transformés, il peut s’avérer très difficile de vous débarrasser de l’huile végétale. Voici une liste des changements que vous pouvez effectuer (certains faciles, d’autres un peu plus difficiles) pour commencer à retrouver la santé. Même si vous ne faites que quelques-uns de ces changements, votre corps vous remerciera !

Régime alimentaire américain standard Faites ceci
Au lieu des margarines et des pâtes à tartiner Utilisez plutôt du beurre
Remplacer les huiles de cuisson Cuisiner avec du saindoux et de la graisse de bacon
Au lieu des vinaigrettes du commerce Apprenez à faire les vôtres avec de l’huile d’olive et du vinaigre [ou du citron — NdT]
Au lieu de Cool Whip Utilisez de la vraie crème fouettée
Au lieu d’une crème non laitière Utilisez de la vraie crème ou de la vraie crème fraîche.
Au lieu de la mayonnaise commerciale Préparez la vôtre ou utilisez une mayonnaise à base d’huile de coco.
Au lieu de trempettes du commerce Préparez les vôtres en utilisant de la crème aigre et d’autres ingrédients.
Au lieu de chips Croquez dans des craquelins de porc nature
Au lieu des crackers classiques Trouvez des crackers à base d’huile de palme ou d’huile de noix de coco.
Au lieu d’en-cas transformés Consommez du fromage et du salami
Au lieu du pain du supermarché Utilisez le guide d’achat de l’AMPF pour trouver du pain au levain naturel sans huiles ajoutées.
[Ou faites vous-même votre pain au levain — NdT]
Au lieu des frites Préparez vos propres frites au four, cuites dans du saindoux ou de la graisse de canard.
Au lieu du poulet frit des fast-foods Préparez votre propre poulet frit dans du saindoux.
Pâtisseries, gâteaux, beignets Réduisez au maximum votre consommation (buvez un verre de lait cru à la place !)
Pizza Réservez-la à des occasions spéciales, pas tous les jours, et commandez une pizza à croûte fine.

Depuis sa création, il y a vingt ans, la Fondation Weston A. Price met en garde le public contre les dangers des huiles de graines industrielles. Votre adhésion soutient ce travail important.

À propos de l’auteur

Sally Fallon Morell est l’auteur du livre de cuisine à succès « Nourishing Traditions » et de nombreux autres ouvrages sur l’alimentation et la santé. Elle est la présidente fondatrice de la Weston A. Price Foundation (westonaprice.org) et l’une des fondatrices de A Campaign for Real Milk (realmilk.com). Visitez son blog à l’adresse nourishingtraditions.com.

Sources et références