La bioluminescence humaine (reflet de la santé physique et mentale) mesurée

[Source : epochtimes.fr]

La bioluminescence humaine mesurée par un détecteur à haute sensibilité peut refléter la santé physique et mentale

Par Theresa Zhang

Quand on visite des chapelles et des cathédrales, on voit souvent des halos lumineux autour des êtres divins et des saints dans les peintures murales. Cette imagerie est utilisée pour indiquer la sainteté ou la gloire de ces personnes. En réalité, tant qu’un être est vivant et qu’il métabolise, il émet une faible lumière.

Bien que la luminescence du corps humain ne soit généralement pas bien répartie, ses points saillants sont presque identiques aux méridiens, ou canaux énergétiques, décrits dans la médecine traditionnelle chinoise (MTC).

Dans les années 1980, des scientifiques ont utilisé un tube photomultiplicateur très sensible comme détecteur pour mesurer une lueur faible, mais cependant visible, émise par les organismes. Des études ont montré que les niveaux de luminescence du corps humain sont en corrélation avec la santé physique et psychologique. L’étude de la luminescence peut donc servir de méthode de détection de ces états.

La bioluminescence humaine est émise lorsque le métabolisme est actif

Des scientifiques ont découvert que le corps émet une lueur lors des activités métaboliques quotidiennes. Pour vérifier leur hypothèse, les chercheurs ont mesuré la luminescence d’une feuille de papier vierge par rapport à celle d’un morceau de porc et d’une main humaine dans les mêmes conditions d’obscurité. Si le papier brillait 10 à 1 000 fois plus que la main humaine lorsqu’il était exposé à la lumière du soleil, l’éclat s’estompait rapidement. En revanche, la luminosité de la main humaine restait la même dans l’obscurité. Le bout des doigts était le plus lumineux, suivi de la paume et de la jonction entre le pouce et l’index, respectivement. La partie la plus faible était le dos de la main. Le morceau de porc, quant à lui, n’émettait aucune lumière.

Les scientifiques pensent que plus le métabolisme du corps humain est fort, plus le niveau de luminosité est élevé. Une équipe de recherche dirigée par le scientifique chinois Yen-Chih Chiang a mesuré la luminosité du corps de 158 personnes dans l’obscurité totale. Les chercheurs ont constaté que 14 lignes de haute luminosité couvrent le corps et correspondent aux 14 méridiens, ou canaux énergétiques, mentionnés dans le Classique médical de l’Empereur Jaune de l’empereur Huangdi. Ces lignes de haute luminescence comportaient 1934 points d’acupuncture. Les points d’acupuncture totalement identiques aux méridiens d’énergie représentaient environ 93 %, tandis que les points d’acupuncture partiellement identiques représentaient environ 7 %. L’équipe de recherche était convaincue que la luminescence est l’incarnation de l’énergie et que les méridiens indiquent le dynamisme du métabolisme d’une personne.

Ces résultats suggèrent que la théorie de la MTC selon laquelle les méridiens servent de passage à l’énergie du corps pourrait être exacte.

Bien que la structure anatomique des méridiens n’ait pas encore été découverte, les chercheurs ont constaté de nombreux phénomènes acoustiques, optiques et électromagnétiques distincts liés à ces canaux d’énergie. Un méridien transmet le son, la lumière et la chaleur plus rapidement que la peau située à l’extérieur du méridien, et la résistance électrique au niveau du méridien ou du point d’acupuncture est également plus faible que dans d’autres parties du corps.

Certains scientifiques proposent que le corps d’un organisme possède différentes ondes électromagnétiques qui transmettent des informations biologiques, et que les points d’acupuncture sont des jonctions où se croisent les ondes d’interférence du champ électromagnétique.

Par conséquent, l’énergie électromagnétique devient aberrante lorsqu’une personne tombe malade. L’acupuncture peut efficacement freiner et rectifier ce type d’aberration.

Les scientifiques affirment que les ondes électromagnétiques sont des voies de communication importantes dans le corps, notamment parce qu’elles peuvent influencer les processus physiologiques, tels que le fonctionnement des nerfs et des hormones. Tout comme nous avons besoin de services de télécommunication pour connecter notre internet, notre télévision et nos téléphones portables, nous avons besoin d’ondes électromagnétiques pour envoyer des messages dans notre corps.

Une photographie qui rend l’énergie humaine visible à l’œil nu

La photographie Kirlian a été inventée par l’électricien russe Semyon Kirlian et sa femme Valentina en 1939. Cette technologie utilise un champ électrique temporaire à haute tension et à haute fréquence pour rendre visible le champ électromagnétique du corps humain. Les photos prises à l’aide de cette méthode montrent que le champ électromagnétique n’est pas uniformément réparti et qu’il peut donc être affecté par l’humeur et l’état de santé.

Le naturopathe et acupuncteur allemand, Peter Mandel, a utilisé cette technologie pour photographier sa main droite. Il a vu des anneaux complets et brillants autour de la plupart de ses doigts, et des anneaux incomplets autour de l’index et de l’auriculaire. À l’époque, il souffrait de maux d’estomac et de diarrhée. Selon la pratique de l’acupuncture chinoise et la thérapie MTC de la moxibustion, les endroits où les auréoles manquaient sur ses doigts s’alignaient sur deux méridiens liés au système digestif : les méridiens du gros intestin et de l’intestin grêle.

Après avoir acupuncturé son point Heku ou Hegu sur le méridien du gros intestin, Mandel a vu ses symptômes de diarrhée disparaître. Il a photographié à nouveau ses doigts et a constaté que tous les anneaux autour de ses dix doigts étaient brillants et complets cette fois-ci.

Cette expérience l’a incité à poursuivre ses expériences. Il a pris des photos des doigts et des orteils de nombreux patients, en utilisant la photographie Kirlian, pour développer une méthode de diagnostic, qu’il a appelée « analyse de l’émission d’énergie », afin de détecter les variations d’énergie dans le corps et de traiter toutes les affections causées par ces perturbations.

Les ondes électromagnétiques émises par le corps peuvent refléter l’état de santé général

Ces dernières années, le chercheur russe Konstantin Korotkov1 et son équipe ont amélioré la photographie Kirlian. Ils ont mis à jour la technologie photographique et développé une méthode appelée visualisation par décharge de gaz (GDV) pour observer les biophotons. Les recherches de Korotkov ont confirmé que les ondes électromagnétiques peuvent refléter les conditions de santé sous-jacentes d’une personne. Ses études ont montré que les images GDV des doigts de patients atteints d’un carcinome du gros intestin se distinguent nettement de celles de personnes en bonne santé.

[Voir aussi :
Communication entre organismes vivants par biophotons]

Les conclusions de Konstantin Korotkov ont également révélé que la luminosité des bagues autour des doigts est étroitement liée à l’humeur de chacun. Les bagues sont plus brillantes si la personne est heureuse, alors qu’elles sont rétrécies, imparfaites ou même absentes si la personne est d’humeur négative, ressentant de la colère, de la jalousie ou de la haine. Les champs d’énergie peuvent également s’influencer mutuellement. Par exemple, les champs peuvent être immédiatement renforcés lorsque les membres d’une famille ou d’un couple s’approchent l’un de l’autre.

Zhang Changlin, professeur de physique à l’université de Temple, a introduit l’exploration des champs électromagnétiques et des méridiens énergétiques dans le corps humain dans son livre Invisible Rainbow : a Physicist’s Introduction to the Science Behind Classical Chinese Medicine (Arc-en-ciel invisible : introduction d’un physicien à la science de la médecine chinoise classique). Il appelle le champ électromagnétique autour du corps humain un « arc-en-ciel invisible » car, bien que le spectre électromagnétique soit coloré, les êtres humains ne peuvent en voir qu’une infime partie.

Les daltoniens ne peuvent pas faire la différence entre le rouge et le vert, car le spectre électromagnétique qu’ils peuvent voir est plus étroit. Dans ce cas, existe-t-il des personnes capables de voir un spectre électromagnétique plus large que les autres ? Pourraient-elles voir l’énergie émise par les méridiens et la lueur autour du corps humain ?

Zhang Changlin pense que l’on devient plus sensible aux sons et aux ondes électromagnétiques lorsqu’on est en état de méditation. Dans l’Antiquité, les niveaux sonores étaient bien inférieurs à ceux de la société moderne, car il n’y avait pas de véhicules, d’avions, de télévisions ou de radios. En outre, on peut dire que le cœur et l’esprit des anciens étaient plus en paix, sans toutes les stimulations auxquelles les humains modernes sont confrontés. Cela pourrait signifier que les anciens étaient plus sensibles et peut-être capables de percevoir des choses que les gens modernes ne peuvent pas percevoir.

Li Shih-Chen, scientifique médical renommé de la dynastie Ming de la Chine ancienne, a écrit que « l’intérieur du corps humain contient des tunnels, et celui qui regarde mentalement à l’intérieur de lui-même peut les éclairer ». Cela signifie que la véritable nature des organes et des méridiens ne peut être observée que par un pratiquant, d’une voie de développement spirituel, qui peut regarder à l’intérieur de lui avec l’œil de l’esprit.





Rappel : le non-conformisme considéré comme maladie mentale (dans la bible des psys américains)

[Voir aussi :
La pathologisation de la dissidence]




Sortir de la Caverne

[Source : Reaction19WebTV via PG]

Table Ronde avec Astrid Stuckelberger et Chloé Frammery.




Pourquoi il ne faut JAMAIS croire ses yeux

[Source : off-guardian.org]

Par Kit Knightly

L’annonce est simple. Un bus est bloqué dans les embouteillages après avoir heurté un chariot de fruits, une jeune passagère regarde par la fenêtre un beau jeune homme dans une décapotable. Elle descend du bus, monte dans la voiture et l’homme la conduit comme un chauffeur pendant qu’elle mange une barre chocolatée.

La jeune femme est Audrey Hepburn.

Cela a des implications extrêmement importantes sur notre perception du monde dans lequel nous vivons, dont personne ne parle vraiment. Mais nous reviendrons sur Audrey plus tard.

Cela ne semble pas toujours être le cas, mais les êtres humains font confiance de manière innée.

Qu’il s’agisse d’une évolution destinée à faciliter le fonctionnement d’un groupe social ou d’un vestige de milliers de générations de pensée religieuse, notre position automatique est que la plupart des gens, la plupart du temps, disent la vérité.

Il s’agit d’un penchant naturel que les tyrans ont compris, et dont ils ont profité pendant des siècles.

Mais quelle que soit la confiance que nous accordons de manière innée aux autres, il y a quelque chose en quoi nous avons encore plus confiance : nos propres yeux.

Nous sommes des créatures visuelles, et une fois que quelqu’un a vu quelque chose — ou croit avoir vu quelque chose — il est presque impossible de le convaincre du contraire.

De nos jours, les tyrans en puissance peuvent également en profiter.

Malheureusement, la confiance nécessaire et primitive que notre cerveau accorde à nos yeux est en retard sur la capacité de la technologie à les confondre.

Comme la plupart d’entre nous le savent, le Deep Faking est une astuce de montage vidéo qui permet de remplacer un visage par un autre de manière transparente. Ce n’est pas particulièrement difficile, ni coûteux. Il suffit que la personne remplacée ait une ressemblance superficielle avec la personne qui la remplace, un grand nombre de photos montrant différentes positions du visage et le bon logiciel.

Les « shitposters »1 de 4chan le font depuis le confort de leur chambre pour rire, remplaçant les visages de stars du porno par ceux d’actrices, de célébrités, de politiciens et de Nicolas Cage.

En d’autres termes, de par sa nature même, la technologie du « deep fake » doit rendre suspecte, dans une certaine mesure, toute vidéo montrant un visage.

Le potentiel de falsification ne s’arrête pas à la vidéo. La falsification audio devient de plus en plus facile chaque année. Avec suffisamment d’échantillons de voix, les synthétiseurs et les cloneurs de voix peuvent faire dire n’importe quoi à n’importe qui. Cette technologie s’améliore sans cesse et peut imiter l’intonation à la perfection.

L’intelligence artificielle en général peut dessiner, en quelques secondes, n’importe quelle image que vous souhaitez décrire. Elle peut générer des visages photo-réalistes qui peuvent être utilisés comme « victimes » ou comme « photos d’identité », ou jouer n’importe quel faux drame avec de faux acteurs.

Des outils gratuits en ligne peuvent déjà faire tout cela de manière satisfaisante. Il est évident que les gouvernements et les méga-corporations auraient accès à des outils avancés plus coûteux qui seraient probablement presque impossibles à détecter.

Les films hollywoodiens utilisent des images de synthèse pour ramener à la vie des acteurs décédés, ajouter des visages modernes à de vieilles images d’actualité, réduire des villes en cendres ou redonner à des personnes de 60 ans l’apparence d’avoir 20 ans.

Revenons à Audrey Hepburn mangeant une barre chocolatée et examinons-la à nouveau :

On pourrait dire que cette publicité montre en fait les limites de cette technologie, après tout, elle a une qualité « uncanny valley » et personne qui a vu cette publicité n’a jamais pensé une seule seconde qu’il s’agissait vraiment d’Audrey Hepburn.

Tout d’abord, cette publicité a déjà onze ans. C’est ce qu’une petite publicité pour des bonbons pouvait faire il y a plus de dix ans. La technologie s’est améliorée depuis.

Deuxièmement, toutes ces informations sont contextuelles.

En 2013, lorsque la publicité a été diffusée, votre cerveau aurait su qu’il n’était pas censé croire ce qu’il voyait parce que vous regardiez une publicité télévisée. Votre cerveau aurait également su que ce que vous voyiez était impossible, car Audrey Hepburn aurait eu 84 ans… si elle n’était pas déjà très, très morte.

Votre cerveau analytique peut filtrer lorsqu’il dispose d’informations et d’un contexte supplémentaires. Vous voyez les ficelles quand vous savez qu’elles sont là.

Mais imaginez que ce ne soit pas Audrey Hepburn, que ce ne soit pas une publicité.

Imaginons qu’il s’agisse d’une séquence diffusée aux informations, et qu’au lieu d’une publicité pour des bonbons en technicolor, il s’agisse d’une vidéo de téléphone portable granuleuse montrant la victime A d’un attentat terroriste X. Il s’agit d’une séquence de vidéosurveillance montrant un politicien B recevant un pot-de-vin Y. Il s’agit de l’accusé C diffusant en direct son procès pour le délit Z. Le visage semble réel, l’arrière-plan semble réel, et le contexte semble réel.

Le visage semble réel, l’arrière-plan semble réel, la voix semble réelle…

… et pourtant, rien de tout cela n’est potentiellement réel.

Mais combien de personnes font cela ? Combien d’entre nous ont réinitialisé leur cerveau pour que la première question qu’ils se posent soit « oui, mais la vidéo est-elle réelle ? »

Pourtant, la réaction automatique de la plupart des gens lorsqu’on leur dit que « c’est faux » est de se moquer sans réfléchir.

Il s’agit là d’un raisonnement démodé.

Aucune des informations présentées ci-dessus n’est choquante ou nouvelle, et je ne prétends pas qu’elle le soit. La technologie est largement connue et une partie date de plus de dix ans, c’est l’ajout à notre méta mental qui est à la traîne. Son utilisation n’est pas encore automatiquement prise en considération, mais elle devrait l’être.

En clair, vous ne pouvez pas faire confiance aux images ou aux vidéos. Jamais. C’est une leçon que nous devons tous apprendre.

Nous savons donc que les outils qui se développent rapidement rendent non seulement possibles, mais aussi faciles les fausses nouvelles très convaincantes ou les événements mis en scène. Pour notre dernier point, je voudrais me concentrer davantage sur la leçon répétée de l’histoire que les gens refusent d’apprendre :

Ils. Truquent. Déjà. Tout.

D’accord, pas littéralement tout, mais beaucoup. Une quantité énorme. Bien plus que ce que la plupart des gens pensent.

C’est un exemple mineur, mais dans ce clip de CNN, deux femmes journalistes font semblant d’être à des kilomètres l’une de l’autre pour réaliser une interview par satellite, lorsqu’un bus qui passe en arrière-plan prouve qu’elles sont en fait dans le même parking, et qu’elles ne sont pas séparées par plus de quinze mètres.

Cela nous rappelle à quel point les médias que nous consommons chaque jour sont, d’une manière ou d’une autre, irréels.

On pourrait dire que la « réalité », telle que nous la concevons, n’apparaît pratiquement jamais dans les médias. Les couvertures de magazines sont retouchées. Les interviews sont mises en scène. Les « scandales » peuvent être en grande partie des opérations de relations publiques. La « télé-réalité » met en scène des acteurs rémunérés qui simulent des conflits entre eux. Chaque scénario est une invention, chaque émotion une performance.

L’Internet regorge de présentateurs météo qui se penchent sur des vents d’ouragan inexistants ou qui pagaient en canoë dans des « inondations » de quinze centimètres de profondeur.

Regardez cette vidéo, prétendument enregistrée en Égypte à l’époque du printemps arabe :

Que font-ils ? Ils semblent faire semblant de manifester, puis se figent pour poser sur des photos, certains avec de fausses blessures. Il est évident qu’ils ne sont pas réels, mais si on ne vous avait présenté que les photos ou que la vidéo, cela vous aurait-il traversé l’esprit ?

En Syrie, l’Occident a même falsifié une organisation caritative. Les « Casques blancs » étaient censés être une organisation organique de Syriens qui se consacraient à sauver des vies. Il n’en est rien. Il s’agissait d’une opération psychologique financée par l’OTAN et nombre de leurs vidéos de « sauvetage » ont été clairement mises en scène. Ils ont même participé au viral « défi du mannequin » (une mauvaise opération de relations publiques).

« Nayirah », l’infirmière koweïtienne qui a témoigné avoir vu des « bébés jetés hors des couveuses » avant la première guerre du Golfe, n’a jamais vraiment existé ; c’est la fille de l’ambassadeur du Koweït qui a joué ce rôle.

Dans son livre Bought Journalists (Journalistes achetés), le regretté Udo Ulfkotte raconte qu’il était en Irak pendant la guerre et qu’il a vu des journalistes verser de l’essence sur des chars et des voitures brûlés, à des kilomètres de la ligne de front, afin de les incendier et de prétendre faire un reportage dans une zone de guerre.

Vous vous souvenez du tristement célèbre article de Rolling Stone intitulé « Un viol sur le campus » ? 9 000 mots décrivant un viol collectif qui n’a jamais eu lieu.

Quelques jours après le lancement par la Russie de son « opération militaire spéciale » en Ukraine, les médias grand public et les réseaux sociaux ont été inondés de vidéos fausses ou mal attribuées vendant des histoires inventées de toutes pièces.

Dès sa création, La Covid a été une avalanche de faussetés, tant au niveau macro que micro.

Lorsqu’il a été lancé en Chine, nous avons eu droit à des images et des vidéos absurdes de personnes censées s’effondrer dans les rues à cause de la maladie.

La vague de personnes souffrant de la maladie « allongées sur le dos dans la rue avec un masque » s’est étendue à l’Italie en mars 2020, mais a rapidement disparu pour ne plus jamais faire parler d’elle.

Au plus fort de la panique, un utilisateur de Twitter nommé TraceyZ a affirmé que deux infirmières de l’hôpital de Swansea étaient mortes de la Covid et que trois autres se trouvaient aux soins intensifs. Cette affirmation est devenue virale avant que l’hôpital lui-même ne la contredise.

Non seulement les cinq infirmières malades n’existaient pas, mais TraceyZ n’existait pas non plus.
Le compte portant ce nom a été supprimé peu après.

Souvenez-vous de cette vidéo prise par un passant montrant des « nettoyeurs » dans le métro londonien qui font semblant de nettoyer.

Ou encore cette vidéo prise à l’intérieur d’un hôpital espagnol, où les deux « médecins » au premier plan sont habillés comme des figurants d’Outbreak, tandis qu’une personne à l’arrière-plan observe, perplexe, la scène vêtue d’un simple T-shirt.

Rappelez-vous le nombre impressionnant de personnes qui se sont engagées dans le « théâtre politique » en faisant semblant de porter des masques, comme ce type :

Les exemples de Covid ne cessent de s’accumuler, depuis quatre ans.

Et il ne s’agit là que de ceux que nous connaissons, de ceux que nous pouvons prouver.

Le paysage médiatique est saturé de faux, et ce depuis des décennies.

La technologie évoquée ci-dessus ne signifie pas qu’ils vont se mettre à faire des faux, elle signifie que les faux qu’ils font depuis des années seront plus faciles à faire et plus difficiles à détecter.

La technologie existe. La motivation existe. Les niveaux requis de malhonnêteté et de corruption sont plus qu’existants. Le droit à la paresse qui « justifie » une culture du faux-semblant existe également.

Nous avons depuis longtemps dépassé le stade où remettre en question tout ce que vous voyez et/ou entendez pourrait être considéré comme de la « paranoïa ». C’est sain, rationnel et même une condition sine qua non pour rester sain d’esprit.

Nous savons qu’ils sont prêts à truquer n’importe quoi, nous devons donc être prêts à tout remettre en question.

Cet article explique comment l’establishment pourrait créer des fausses nouvelles. Dans la deuxième partie de cet article, nous poserons une question plus importante : pourquoi.


1 Personnes qui publient des messages agressifs, ironiques ou médiocres conçus pour faire dérailler les discussions sur les réseaux sociaux ou les forums en ligne. Similaires à des « trolls ». NDT




G7 : Les acteurs politiques clés vers un gouvernement mondial unique

[Source : Kla.tv]

Par ag./mw.

Transcription

Les élections européennes sont de l’histoire ancienne, d’autres élections sont en cours. Imaginez que parmi les bulletins de vote figure un parti appelé « Complexe financier numérique-industriel des super-riches ».
Sur le programme électoral, on peut lire :
– « Concentration exclusive du pouvoir entre les mains des géants de la technologie » : Super.
– « Énorme destruction de l’environnement par des mégacorporations » : peu importe.
– « Abolition de la démocratie » : passons l’éponge !
– « Guerres sanglantes » : en font partie.
En tête de liste : un Rockefeller ou un de ses amis.
Est-ce que vous le mettriez dans votre enveloppe ? Probablement pas. L’émission suivante vous révèle pourquoi c’est pourtant exactement ce que vous obtenez, presque quel que soit votre choix.

Dans ce contexte, il vaut la peine de se pencher sur le rôle décisif du Groupe des 7 — en abrégé G7. Les pays du G7 sont les États-Unis, le Canada, le Royaume-Uni, la France, l’Allemagne, l’Italie et le Japon. On connaît le G7 plutôt par les reportages mainstream superficiels autour du sommet du G7 qui vient de se dérouler du 13 au 15 juin en Italie. Des chefs d’État souriants des pays les plus importants en bonne compagnie.

Mais le G7 est loin d’être ce qu’il semble être au premier abord. Car c’est précisément le G7 qui veille à ce qu’on vous serve le programme électoral non déclaré des « Rockefeller de ce monde ». C’est ce qui se passe, même si vous votez par exemple pour de « gentils partis » qui promettent exactement le contraire avant les élections. Pourquoi cela ? David Rockefeller répond lui-même à la question :

« Certains [extrémistes idéologiques] pensent même que nous faisons partie d’une cabale secrète qui travaille contre les meilleurs intérêts des États-Unis. Ils nous accusent, ma famille et moi, d’être des “internationalistes” et de conspirer avec d’autres à travers le monde pour construire une structure politique et économique mondiale plus unie — UN SEUL ET UNIQUE monde (One World), si vous préférez. Si c’est l’accusation, je plaide coupable et j’en suis fier. »

David Rockefeller se présente-t-il ici comme un « conspirationniste » ? Non, plutôt comme un conspirateur. Découvrez dans ce documentaire le rapport entre Rockefeller et le G7. De quoi discute-t-on à huis clos ? Quels sont les véritables objectifs du G7 ? Reconnaître le jeu réel auquel joue G7. Pour ce faire, nous jetons d’abord un coup d’œil sur les racines du G7.

1. Les racines du G7

La version officielle de la naissance du G7 est la suivante : En 1975, le président français Valéry Giscard d’Estaing et le chancelier allemand Helmut Schmidt ont appelé au premier Sommet économique mondial. Les chefs de gouvernement de la France, de l’Allemagne, de l’Italie, du Japon, de la Grande-Bretagne et des États-Unis — le Groupe des Six — se sont réunis au château de Rambouillet en France. Elle a toutefois été précédée en 1971 dans la bibliothèque de la Maison-Blanche, d’une première réunion entre cinq ministres des finances et le secrétaire au Trésor américain de l’époque, George Shultz. Des réunions régulières à huis clos ont suivi. Ce groupe, appelé « Library Group » ou encore G5 à partir de 1973, était composé de ministres des Finances et de représentants des banques centrales. La présence de banques centrales n’était certainement pas un hasard. L’étalon-or a été dissous à peu près en même temps que les premières réunions du G7. À partir de là, les banques centrales ont pu imprimer de l’argent quasiment à volonté. En prêtant de l’argent créé à partir de rien, les banques centrales américaines ont acquis une grande influence sur l’économie mondiale. Une spirale d’endettement presque sans frein des pays envers les banques américaines a commencé. La richesse réelle a été redistribuée entre les mains de quelques grandes banques privilégiées. C’est ainsi qu’il leur a été possible d’étendre massivement leur influence par le biais des pays.

2. Le réseau derrière le G7

Revenons aux pères fondateurs officiels du G7, Helmut Schmidt et Valéry Giscard d’Estaing. Le ministre américain des Finances et homme de banque George Shultz les a intégrés dans un petit réseau élitiste au début des années 70. Ainsi, avant le premier sommet du G7 en 1975, il y avait déjà eu une rencontre entre Giscard d’Estaing et Henry Kissinger le 5 juillet 1974. Quant à Helmut Schmidt, une rencontre avec David Rockefeller le 12 juin 1974 est documentée. Que représentent Kissinger et Rockefeller ?

Henry Kissinger était un stratège global extrêmement influent qui a marqué la politique mondiale de manière très décisive pendant des décennies. Il a été conseiller de presque tous les présidents américains, comme Richard Nixon, Gérald Ford, Jimmy Carter, Ronald Reagan, George Bush, Barak Obama, Donald Trump et Joe Biden. David Rockefeller et Henry Kissinger ont fondé ensemble de nombreux forums extraparlementaires influents tels que le FEM, le groupe Bilderberg, la Commission trilatérale, la Conférence de Munich sur la sécurité, etc. Ils tirent les ficelles entre une pieuvre financière mondiale et la politique. [www.kla.tv/26153 à propos de la mort d’Henry Kissinger : stratège mondial et criminel de guerre ?, www.kla.tv/27892 FEM, www.kla.tv/28218 Conférence de Munich sur la sécurité] Leurs nombreuses créations, comme le FEM, le groupe Bilderberg ou le G7, servent toutes un objectif que David Rockefeller a formulé ainsi en 1991 lors de la conférence Bilderberg à Baden-Baden : « Le monde est sur une voie complexe et préparée vers un gouvernement mondial. La souveraineté supranationale d’une élite intellectuelle et des banquiers mondiaux est certainement préférable à la souveraineté nationale des siècles passés. »

Il est important de mentionner le passé maçonnique de Kissinger et Rockefeller. Ils ont fondé en 1968, avec Zbigniew Brzeziński, la super-loge maçonnique appelée « Three Eyes ». La franc-maçonnerie de haut grade, qui agit en secret, est connue pour construire le gouvernement mondial unique sur de longues périodes. [www.kla.tv/28344 Le monde sur la toile des francs-maçons]

3. Transformation de l’Europe

L’objectif déclaré de Rockefeller, qui était d’effacer la souveraineté nationale des États au profit d’une « souveraineté supranationale d’une élite intellectuelle autoproclamée et des banquiers mondiaux », a été mis en avant par Schmidt et Giscard d’Estaing.

Helmut Schmidt (1918 – 2015)

Toute sa vie, Helmut Schmidt a été étroitement lié aux personnages clés que sont George Shultz et Henry Kissinger. Schmidt se souvient : « Avec mon exercice d’aller une fois par an en Californie, à Stanford, à l’université locale, chez mon ami George Schultz. Et je dois mentionner ici qu’il s’agit en fait d’une amitié à quatre. Shultz et Kissinger et Lee et moi. »

[Lee Kuan Yew a été pendant de nombreuses années Premier ministre de la cité-État de haute technologie de Singapour]

Une affaire purement privée ? Non, car Helmut Schmidt a été chancelier fédéral d’Allemagne. Il a été invité pour la première fois à une conférence Bilderberg en 1973, juste avant la création du G7. D’autres visites ont suivi en 1980, 1983 et 1986. Schmidt a continué à faire partie de la très influente Commission trilatérale — mise en place par Rockefeller et Kissinger. Cette commission représente une extension du groupe Bilderberg vers l’Asie de l’Est.

Caractéristique de ses liens avec ces tireurs de ficelles : Schmidt a reçu le premier prix Henry Kissinger en 2007. Le 26 janvier 2015, l’ancien chancelier allemand Helmut Schmidt a reçu le prix Gustav Stresemann, fondé par la Grande Loge des « Anciens Maçons Libres et Acceptés d’Allemagne », à Hambourg. Le Grand Maître Stephan Roth-Kleyer a remercié Schmidt pour sa « contribution particulière au cours de sa vie ».

En quoi consistait-elle ? Schmidt a suivi fidèlement la voie tracée par Kissinger. Schmidt et Giscard d’Estaing ont tous deux posé des jalons décisifs en Europe pour le nouveau système monétaire européen : l’unité monétaire européenne (ECU) au 1er janvier 1979, qui devait donner naissance plus tard à l’Union économique et monétaire européenne et à l’euro. D’un point de vue objectif, l’UE constitue une étape préliminaire à un gouvernement mondial potentiel, car elle est la création d’un pouvoir central international.

Valéry Giscard d’Estaing (1926 -2020)

Valéry Giscard d’Estaing est devenu président de la France juste après la première réunion du G7 en 1974. Il est lui aussi resté toute sa vie en étroite relation avec Kissinger et Rockefeller. Giscard d’Estaing a eu très tôt des contacts étroits avec la dynastie Rockefeller. Dans les années 1970, il a été invité à plusieurs reprises à Pocantico, l’immense propriété de la famille Rockefeller dans l’Hudson Valley. Quelques rencontres avec des membres de la famille Rockefeller sont documentées ci-dessous :
– Rencontre Nelson Rockefeller et Giscard d’Estaing du 23 mars 1976 à l’Élysée ;
– Giscard d’Estaing, Henry Kissinger et David Rockefeller 18 janvier 1989 à Moscou ;
– Henry Kissinger et Giscard d’Estaing lors de l’ouverture de la 50e conférence sur la sécurité de Munich en 2014.

Giscard d’Estaing s’est également beaucoup investi dans la construction de l’UE. Il a ainsi largement contribué à l’élaboration du traité de Lisbonne, qui a été ratifié en 2007. Ce traité a fixé les règles actuellement en vigueur dans l’Union européenne, remplaçant ainsi progressivement la souveraineté des États nationaux.

Conclusion intermédiaire : il apparaît que derrière les fondateurs connus du G7, il existe un réseau peu connu. Le réseau est bien plus complexe que ce qui est présenté dans ce documentaire. Vous trouverez des informations de fond intéressantes à ce sujet sur Kla.TV sous le hashtag #Krake. Ce qui est clair, c’est que ces chefs de file mondiaux parlent ouvertement de leurs projets de gouvernement mondial.

4. Le G7 comme groupe de pilotage du Nouvel Ordre Mondial

Les projets d’établissement d’un gouvernement mondial se retrouvent comme un fil rouge dans l’action du groupe G7. Déjà en 2009, lors du sommet de Rome, l’objectif prioritaire était de promouvoir une « Global Governance » — c’est-à-dire une « gouvernance globale ». La coopération avec le FMI, la Banque mondiale, l’OMC [World Trade Organization = Organisation Mondiale du Commerce] et les Nations unies devrait être développée. Le sommet exercerait ainsi à l’avenir un « modèle stratégique de soutien à la gouvernance globale ».

Le conseiller de la chancellerie Jörg Kukies adopte la même position à l’approche du sommet du G7 en 2022 : « Le premier thème qui est central pour nous est celui du climat. Comment réussir, en créant un club climatique mondial, à faire en sorte que les normes que nous poursuivons […] soient effectivement introduites dans le monde entier ? Le deuxième thème est celui de la santé. Comment parvenons-nous, d’une part, à assurer des taux de vaccination plus élevés en fournissant des vaccins dans tous les États du monde ? »

Dans un article sur le rôle du G7, Stewart M. Patrick, ancien membre du CFR, s’exprime ainsi : « C’est une sorte de groupe de pilotage à taille humaine de l’Occident. Ils sont un point de ralliement, une incarnation de valeurs communes et d’une approche similaire basée sur des règles pour l’ordre mondial ».

5. G7 : les leaders mondiaux

Comment travaille le G7 ? La présidence du G7 est assumée par un pays pour une durée d’un an. Officiellement, les participants au G7 représentent leur pays — donc leur population. Mais qu’en est-il dans la pratique ? Qui servent-ils vraiment ? Pour ce faire, nous allons voir « l’enfance politique » des participants les plus connus.

Les dirigeants du G7 sont listés par pays, en date de mai 2024 :

France

Emmanuel Macron, président de la République française, fait partie du groupe Bilderberg et a participé à la conférence Bilderberg de 2014.

Allemagne

Olaf Scholz, chancelier allemand, fait partie du groupe Bilderberg et a participé à la conférence Bilderberg de 2010. Jörg Kukies, négociateur en chef pour l’Allemagne lors du sommet du G7, est considéré comme l’un des principaux conseillers du chancelier Olaf Scholz. Il est secrétaire d’État à la Chancellerie fédérale. Kukies fait partie du groupe Bilderberg et a participé pour la première fois à la conférence Bilderberg de 2022 à Washington, DC.

Italie

Giorgia Meloni, Premier ministre italien, a rejoint en février 2021 l’Aspen Institute, un groupe de réflexion transatlantique dont le siège est à Washington, DC. Cet institut est cofinancé par la famille Rockefeller.

Royaume-Uni

Rishi Sunak est Premier ministre du Royaume-Uni depuis 2022. Charles III — roi du Royaume-Uni — a nommé Sunak Premier ministre le 25 octobre 2022. Charles fait partie du groupe Bilderberg depuis 1986.

Canada

Justin Trudeau — Premier ministre du Canada. Il a participé au Young Global Leader de Klaus Schwab — un programme du FEM destiné aux futurs dirigeants. Klaus Schwab a longtemps fait partie du comité directeur du groupe Bilderberg. Le ministre et membre du parti de Trudeau, François-Philippe Champagne, a participé à la conférence Bilderberg 2018 et 2019. La vice-première ministre du Canada, Chrystia Freeland, a participé à la conférence Bilderberg 2022 et 2023.

USA

Joe Biden est président des États-Unis depuis 2021. [www.kla.tv/27426#t=2084] Il est franc-maçon de haut grade et très proche du très puissant think tank mondial le « Conseil des Relations Étrangères » [CFR] Pas moins de dix-sept membres du cabinet Biden et de son équipe dirigeante, soit plus de la moitié, sont membres du CFR ou sont liés au CFR par des liens familiaux étroits.

L’Union européenne

En tant qu’organisation supranationale, l’Union européenne est membre du G7 depuis 1981 et participe depuis lors à des réunions de haut niveau. Lors du sommet du G7 en 2024, l’UE a été représentée par Ursula von der Leyen et Charles Michel. Ursula von der Leyen est présidente de la Commission européenne depuis 2019. Elle fait également partie du groupe Bilderberg et a participé à la conférence Bilderberg en 2015, 2016, 2018 et 2019. Charles Michel est président du Conseil européen depuis 2019. Il fait également partie du groupe Bilderberg et a participé à la conférence Bilderberg en 2015, 2016 et 2018.

Japon

Fumio Kishida et Shunichi Suzuki représentent actuellement le Japon. Ce n’est pas un hasard si le Japon est un représentant du G7. Le Japon a participé aux réunions du G5 à la Maison-Blanche à partir de septembre 1973. Il est intéressant de noter que c’est exactement la même année que la Commission trilatérale a été créée par David Rockefeller et Henry Kissinger. Celle-ci a pour objectif de lier des personnes clés du Japon, des États-Unis et de l’Europe au gouvernement de l’ombre. Le Japon est connu pour ses innovations technologiques rapides. La technologie avancée est la base de l’installation de la surveillance mondiale, de l’IA et d’une technocratie mondiale unique.

À noter : tous les dirigeants politiques du G7 sont issus des relais extraparlementaires de Rockefeller et Kissinger. Le peuple est sollicité dans la mesure où il peut payer la facture de ces rencontres luxueuses. Un exemple : l’organisation du sommet du G7 en 2022 au château d’Elmau en Allemagne a été estimée au préalable à environ 180 millions d’euros. Environ 18 000 forces de sécurité ont été déployées autour du sommet et le lieu de la manifestation a été en grande partie bouclé. Financeur : le contribuable.

6. G7 : la fabrique de la politique

Celui qui pense que G7 est un événement unique dans l’année se trompe lourdement. Le G7, c’est tout le temps ! Rien que depuis le 8 février de cette année et jusqu’au sommet de juin, il y a eu officiellement 27 réunions du G7 dans les configurations les plus diverses ! En voici une petite sélection :
– 30 avril : La réunion ministérielle sur le climat, l’énergie et l’environnement s’est terminée par l’adoption d’un communiqué commun.
– 6 mai : réunion des ministres de la Justice du G7
– 24 mai : réunion des ministres des Finances et des gouverneurs des banques centrales du G7,
etc.

Tous les organes du G7 agissent comme les rouages d’une grande usine politique. Par le biais de programmes de soutien et de fonds d’aide, par exemple de la Banque mondiale ou de la Banque européenne d’investissement, les pays passent sous la domination de la haute finance. Les prêts d’argent, les aides au développement et les programmes dédiés servent d’aiguillage vers l’un des objectifs du complexe numérique-financier : Mise en place du Nouvel Ordre Mondial. Leurs élèves politiques — comme les leaders du G7 — transforment les stratégies en règlements et en lois. C’est ainsi que les tireurs de ficelles internationaux dirigent le monde.

Ce qui les relie tous, ce sont toujours les mêmes tireurs de ficelles derrière le groupe Bilderberg, le FEM, l’UE, le G7, la Banque mondiale, l’ONU et bien d’autres organisations. Ainsi, Klaus Schwab, à la tête du FEM depuis de nombreuses années, et le secrétaire général de l’ONU, António Guterres, ont signé le 13 juin 2019 un partenariat entre leurs deux organisations. But : accélérer la réalisation des 17 objectifs de développement durable. Le titre officiel en français est « Transformer notre monde : l’Agenda 2030 pour le développement durable », en abrégé : « Agenda 2030 ».

Derrière les beaux mots de l’agenda du développement durable, on assiste dans la pratique à la construction d’un monde numériquement interconnecté et contrôlable.

Deux brefs exemples laissent entendre qu’en pratique, il ne s’agit effectivement pas de durabilité :

1. Ghana : sous la bannière de l’« agriculture durable », la Banque mondiale investit 200 millions de dollars au Ghana pour la résilience climatique des plantations de cacao et autres. Les investissements ne portent pas sur des installations d’irrigation ou autres, mais sur les technologies numériques.

2. Guinée : dans le cadre de l’objectif de durabilité relatif à la lutte contre les changements climatiques, la Banque européenne d’investissement (BEI) aide l’opérateur de téléphonie mobile Orange à étendre la couverture de son réseau en Guinée — avec des panneaux solaires, bien entendu. Elle n’explique pas en quoi l’extension de la téléphonie mobile a un rapport avec la protection du climat. Notons au passage que la téléphonie mobile fait partie des bases stratégiques les plus importantes du Nouvel Ordre Mondial. Ce n’est que par le biais de cette technologie que la surveillance totale sans argent liquide peut être menée à son terme.

On rencontre de nombreux exemples de ce type. La durabilité et la protection du climat semblent justifier l’expansion rapide d’un réseau numérique mondial. Mais dans quel but ?

7. la grande transformation

Klaus Schwab, fondateur du FEM et membre de longue date du comité directeur du groupe Bilderberg, le révèle dans son livre de 2016 intitulé « La quatrième révolution industrielle ». Son message fondamental est que la fusion des technologies des mondes physique, numérique et biologique crée des possibilités entièrement nouvelles. […] Schwab se déclare réclame ouvertement au du transhumanisme et qualifie la fusion des corps humains avec la sphère numérique de « progrès évolutif ».

Et le G7 ? Une note sur cet objectif élevé du transhumanisme — ou pour le dire autrement : le contrôle total des personnes — révèle une pièce de monnaie.

Et le G7 ? Une pièce de monnaie révèle un indice sur ce but ultime du transhumanisme — ou, en d’autres termes, du contrôle total de l’être humain. Celle-ci a été créée frappée à l’occasion de la septième présidence italienne du G7. La pièce d’argent représente une tête humaine sous la couronne de l’intelligence artificielle. Comme boucle d’oreille, on voit un pentagramme. Depuis l’occultiste français Eliphas Levi, au milieu du XIXe siècle, le pentagramme est associé à l’occultisme et au satanisme. L’inscription sur la pièce est intitulée « Vers l’avenir ».

Conclusion : le G7 se révèle être une sorte d’usine à politiques aux mains des banquiers mondiaux et de leurs stratèges mondiaux. David Rockefeller lui-même cite comme objectif un gouvernement mondial sous la régence d’une élite intellectuelle et des banquiers mondiaux. Le G7 pose les jalons par le biais des fonds de soutien des banquiers, des programmes et des lois. Le G7 est le relais infiltré pour faire passer l’agenda de cette élite non élue dans les parlements et la politique quotidienne des États.

Chers spectateurs, il est évident que l’élite a besoin de ce travail dissimulé et de ces manœuvres de tromperie pour pouvoir rester au pouvoir. Il est évident que ce gouvernement de l’ombre ne craint rien de plus que sa divulgation. Les lois hystériquement proclamées pour « lutter contre la désinformation » en témoignent. C’est pourquoi vous contribuez à informer vos concitoyens et les politiciens qui font des efforts honnêtes. Tout comme les ombres disparaissent à la lumière, le gouvernement de l’ombre disparaît lorsque la lumière tombe sur lui.

Sources/Liens :




Quelques éléments sur les stratégies de contrôle mental des masses

[Source : arcaluinoe.info]

Par Calistrat Marvin Atudorei

Ce n’est plus un secret pour personne que derrière les gouvernements du monde se cache depuis au moins 100 ans un gouvernement invisible qui cherche par tous les moyens à prendre le contrôle total de l’Humanité. Je rappelle ici les paroles du président américain Théodore Roosevelt qui, en 1912, a déclaré publiquement :

« Derrière le gouvernement ostensible trône un gouvernement invisible qui ne doit aucune allégeance et ne reconnaît aucune responsabilité à l’égard du peuple ».1

De nombreux idéologues de l’obscure « élite » ont cherché au fil des ans à endormir la conscience des masses avec des théories délirantes destinées à faire accepter aux peuples du monde la « nécessité » d’établir une forme de gouvernance mondiale. Antonio Gramsci, par exemple, théoricien clé de l’école de Francfort, soutenait que la société devait être infusée par la classe dirigeante par le biais d’une certaine forme de persuasion politique et culturelle afin que les classes du bas de la société ne se révoltent plus, mais acceptent d’être dominées et se soumettent même volontiers, comme une sorte d’« esclaves heureux ».2

Dès 1927, l’idéologie du consentement vicié, développée en collaboration directe avec les principaux penseurs de l’École de Francfort, est officiellement inoculée au sein de la « démocratie » américaine grâce à des contributions telles que celle d’Edward Bernays, petit-fils du célèbre psychanalyste Sigmund Freud. Dans son ouvrage intitulé Propaganda, Bernays affirme :

« La manipulation consciente et intelligente des habitudes et des opinions organisées des masses est un élément important de la société démocratique. Ceux qui manipulent ce mécanisme invisible de la société constituent un gouvernement invisible. Nous sommes gouvernés, nos esprits sont modelés, nos goûts formés, nos idées suggérées, en grande partie par des hommes dont nous n’avons jamais entendu parler. Ce sont eux qui tirent les fils qui contrôlent l’esprit public, qui maîtrisent les forces sociales et qui créent de nouveaux moyens de soumettre et de guider le monde ».3

Ce n’est pas une coïncidence si Bernays a ensuite été nommé responsable du réseau CBS (Columbia Broadcast System) à ses débuts. C’est également à cette époque que la Fondation Rockefeller a commencé à financer massivement des études et des expériences susceptibles d’avoir un impact social. L’une des expériences les plus célèbres (apparemment coordonnée par la CIA), qui a fait date dans le développement des techniques de manipulation mentale, a été la diffusion par CBS, le 31 octobre 1928, de la pièce radiophonique « La guerre des mondes », basée sur un roman de H. G. Wells. C’était exactement la nuit d’Halloween, au cours de laquelle les esprits démoniaques étaient déjà largement évoqués aux États-Unis. L’émission a suivi une stratégie spéciale pour influencer le public, qui a eu un effet stupéfiant. Je mentionnerai brièvement quelques détails pour offrir un exemple plus suggestif. Sur fond d’une atmosphère radiophonique qui semblait tout à fait ordinaire, avec une musique relaxante et des nouvelles banales, le rythme a été soudainement rompu par des « informations » selon lesquelles l’Amérique était attaquée par des êtres extrêmement agressifs, possédant des vaisseaux volants et causant de grandes destructions à l’aide d’une sorte de rayon laser, qui seraient venus de Mars. La terreur instillée dans le public à travers les États-Unis était si grande que des milliers de personnes sont descendues dans les rues en courant désespérément pour sauver leur vie. La police a reçu un grand nombre d’appels téléphoniques et plusieurs décès ont été enregistrés en raison des troubles provoqués par la panique.

Compte tenu du fort impact de l’expérience, les émissions médiatiques ont commencé — surtout après les années 1940, sous la coordination attentive de l’Institut Tavistock — à devenir un facteur majeur dans l’orientation de l’esprit collectif. En ce qui concerne les recherches entreprises par l’Institut Tavistock, il est significatif que l’un de ses experts, le Dr William Sargeant, ait déclaré en 1957 dans son livre Battle for the Mind — A Physiology of Coversion and Brain-Washing (La bataille de l’esprit — Une physiologie de la dissimulation et du lavage de cerveau) :

« Les personnes dont le fonctionnement du cerveau a été suffisamment perturbé par l’induction intentionnelle ou accidentelle de la peur, de la colère ou de l’excitation peuvent se voir inoculer de nombreuses idées. Le résultat le plus fréquent d’une telle perturbation est l’altération temporaire du discernement et l’augmentation de la suggestibilité. Les événements qui se produisent au sein des groupes sont parfois caractérisés par le terme “instinct de troupeau”, et se produisent le plus souvent pendant les guerres, les épidémies graves, et en général dans les périodes de grand danger, qui augmentent l’anxiété et donc la suggestibilité individuelle et de masse ».4

Voici donc l’objectif poursuivi par les experts du Système : faire vivre les gens dans la peur pour qu’ils se comportent comme un troupeau !

Pour en revenir à la radio et surtout à la télévision, leur influence est devenue de plus en plus déterminante dans la société. CBS est rapidement devenue une chaîne de télévision très promue, bientôt rejointe par d’autres, toutes détenues par des sociétés de plus en plus riches du gouvernement de l’ombre.

Nous sommes maintenant bien conscients qu’à travers ces réseaux de télévision d’entreprise, divers récits souhaités par l’« élite » de l’ombre sont imprimés avec une persuasion professionnelle (et perverse) dans la conscience des masses, des récits qui n’ont rien à voir avec la vérité, l’éthique journalistique ou la moralité. C’est ainsi, par exemple, que les armées de pseudo-journalistes, avec les politiciens serviles et les « spécialistes » de façade du Système, ont joué le théâtre génocidaire de la « pandémie de Covid-19 », qui a tué des dizaines ou des centaines de millions de personnes dans le monde. Partout dans le monde, les mêmes phrases mensongères ont été infusées, les mêmes mesures restrictives et les mêmes protocoles criminels ont été imposés. Tout avis éclairé émanant de vrais experts a été banni (et même puni), de sorte que nous avons assisté à l’instillation d’une étrange forme d’hypnose maléfique à l’échelle planétaire.

Pour mettre les choses en perspective, nous pouvons voir qu’au cours des dernières décennies, la manipulation et la propagande ont justifié de la même manière d’innombrables guerres, renversements de régime, coups d’État, révolutions mises en scène ou « interventions humanitaires » (telles que celles de l’OTAN en Yougoslavie ou en Libye). C’est également par la manipulation des récits que l’interprétation publique des grands attentats sous faux drapeau, comme celui du 11 septembre 2001, a été manipulée, le plus souvent sur la base de la triade stratégique « problème-réaction-solution ». De même, en créant des récits dans l’esprit collectif, d’étranges déviations de la norme, telles que l’idéologie du genre, la rhétorique de la culpabilité des gens pour le « changement climatique » ou l’incitation à manger… toutes sortes d’insectes ont été progressivement mis en place dans la société. L’introduction d’idées et de symboles démoniaques dans la culture dominante (dans les émissions musicales et les films, même dans les dessins animés pour enfants), ou l’introduction de modes bizarres (vêtements déchirés, déformés, aberrants) ont également joué un rôle très important dans cette stratégie. Tout cela a été mis en place progressivement, en utilisant pas à pas la stratégie connue sous le nom de « La fenêtre d’Overtone » (la méthode qui consiste à changer la perception en avançant par petites étapes).

Un aspect fondamental de la base idéologique de l’imposition d’un récit à la conscience de masse est celui de la physique quantique. Sans surprise, les instituts de manipulation de masse s’appuient sur des études scientifiques complexes dans tous les domaines. Des études que les « élites » de l’ombre financent depuis de nombreuses décennies. Ainsi, selon la recherche quantique, le monde extérieur n’est pas une donnée objective, mais est/devient ce que nous croyons fermement qu’il est. L’idée a également été reprise par la philosophie post-moderniste et se reflète dans des articles de philosophie politique désormais célèbres, tels que Anarchy is what states make of it (L’anarchie est ce que les États en font) d’Alexander Wendt, dans lequel l’auteur affirme que la guerre froide s’est terminée à l’amiable grâce au président de l’URSS de l’époque, Mikhaïl Gorbatchev, qui a créé un paradigme pacifiste. C’est pour cette même raison que Gorbatchev, très apprécié des marionnettistes occidentaux, a reçu le prix Nobel de la paix en 1990.

Le fait que l’esprit (la conscience) influence la matière est réellement authentique et attesté. Les processus psychophysiologiques internes appelés Placebo (guérison par la pensée positive) et Nocebo (maladie par la pensée négative) en sont une application connue. Ce qui est moins connu, c’est que l’environnement extérieur (phénomènes naturels, environnement social, etc.) peut être (et est) également façonné de manière inhérente par les pensées et les émotions collectives. L’explication scientifique est celle du substrat et du champ de l’énergie, qui sont facilement influencés par la conscience. Pour plus de détails, je recommande d’examiner les conclusions de l’expérience élémentaire de physique quantique sur l’émission d’un électron vers un mur à deux fentes ou la conclusion des scientifiques selon laquelle un expérimentateur n’est jamais neutre, mais devient automatiquement un « participant ».

[NDLR L’auteur évoque ici la différence de comportement d’un faisceau d’électrons selon que celui-ci croise deux ouvertures dans un obstacle matériel ou une seule. Dans le premier cas, les électrons apparaissent comme une onde et engendrent des interférences. Dans le second cas, ils apparaissent comme des particules. C’est ainsi que le modèle (ou théorie interprétative) de l’électron a été désigné comme une dualité onde-particule. Cependant, l’observateur ne change pas le résultat simplement du fait d’observer, mais en changeant les conditions de l’observation ou de l’expérience. L’électron ne change pas de nature, ni même de comportement sous la volonté directe de l’observateur. Il ne fait que se projeter différemment dans notre espace physique selon la condition d’observation choisie par l’observateur expérimentateur.

Voir https://fr.wikipedia.org/wiki/Dualit%C3%A9_onde-corpuscule.
Extrait :

Métaphore du cylindre

Métaphore du cylindre :
objet ayant à la fois les propriétés
d’un disque et d’un rectangle.

La métaphore du cylindre est l’exemple d’un objet ayant des propriétés apparemment inconciliables. Il serait à première vue déroutant d’affirmer qu’un objet ait à la fois les propriétés d’un disque et d’un rectangle : sur un plan, un objet est soit un disque, soit un rectangle.

Mais si l’on considère un cylindre : une projection suivant l’axe du cylindre donne un disque, et une projection perpendiculairement à cet axe donne un rectangle.

De la même manière, « onde » et « corpuscule » sont des manières de voir les choses et non les choses en elles-mêmes. Le terme de dualité est alors assez « contradictoire », signifiant qu’il existe deux choses différentes alors qu’il s’agit bien de l’unification de deux domaines de la physique : les ondes et l’aspect corpusculaire.

Notons par ailleurs que dans la description mathématique de la physique quantique, le résultat de la mesure est similaire à une projection géométrique (notion d’observable : l’état de l’objet est décrit par des nombres que l’on peut voir comme des coordonnées dans une base vectorielle, et en géométrie euclidienne, les coordonnées sont la projection de l’objet sur les axes de référence).

C’est l’absence d’équivalent macroscopique sur quoi nous pourrions nous référer qui nous force à penser les objets quantiques comme possédant des attributs contradictoires. Il serait inexact de dire que la lumière (comme tout autre système quantique d’ailleurs) est à la fois une onde et un corpuscule, elle n’est ni l’un, ni l’autre. Le manque d’un vocabulaire adéquat et l’impossibilité de se faire une représentation mentale intuitive des phénomènes à petite échelle nous font voir ces objets comme ayant une nature, par elle-même, antinomique.

Pour lever cet apparent paradoxe et insister sur l’imperfection de nos concepts classiques d’onde et de corpuscule, les physiciens Jean-Marc Lévy-Leblond et Françoise Balibar ont proposé d’utiliser le terme de « quanton » pour parler d’un objet quantique. Un quanton n’est ni une onde, ni un corpuscule, mais peut présenter les deux aspects selon le principe de complémentarité de Bohr.

Ce sont les physiciens quantiques dits de l’école de Copenhague qui ont supposé l’idée que l’observateur modifiait le résultat de l’expérience par le simple fait d’observer, alors qu’en réalité ils mesurent ou testent et donc interviennent avec divers appareils sur l’objet quantique observé (électron, photon, ou autre).

Par contre, les influences émotionnelles, mentales ou psychiques collectives évoquées par l’auteur peuvent s’expliquer dans leur dimension physique par l’existence d’autres phénomènes, comme l’induction électromagnétique et la résonance, sachant notamment que le corps humain n’est pas seulement de nature chimique, mais aussi électrique.]

Dans les traditions spirituelles, ces informations sont connues intuitivement depuis très longtemps et ont été utilisées à des fins d’harmonisation, de protection et d’élévation des communautés humaines, notamment par le biais de prières collectives. Cependant, l’« élite » mondialiste utilise ces informations pour induire des processus de résonance avec des énergies négatives, qui perturbent, limitent et bloquent le potentiel créatif des masses humaines. Cela se fait principalement par le biais de la télévision, qui n’émet presque que des suggestions, des émotions et des vibrations négatives. Des installations psychotroniques (comme HAARP, mais aussi des installations beaucoup plus petites) sont également utilisées, qui génèrent divers états négatifs dans la population, tels que la tension, le stress ou la passivité, selon la fréquence spécifique de la transmission utilisée.

Pour comprendre le profil psychologique des membres de l’élite, il est particulièrement important de savoir qu’ils font pratiquement tous partie d’organisations occultes, secrètes et démoniaques. Qu’il s’agisse de la secte des Illuminati, des Jésuites, de la franc-maçonnerie, des Skull&Bones, etc., la caractéristique fondamentale commune à tous ces groupes est qu’ils cherchent à recevoir un pouvoir subtil de la part de certaines entités obscures. Cela devient évident lorsque nous suivons leurs horribles rituels, dans lesquels ils vénèrent une divinité arrogante, au nom de laquelle ils procèdent même à des sacrifices humains et boivent souvent le sang de la victime (en particulier des enfants). Ne nous faisons pas d’illusions : ces rituels fonctionnent réellement, et c’est pourquoi les membres de la cabale les pratiquent avec une telle constance ! L’objectif principal que poursuivent les psychopathes de l’élite mondialiste au sommet de la pyramide satanique n’est pas l’argent (qu’ils possèdent déjà) ni même le pouvoir social en soi (qu’ils possèdent également), mais un certain état de puissance occulte maléfique, qu’ils s’imaginent pouvoir obtenir grâce à ces entités obscures d’un autre monde dont ils exigent la récompense. Pour les membres de ces cabales, les masses humaines sont comparables en importance à des animaux, et ils cherchent donc à réduire la population à un petit nombre. Ceux qui restent en vie ne peuvent avoir d’autre but, selon eux, que d’être des esclaves totalement contrôlés mentalement par l’« élite ».

Les satanistes au sommet de la pyramide des organisations secrètes offrent toutes sortes de « cadeaux » rituels aux entités qu’ils évoquent dans leurs cérémonies et s’attendent à recevoir en retour succès et pouvoir. Ces rituels, qui sont en fait des rituels de magie noire, impliquent souvent des masses inconscientes, qui ne savent même pas à quoi elles participent et avec quels effets. De telles pratiques ont été incluses dans les cérémonies d’ouverture des Jeux olympiques de Londres en 20125, dans les cérémonies d’ouverture du Centre européen pour la recherche nucléaire (CERN)6 près de Genève (Suisse) en 2016 ou lors de l’ouverture du tunnel ferroviaire du Saint-Gothard7 près du CERN, également en 2016. Il est significatif que ces rituels aient été suivis, entre autres, par les principaux dirigeants de diverses organisations mondialistes, un fait qui indique quels sont leurs goûts et leurs inclinations. Les cérémonies ont été retransmises en direct sur la télévision centrale, ce qui a permis à la force occulte générée de croître énormément en engageant l’esprit collectif et les émotions au niveau des masses, créant ainsi un énorme champ psychique. Un autre exemple, très récent, est la mise en scène d’une « chanson » dans le concours de l’Eurovision 2024 qui était manifestement une incantation satanique horrible et persuasive.8

Ces spectacles rituels sataniques ont donc un double rôle : d’une part, ils accumulent l’énergie psychique des foules de spectateurs pour donner de la force au rituel, et d’autre part, ils inoculent des graines démoniaques dans l’esprit collectif. En générant systématiquement ces résonances, il devient très probable, surtout pour certaines catégories de personnes, de voir se développer de graves effets maléfiques. Elles finissent aussi, par défaut, par pervertir la société dans son ensemble et par abaisser dramatiquement le niveau général de conscience. Les masses de personnes ayant un faible niveau de conscience peuvent ainsi être plus facilement contrôlées et soumises. En revanche, les collectivités spirituelles, animées par des idéaux élevés et des valeurs morales immuables, ne peuvent pas et ne pourront jamais être contrôlées par des forces obscures par le biais de tels stratagèmes. C’est pourquoi l’objectif premier de tous les groupes sataniques est de démanteler et de détruire les groupes spirituels authentiques et surtout leurs dirigeants.

Enfin, les dirigeants satanistes sont initiés à de nombreux mystères occultes qui leur permettent d’exercer une forte emprise sur les masses. Ils connaissent, par exemple, l’importance des conjonctions astrologiques pour potentialiser une action. Un exemple éloquent, documenté par l’historien Juri Lina, est l’attaque bolchevique contre le Palais impérial d’hiver (où se trouvait alors le gouvernement provisoire de Kerensky) à une heure précise de la nuit en octobre 1917.9 C’était l’heure de l’influence astrologique négative maximale du signe du Scorpion. D’où le nom du livre (1998) écrit par Juri Lina : Sous le signe du Scorpion. Les occultistes sataniques sont également obsédés par les nombres et les symboles. Les couvertures du magazine The Economist (financé par la Fondation Rockefeller), qui transmettent des messages codés sur l’avenir à ceux qui sont au courant, en sont des exemples notables. Dans la même lignée de magie noire, aucun attentat sous fausse bannière ni aucune étape des agendas mondialistes ne sont exécutés au hasard.10 Par ailleurs, il est désormais évident qu’à travers les films, les articles des médias grand public et les journaux télévisés, des suggestions et des symboles sont systématiquement insérés dans l’esprit des gens pour servir l’objectif précis de leur programmation mentale prédictive. Une certaine version de l’avenir est répétée de manière hypnotique pour les masses, de sorte que lorsque les événements sont orientés dans cette direction, l’impression générale de la population est que « nous nous y attendions ».

Il existe de nombreuses autres méthodes et techniques de contrôle mental des grands groupes.

Sur le plan social, on pourrait parler du maintien de l’insécurité et de la pauvreté, des plans visant à mélanger les races en déversant des millions d’immigrants, de la culture des déviations sexuelles ou de l’encouragement irresponsable du transhumanisme et de l’intelligence artificielle. Le dénominateur commun de ces méthodes est de maintenir les gens dans la confusion, l’ignorance, la peur et la tension.

Au niveau physiologique, on peut également citer, comme adjuvants des méthodes de contrôle mental, l’injection de sérums criminels (dits « vaccins »), l’introduction délibérée d’additifs toxiques dans la nourriture et l’eau, la mise en œuvre (désastreuse pour la santé) des technologies 5G ou le déversement systématique et criminel de chemtrails toxiques dans le ciel de la planète.

Presque tous ces moyens sont, d’une manière ou d’une autre, intégrés et encouragés par l’Agenda 2030 des Nations unies et d’autres organisations qui prétendent au leadership mondial (y compris le Forum économique mondial de Davos).

Conclusion : nous sommes au cœur d’une guerre des psychopathes mondialistes contre la population mondiale. C’est une guerre informelle et invisible, menée par tous les moyens et surtout par des opérations psychologiques, ce qui lui vaut d’être qualifiée de « guerre de cinquième génération ». Il s’agit essentiellement d’une guerre spirituelle, car l’enjeu est la conscience des gens. La raison spirituelle pour laquelle les psychopathes sataniques font tout ce qui est en leur pouvoir pour bloquer ou altérer notre conscience est que, précisément, notre conscience est notre arme et notre force les plus puissantes. Pourquoi ? Parce qu’à travers la conscience, nous pouvons nous connecter au Pouvoir et à l’Amour infinis de Dieu, devenant ainsi, à notre tour, au niveau de l’esprit, invincibles comme des prolongements/rayons de la Lumière Divine.

Calistrat Marvin Atudorei

Calistrat Marvin Atudorei, docteur en philosophie politique et auteur de « America’s Plans for World Hegemony », Roumanie





Des chercheurs chinois ont fait des découvertes inédites dans les échantillons lunaires de Chang’e-5

[Source : chine-magazine.com via RI]

[Illustration : sonde Chang’e5 sur la Lune]

Des chercheurs chinois ont récemment découvert pour la première fois un graphène naturel multicouche dans les échantillons lunaires rapportés par la sonde Chang’e-5. Cette découverte fournit de nouvelles informations sur les activités géologiques de la Lune, son histoire et ses caractéristiques environnementales.

De plus, ces échantillons permettent aux chercheurs d’élargir leur champ de compréhension de la composition minérale complexe du sol lunaire et offrent des informations et des indices importants pour l’utilisation des ressources lunaires.

Selon l’équipe de recherche de l’Université de Jilin, cité par le CIIE, environ 1,9 % du carbone interstellaire total existe sous forme de graphène, dont la morphologie et les propriétés sont déterminées par un processus de formation spécifique.

De fait, le graphène* naturel peut fournir des références et des informations importantes concernant l’évolution géologique des corps célestes et l’utilisation in situ des ressources lunaires.

Les travaux ont été menés par les chercheurs de l’Université de Jilin et de l’Institut de recherche sur les métaux de l’Académie des sciences de Chine (ASC), soutenus par le Centre d’exploration lunaire et d’ingénierie spatiale de l’Administration spatiale nationale de Chine (CNSA). Ces derniers ont récemment publié leurs découvertes dans la National Science Review.

En effet, les scientifiques ont analysé les spectres Raman, utilisés pour étudier les sols lunaires, dans des zones de prélèvement d’échantillons à teneur en carbone relativement élevée. Ils ont confirmé que la qualité de cristallisation du carbone graphite dans les échantillons lunaires était relativement élevée.

Ils ont aussi découvert que les zones des échantillons de sol lunaire contenant du carbone contenaient également des composés de fer, qui seraient étroitement liés à la formation de graphène. Après observation et analyse des échantillons, l’équipe a confirmé que la forme graphite du carbone détectée dans les échantillons de sol lunaire était un type de graphène multicouche (MLG).

L’équipe de recherche a confirmé que la formation de graphène et de graphite multicouche pouvait provenir de processus catalytiques minéraux induits conjointement par les vents solaires et les premières éruptions volcaniques sur la Lune.

Au total, 1731 grammes d’échantillons lunaires ont été rapportés par la mission Chang’e-5 en décembre 2020. Ces échantillons ont été les premiers jamais obtenus dans une région plus jeune de la surface lunaire contenant des roches volcaniques. Il s’agit également des premiers échantillons de corps célestes extraterrestres ramenés sur Terre par des scientifiques chinois.

Au cours du mois de juin 2024, un total de 258 échantillons lunaires pesant 77,7 grammes ont été collectés par Chang’e-5 et distribués à 114 équipes de recherche de 40 institutions de recherche.


*Nanomatériau, cristal de carbone dont les atomes sont organisés en cellules hexagonales. (Dictionnaire Le Robert)




Dr Mike Yeadon : « La fraude “SRAS-CoV-2” est considérée comme prouvée »

[Source : courriel et https://t.me/DrMikeYeadonsolochannel

Par Mike Yeadon

Il y a encore beaucoup de gens, y compris certains qui savent qu’on nous a menti, qui croient qu’il s’est quand même passé quelque chose de terrible, peut-être une libération délibérée, et que ce qui s’est passé, c’est que les autorités ont exagéré la situation.

Il y a quelque temps, je suis arrivé à une conclusion différente.

Après un siècle d’échec dans la démonstration de la transmission des symptômes cliniques d’une personne atteinte d’une maladie respiratoire aiguë à un receveur sain, il est clair que ces maladies aiguës ne sont pas infectieuses ni contagieuses par nature.

Nous avons été programmés à croire le contraire pendant si longtemps et de manière si efficace que de nombreuses personnes n’acceptent tout simplement pas les preuves empiriques de la tromperie.

Stefan Homburg décrit ici de nombreux exemples, tous effroyables, de la manière dont les experts de l’Institut Robert Koch, institution allemande de santé publique, ont été à plusieurs reprises écartés par de hauts responsables politiques allemands. Le RKI, par lâcheté, s’est toujours conformé et a émis des avertissements qu’il prétendait fondés sur la science.

L’enregistrement complet [voir en fin d’article] est si court (moins de sept minutes) que nous pouvons tous le regarder facilement.

Cet enregistrement officiel, qui n’a jamais été destiné à être vu par le public, a finalement été obtenu dans le cadre de la liberté d’information par l’obstiné Paul Schreyer, le journaliste d’investigation qui a réalisé le célèbre documentaire intitulé « Simulations de pandémie : préparation d’une nouvelle ère ». Cet élément de preuve a été pour moi un catalyseur.

Ensemble, j’appelle tout le monde à reconnaître enfin que le rasoir d’Occam tranche bien pour révéler que TOUT était de la propagande. Il n’y a pas eu de nouvelle maladie appelée Covid-19. Il n’y a pas de « virus » SRAS-CoV-2. Ce groupe de maladies n’est ni infectieux ni contagieux. [NDLR Surlignement et caractères gras ajoutés.]

Les maladies respiratoires aiguës sont si courantes qu’il a déjà été prouvé qu’elles pouvaient être facilement militarisées et utilisées dans ce que l’on peut légitimement qualifier de terrorisme mondial par les autorités et les institutions étatiques du monde entier.

Veuillez regarder et utiliser cet enregistrement qui décrit bien ce qui s’est passé en Allemagne. Les fichiers qui ont été publiés dans le cadre du FOI peuvent être téléchargés à partir du RKI et ont bien sûr été téléchargés et stockés de manière indépendante, de sorte que des modifications ne peuvent pas être apportées sans qu’elles ne soient évidentes.

Je ne pense pas qu’il existe un document équivalent qui admette à plusieurs reprises que cet événement était entièrement POLITIQUE et que les décisions ont été entièrement prises par des personnes politiques non qualifiées sur le plan technique au sommet du gouvernement. Il est évident que, compte tenu de l’importante coordination internationale, des ordres ont été donnés à un niveau supérieur à celui de la nation.

Toute personne souhaitant contester cette conclusion est invitée à tenter de justifier son point de vue qui, cependant, n’a pas d’autre choix que d’inclure toutes ces admissions de la part du RKI.

Je n’exclus pas qu’il ait pu y avoir d’autres activités criminelles dans certaines régions, et je vous prie de vous rappeler que nous avons de bonnes preuves dans plusieurs pays que les « pics de mortalité pandémique » étaient en accord avec la proposition selon laquelle ils étaient entièrement iatrogènes, c’est-à-dire des assassinats par des protocoles médicaux, que ceux qui les ont mis en œuvre l’aient su ou non.

Enfin, soyez très attentifs à ce qui a été prouvé en 2020 jusqu’à aujourd’hui lorsque vous observez le rythme de la « grippe aviaire ».

[Voir aussi, chronologiquement :
« La grippe aviaire est de retour… alors ne mangez plus de bœuf ! »
Grippe aviaire, censure et vaccins en 100 jours : 7 prédictions pour la prochaine pandémie
Et la grippe aviaire continue de sévir…
Comment (et pourquoi) la grippe aviaire est sur le point d’entrer dans la phase des tests de masse
Mise à jour sur la grippe aviaire : signes avant-coureurs de la « propagation » à venir]

Comme je l’ai déjà dit, il ne s’agit que de mensonges et de propagande visant à susciter la peur. Nous disposons d’une brève période pendant laquelle nous pouvons choisir d’être courageux et de dénoncer cette méchanceté aussi largement que chacun d’entre nous le peut. Cette tâche ne peut pas être confiée à un petit nombre d’entre nous détenant l’information, car nous sommes si efficacement bâillonnés lorsqu’il s’agit d’atteindre un grand nombre de personnes que les auteurs [de telles plandémies] ne s’inquiètent plus de nous voir nous exprimer. Cela signifie que vous devez vous-mêmes porter ces faits et ces vérités sur le terrain, en appelant de l’aide au fur et à mesure.

MERCI pour vos efforts.

Meilleurs vœux,

Mike




La face cachée d’Elon Musk : ce que vous devez savoir

[Source : Parlons peu Parlons bien]

Dans cette vidéo, nous allons explorer les théories et les mystères entourant Elon Musk et son rôle potentiel dans le monde actuel. Est-il vraiment l’Antéchrist comme certains le pensent ? Nous allons déchiffrer les indices et les spéculations pour voir ce qui se cache derrière cette figure emblématique de la technologie. Rejoignez-nous pour un voyage fascinant au cœur des prophéties et des innovations technologiques.

Voir aussi :

La réalité d’Elon Musk ?

(Vidéo 28 min)

Alex Jones, Elon Musk, Donald Trump, intelligence militaire, guerres de l’IA et Skynet

La réintégration d’Alex Jones sur Twitter n’est pas un hasard. Et cela a des implications bien plus importantes que ce que la plupart des gens imaginent. Parce que cela coïncide avec Elon Musk, les militaires, ce que Mike Adams appelle les réseaux d’intelligence profonde, et la façon dont ils soutiennent maintenant Elon Musk et Tucker Carlson. Et ils se préparent aussi à remettre Trump au pouvoir pour un troisième mandat. Et ce n’est pas une faute de frappe. Ce serait le troisième mandat de Trump, et non son deuxième, bien que le deuxième ait été illégalement occupé et écrasé par le régime antiaméricain de Biden.

Musk propose d’aider à reconstruire une bande de Gaza déradicalisée et « prospère » après avoir visité un kibboutz ravagé avec Netanyahou

Elon Musk s’est rendu lundi dans le sud d’Israël à l’invitation personnelle du Premier ministre Benjamin Netanyahou, où il a pu visiter un kibboutz israélien laissé à l’abandon par les raids terroristes du Hamas du 7 octobre.

Elon Musk, l’homme de main des mondialistes

Elon Musk est un projet de relations publiques des élites mondialistes. Dans l’espace médiatique, y compris en Russie, une image positive d’Elon Musk a été formée. Il est un entrepreneur prospère et propriétaire de TESLA, SpaceX et STARLINK, un conquérant de l’espace visionnaire et un vendeur excentrique de lance-flammes contre les zombies. Mais derrière cette façade colorée se cache un empire technologique profondément intégré au complexe de l’industrie militaire américaine.

Pourquoi Elon Musk a-t-il embauché Linda Yaccarino, cadre du WEF, pour devenir PDG de Twitter ?

Alors que certains voyaient en Elon Musk le gardien de la liberté d’expression, celui-ci vient de désigner comme PDG de Twitter Linda Yaccarino.

Or, Linda Yaccarino est la présidente du groupe de réflexion du Forum économique mondial (WEF) de Davos sur l’avenir du travail. Ce Forum économique mondial qui parlait il y a peu d’une nouvelle technologie permettant de lire dans vos pensées.




Le machinisme ou le règne de l’inhumanité

[Source : SACR TV]

Nous avons souvent cité l’écrivain Georges Bernanos au sujet de son essai « La France contre les Robots », dans lequel il critiquait la société industrielle et matérialiste dénonçant un progrès technique n’incluant pas nécessairement le progrès humain, où l’un aura même tendance à détruire l’autre. Il écrivait entre autres :

« Un monde gagné pour la technique est perdu pour la Liberté. »

(Georges Bernanos — La France contre les robots (1946))

Au-delà de l’analyse très juste de Bernanos, dont nous vous invitons à lire l’essai, observons ce qu’il en est en ce début du XXIe siècle pour ce qui est du règne du machinisme…

Malgré cette lutte acharnée entre l’Homme et la machine, les industriels finirent, au fil du temps, par imposer les machines dans le monde du travail. En parallèle du développement des machines industrielles, les conditions des ouvriers s’améliorèrent, grâce, entre autres, à leur sacrifice dans les grèves et surtout face aux répressions sanglantes. La république en France eut souvent la gâchette facile contre eux, souvent de la part de gouvernements socialistes. Mais la logique du profit à outrance ne pouvait s’arrêter là ! Même s’ils ont su imposer les machines dans les industries, augmentant considérablement le rendement, ce n’était pas suffisant ! D’autres idées tout aussi malsaines émergèrent de l’esprit dépourvu d’humanité de cette caste voué au Veau d’Or. Leur objectif, pour faire encore plus de profit, étant de baisser au maximum les salaires. Étant donné que le monde ouvrier en France était devenu assez organisé pour s’y opposer efficacement, ils trouvèrent une double solution avec le soutien systématique de la république en France : les délocalisations et l’immigration massive !

S’ajoute à cela le fait que cette immigration massive, en plus de favoriser un patronat véreux, est également utilisée à des fins purement idéologiques, visant à détruire la civilisation européenne pour la mise en place d’une dictature mondialiste. Tout détruire au nom du culte du Veau d’Or et des objectifs messianiques des mondialistes, voilà l’avenir qui se profile devant nous !

Malheureusement, en ce début du XXIe siècle, la technologie n’a eu de cesse de se perfectionner d’une manière particulièrement exponentielle. De l’an 2000 à 2020, nous avons vu apparaître dans notre quotidien, des drones, des téléphones portables ultrasophistiqués plus proches d’un ordinateur portable que d’un téléphone. Les tablettes et les écrans tactiles, des ordinateurs écrans plats et le développement extraordinaire du réseau Internet. Les QR-codes, les GPS, des consoles de jeux offrant un univers proche du réalisme. Les télévisions HD écrans plats géants avec une multiplication considérable de chaînes, offrant des émissions encore plus débiles, financées par l’omnipotence des pubs. Sans oublier aussi l’utilisation de la technologie holographique. De plus en plus de concerts sont organisés avec des chanteuses ou chanteurs morts. Comme Whitney Houston, Mickael Jackson, Claude François, Elvis Presley et bien d’autres encore… Même en politique la technologie holographique a fait son irruption, avec Jean-Luc Mélenchon, alors candidat à la présidentielle de 2017, qui, lors d’un rassemblement, projeta simultanément à divers endroits, des hologrammes de sa personne ! Nous pouvons citer aussi les modes de paiements sans contact ou directement par Internet, visant à préparer le terrain d’une future monnaie virtuelle supplantant celle que l’Humanité a toujours connue jusqu’alors : les pièces, les billets et les chèques. Sans oublier les caisses automatiques supplantant de plus en plus les hôtesses de caisse dans les magasins… Et tout cela ne fait que s’accroître à la vitesse grand V !

Il nous faudra retrouver toute la Foi des Évangiles pour lutter efficacement contre cette puissante religion du Veau d’Or qui nous domine à ce jour. Rien n’est joué pour nos adversaires. Quelles que soient les victoires qu’ils accumuleront dans l’avenir, tout ne fait que commencer pour nous. Lorsque l’Homme moderne aura cessé de se focaliser sur son nombril et qu’il retrouvera la force de lever les yeux au ciel, le pouvoir des mondialistes ira en diminuant.

La reconquête ne se fera pas sans le Sacré-Cœur !




Instruction : un long suicide numériquement assisté

Par Karen Brandin

« J’ai commencé à voir il y a une dizaine d’années une baisse assez évidente de l’attention. Les élèves ont été abîmés dans leur façon de se concentrer. Je l’ai vu chez de bons élèves qui posaient des questions et alors même qu’on répondait, au bout d’une seconde ou deux, ils ne regardaient même plus le prof. Donc c’est d’abord un problème de concentration qui ensuite donne lieu à une difficulté à lire, qui ensuite entraîne une crise du langage. »

David Cayuela, professeur de lettres.

Une fois n’est pas coutume, car c’est à France-Info (1) que l’on doit la publication salvatrice, il y a de cela une quinzaine de jours, de ce témoignage saisissant d’un enseignant du Gard pointant du doigt ce qui menace bel et bien de devenir à court terme, rien de moins qu’un problème de santé publique bien qu’il ne soit pour le moment que l’occasion d’une vague inquiétude timidement relayée, murmurée avant d’être aussitôt balayée par une actualité impérieuse, aussi foisonnante que tragique.

Avant donc qu’elle ne se change en résignation, il s’agirait que le corps enseignant de manière urgente, presque systématique, se mobilise comme un seul homme pour décrire la détresse, le sentiment d’impuissance aussi qui peut le saisir face à une hyper-vigilance digitale de nos élèves venue, non pas étoffer ou encore diversifier, mais littéralement corrompre, phagocyter la vigilance « traditionnelle » : celle de l’esprit, celle du temps long ; celle de l’écrit.

Il me semble pourtant que Paul Eluard ne commence pas son poème Liberté par : « Sous une vidéo Tik-Tok / Sous un lien YouTube / Entre un BeReal et deux notifications / Je regarde ton nom. », mais par : « Sur mes cahiers d’écolier / Sur mon pupitre et les arbres / Sur le sable, sur la neige / J’écris ton nom. »

Ainsi, un peu comme ces ballons qui participent tant à l’ambiance et au succès des fêtes foraines, on dispose d’une jeunesse dont l’attention semble gonflée à l’hélium ; tellement volatile, qu’aucune ficelle humaine, aussi solide, aussi impliquée soit-elle ne semble plus en mesure de la retenir. À chaque transition, à chaque difficulté, elle menace de casser, de vous échapper pour s’envoler vers des cieux plus enchanteurs que votre voix, que votre présence qui décidément ne suffisent plus ; ces cieux numériques qui comme autant de sirènes, promettent de résumer en quelques images et en moins de deux minutes (le tout sans effort bien sûr) un interminable cours de 2 h. Ce cours d’abord pensé puis écrit par vos soins, pour eux.

On ne peut dès lors plus compter que sur une personnalité atypique, à l’humour ravageur, provocateur peut-être, pour parvenir à lester cette attention fuyante ; une écume d’attention plutôt tant elle est fragilisée et de toute part convoitée. Le combat pour la conserver est épuisant et le rapport de force, clairement inégal au point de créer chez les plus jeunes d’entre-nous, encore vulnérables, chez les profs les plus sincères souvent, une souffrance au travail inadmissible.

En mathématiques, puisque je n’ai de légitimité que dans cette discipline, les conséquences de cette attention en lévitation permanente, additionnées à la dévastatrice réforme Blanquer (dont il osera néanmoins et sans honte aucune assurer la promotion en août 2024 avec la parution chez Albin-Michel d’un ouvrage d’autosatisfaction : La Citadelle) sont tragiques et toujours terriblement sous-estimées, quand elles ne sont pas niées.

En rasant les sections, en dynamitant le concept de classe tout en organisant la promotion de ce Grand Oral grotesque (coeff 10 contre 8 pour l’épreuve de philosophie, mais on n’est plus à une provocation près), J.M. Blanquer et ses acolytes ont détruit le lycée ne permettant plus à l’enseignement secondaire de jouer son rôle de tremplin vers le supérieur (N.B : ci-joint un lien tout à fait légal pour les retardataires : https://grand-oral-maths.com/categorie-produit/sujets-rediges/ 4,90 euros le Grand Oral, ce n’est pas cher même si une jeune fille m’a très justement fait remarquer que cela l’était quand même plus que ChatGPT… Cet esprit éminemment pratique nous laisse songeurs.).

On constate chez nos élèves, en terminale notamment, une résistance à l’effort très dégradée, ce dernier étant estimé maltraitant, ingrat. En réalité, inutile. Voire dépassé. Une intolérance aux raisonnements, aux démonstrations, à l’abstraction clairement revendiquée quand il y a en contrepartie une addiction très nette aux raccourcis et surtout une sorte d’obsession de la réponse, ce juge de paix. Comme en politique, on est sommés de choisir un camp et promptement.

On n’a plus de temps ni pour la réflexion, ni pour l’erreur qui en maths est pourtant bien souvent la clé d’une compréhension véritable et pérenne.

L’erreur est devenue un défaut, une faute. Le temps de réflexion : un temps mort ; un temps perdu. C’est par conséquent non sans amertume que j’ai pris connaissance de l’un des sujets de philo proposé cette année aux Antilles en section technologique : « L’erreur nous rapproche-t-elle de la vérité ? » On voudrait éloigner la jeunesse de la vérité que l’on ne s’y prendrait donc pas autrement.

Le résultat chiffré dans le cas des maths, et ce d’où qu’il vienne, même obtenu par chance ou par hasard, fait plus que jamais office de sentence pour ces jeunes gens en mal d’absolu. On confond allègrement : « mathématiques et comptabilité ». D’où la colère terriblement excessive qui a saisi certains à l’issue de l’épreuve de spécialité Maths du mercredi 19 juin 2024, biberonnés à l’idée que le bac se devait d’être une formalité. J’y reviendrai à la fin de cette tribune.

En cours, j’ai quotidiennement des jeunes gens qui me coupent la parole alors même que je déroule un raisonnement, une démarche (c.-à-d. pendant que je raconte l’histoire qui va mener au dénouement et le légitimer) pour me demander sur un ton mi-autoritaire, mi-agacé : « Bon, mais, ça fait 3 ou pas ? »

Autrement dit : « Abrège. » « Accouche », aurait dit ma génération.

Obtenir « 3″ à n’importe quel prix ; qu’importe le flacon, pourvu que l’on ait l’ivresse comme je leur répète à longueur de séance (de Musset). Sachant que si j’ai trouvé « 3, » j’ai forcément raison. Fin de l’histoire. L’heureux élu peut alors le cœur léger et le regard de nouveau happé par son téléphone, se détourner d’une explication dont il estime qu’elle ne me concerne pas. Grave erreur.

À ce type d’interpellation, je réponds presque systématiquement par provocation : « Non, malheureusement ça fait : 48412x(pi/4) ».

« Mais what ? Non, mais, toujours plus… Comment ça, 48412x(pi/4) ? ».

C’est terrible à dire, mais c’est au prix de cet aiguillon verbal que vous captez de nouveau l’attention du gamin qui vous regarde interloqué et enfin intrigué ; autrement dit, à cet instant-là, il est de nouveau « disponible » (hourra !).

Si c’est si grave, c’est qu’il faut bien comprendre que ces jeunes gens, ces citoyens en germe, majeurs souvent en fin d’année, ont pris l’habitude de vous abandonner sur le quai du raisonnement, de la réflexion, du débat et donc de la nuance pour ne vous rejoindre qu’au terminus, autrement dit à la station de la solution. Du verdict. Impossible dans ces conditions-là de les rendre autonomes, libres et éclairés. Passeurs à leur tour, car c’est aussi le but.

Impossible de les nourrir intellectuellement, de les instruire. Ce ne serait pas gênant si ce n’était pas justement le cœur de notre métier. Quand vous êtes prof de maths et qu’un auditoire vacillant, un programme obèse vous interdit les démonstrations, qu’est-ce qui vous reste ? Le dressage, le conditionnement ?

Cela tombe bien, nombreux sont les élèves à n’attendre que cela : des contentions, des méthodes qui marchent à coup sûr, des moyens mnémotechniques improbables, des astuces forcément (j’ai découvert cette semaine par exemple la méthode « Voyoute » en philosophie. Rien ne nous sera épargné.). Sauf que l’école n’est pas un cirque, pas plus qu’une usine d’emballage ou une citerne à compétences. Pas encore.

Ces gamins, c’est vrai que ce ne sont pas les nôtres, mais pour nous, ils n’en sont pas moins importants. Qu’un terminale en spé maths soit incapable sans calculatrice de me dire si 9/7 est strictement supérieur ou strictement inférieur à 1, cela me désespère. Ces échecs cuisants du sens, cette détresse, cette précarité intellectuelle sont insupportables. On en est en partie responsables forcément à force de concessions, de renoncements minuscules. Sauf que petite approximation deviendra grande…

Vous me direz : « peu importe l’esprit critique » après tout, car il faut bien reconnaître que le doute n’est pas en odeur de sainteté ces derniers temps en France. Lui qui a si longtemps été la marque d’une ouverture d’esprit, celle d’une certaine curiosité, à l’origine même de la démarche scientifique, est aujourd’hui rien de moins qu’une tare ; le premier symptôme du complotisme. La marque noire aussi d’un scepticisme qui se décline à l’infini : le climat, la vaccination, l’Europe. Tout y passe. Les jeunes sont bien sûr une chair à canon de premier choix pour ce système vicié qui fait du débat d’idées, de la controverse, une passion honteuse. Presque une provocation.

Mais nous, nous ne voulons pas transmettre un savoir simplifié, trahi ou dégradé. Un savoir d’occasion, même si sur les plaquettes de l’éducation nationale, il a l’aspect du neuf ; un savoir suffisamment bon pour eux (car en fait, c’est l’idée).

Ces jeunes, on les voudrait au contraire créatifs, inventifs, éventuellement révoltés ; on les veut présents surtout, présents pour de bon, pour de vrai or les échanges, loin de la complicité naturelle entre un prof et un élève, ressemblent de plus en plus souvent à du troc ou à du marchandage. En cours, l’opportunisme est partout. Tout devient matière à négociation. Une majuscule au début d’une phrase : « Non, mais on est en maths ou en français ? »

Des exigences de rédaction, de rigueur : « Il faut vraiment le mettre ça : “partition de l’univers ? vous êtes sûre ? Parce qu’il y a un prof sur Tik-Tok qui dit qu’on a les points quand même au bac.” »

Comme dirait l’Autre : dissous, c’est pas cher ! Vous pouvez toujours lutter pour une rédaction au cordeau, mais il y a fort à parier que vous n’aurez pas le dernier mot face à votre alter ego digital.

Subsiste donc cette espèce de vocation commerciale qui les pousse à négocier sans cesse une remise de peine concernant des développements qu’ils estiment insurmontables, interminables, sans comprendre que c’est pourtant bien par les mots, les idées, la sensibilité aussi que l’on entre en mathématiques comme l’on entre littérature (sauf bien sûr si l’on s’appelle Grothendieck qui pensait directement en langage mathématique, mais des Grothendieck, il y en a un par siècle. Il faut se faire une raison.).

Ils ont ainsi acquis avec le temps une allergie durable à l’argumentation et doivent être urgemment « désensibilisés ». Le meilleur test est de les confronter au calendrier du bac S ou ES (en vigueur, pas dans les années 30 je le rappelle, mais jusqu’à 2020 et finalement 2019, covid oblige) disponible ci-dessous :

Ils vous lancent alors un regard de terreur, faisant de vous dans l’instant un bourreau pervers. Ce qui était la normalité il y a encore 5 ans est désormais perçu comme une monstruosité. Bref, le bagne.

Il faut bien comprendre dans ces réactions épidermiques que la concentration suppose de s’extraire du brouhaha extérieur pour se connecter à un texte, à un énoncé or sur cette génération abîmée par l’omniprésence du numérique, cela ne crée rien de moins qu’un vertige, une angoisse parfois ressentie physiquement. Le silence les déconcentre, les terrifie.

Perdre pendant 1 h, le temps d’une épreuve ou d’une lecture, le contact avec sa tribu, c’est mourir un peu. C’est disparaître de la toile. Être invisible. J’ai découvert grâce à eux que la machine était même le dépositaire de leurs souvenirs personnels, car c’est l’application Snapchat qui leur rappelle par exemple qu’il y a un an exactement, ils se faisaient opérer des dents de sagesse. Cette mise sous tutelle est terrifiante.

Quelle envie, quel intérêt d’écouter, de retenir ? Et pour quoi faire ? Quelle motivation pour se concentrer, apprendre quand absolument tout est accessible en quelques secondes ? Quand rien ne manque jamais et que tout est à portée de “click”.

Effacez le tableau pour remobiliser vos troupes : qu’importe, ils avaient anticipé, dégainé leur tablette et tout pris en photo. Comment ensuite gérer l’impatience qui les saisit alors qu’ils vivent dans une seule échelle de temps : celle de l’immédiateté ?

Quel sentiment convoquer encore, à part peut-être une forme d’amour propre si l’on parvient à le réactiver ?

Le transhumanisme a débuté en réalité. À force de déléguer, nous tendons vers une enveloppe vide. Il y a urgence à se réveiller avant qu’à la question : “L’IA peut-elle nous remplacer ?”, on n’ait d’autre choix que de répondre : “oui”.

Pour finir avec ce constat qui n’est pas sombre, mais simplement lucide, je reviens donc rapidement sur l’épreuve de mathématiques de spécialité maths du mercredi 19 juin 2024, qui concernait les élèves impliqués dans deux spécialités scientifiques (maths et sciences physiques par exemple). Le Figaro le soir même a relayé le désespoir des élèves et de certains enseignants estimant le sujet beaucoup trop difficile. (2)

C’est vrai que l’on aurait pu imaginer des consignes plus simples qui auraient fait consensus, du type : “Repérer la voiture de Oui-Oui et la colorier en jaune” (j’ironise à peine), sauf que c’est une épreuve de maths en fait et de fin de lycée. Elle vient donc en conclusion d’un cursus.

Sans compter qu’il faut avoir en tête que les jeunes qui ont composé ce jour-là prétendent à des études d’ingénieurs via des prépas intégrées par exemple, à faire “médecine” (plus rarement c’est vrai, du fait de la réforme) ou encore à intégrer des classes préparatoires scientifiques ; autant de formations longues, sélectives et exigeantes. Il faudrait donc un minimum de cohérence.

À quel moment objectivement une épreuve d’examen (pas de concours) doit-elle être jugée trop difficile ? Lorsqu’un élève sérieux et impliqué tout au long de l’année ne peut pas avoir facilement la moyenne. Est-ce que c’était le cas le mercredi 19 juin en Métropole ? Pas du tout. L’essentiel du sujet était très classique qu’il s’agisse de la géométrie dans l’espace, des probabilités ou de la partie A de l’exercice 4. Ensuite que les élèves préfèrent les QCM où l’on peut s’en remettre au destin, aux exercices du type : Vrai/Faux où il faut justifier, c’est humain ; mais ils avaient pu s’entraîner avec les 2 sujets d’Asie 2024 par exemple.

La raison d’être des maths, c’est l’argumentation, la production de contre-exemples aussi qui demande de la maturité bien sûr, donc sauf à nier complètement l’essence de la discipline, il n’y avait rien d’excessif dans l’exercice 1, ni même de terriblement ambitieux. C’était des assertions vues et revues dans l’année. On a aussi beaucoup entendu parler du “piège” dans une question liée à la loi binomiale sauf que les élèves ne sont pas dispensés de lire l’énoncé ! Je sais que c’est la mode de faire les exercices sans lire les textes, mais ce n’est pas normal.

Dans l’année, on ne cesse de les alerter sur le danger de réciter, de se laisser bercer par une mécanique trop bien huilée. Cette petite fantaisie dans la formulation est déjà arrivée en France en 2013 par exemple ou plus récemment en Nouvelle-Calédonie, en 2022.

Il y avait cependant selon moi deux bémols : l’utilisation dans l’exercice 2 de l’inégalité de Bienaymé-Tchebychev qui aurait dû être suggérée comme dans le jour 2 pour guider l’élève (cela n’enlevait rien à la prise d’initiative finale). Ensuite, dans l’étude de fonction, la nécessité de procéder à une intégration par parties n’était pas explicitement formulée. Pour le reste, il n’y avait rien d’insurmontable. Le calcul intégral en terminale est largement motivé par un calcul d’aire entre deux courbes dont on détermine préalablement la position relative.

Le fait est surtout qu’avec cette épreuve très pauvre du mois de mars 2023 notamment, prévisible aussi bien en forme qu’en fond, nous avions collectivement perdu l’habitude de sujets plus denses et réalistes. Nous sommes en quelque sorte en cellule de dégrisement après une longue période de jachère intellectuelle. La panique que ces épreuves suscitent suffit à nous convaincre de l’urgence de rétablir un bac digne de ce nom.

Il faut garder à l’esprit que ces jeunes gens ne sont pas plus bêtes que nous. Ils ont les mêmes rêves, prétendent aux mêmes écoles, aux mêmes études que nous qui sommes issus d’un bac S ou parfois C pour les cinquantenaires. C’est dégradant pour cette génération d’amoindrir sans cesse les exigences. On se doit d’être ambitieux pour eux. Ils sont la relève et Dieu sait, les pauvres, qu’ils auront du boulot.

En outre, en toute franchise, connaissant la sensibilité du public impliqué le jour 2 (sensibilité géopolitique ou économie), l’épreuve en maths du jeudi 20 était presque plus lourde. Il s’agit dans tous les cas de relativiser, de rassurer tout notre petit monde ; il y aura des commissions d’harmonisation et un contrôle continu qui intervient à hauteur de 40 % dans l’obtention du précieux Sésame. Pas d’inquiétude donc.

En attendant, à toutes les âmes sincères et de bonne volonté, restons groupés, déterminés et vigilants.

Karen Brandin
Enseignante/ Docteure en théorie algébrique des nombres.

On pourra lire en complément :

1-https://www.francetvinfo.fr/societe/education/reportage-le-telephone-c-est-vraiment-un-doudou-pour-eux-un-lycee-du-gard-teste-avec-succes-des-journees-sans-portable_6576293.html

2- https://etudiant.lefigaro.fr/article/bac/des-eleves-vont-pleurer-ce-soir-le-bac-de-maths-2024-juge-tres-difficile-par-les-profs-et-les-candidats-20240619/

3- https://www.nouvelobs.com/societe/20230409.OBS71957/bac-2023-grand-oral-ou-petites-economies.html

4- https://www.lematin.ch/story/payer-plus-les-profs-de-maths-et-physique-pour-parer-a-la-penurie-603020466806

5- https://www.lajauneetlarouge.com/j-p-bourguignon-x66-il-est-temps-de-stopper-lhemorragie-mathematique/

6- La désinstruction nationale – René Chiche (aux éditions OVADIA)

7- https://www.mondialisation.ca/sauvez-lenseignement-des-mathematiques-en-france/5675832 – Nicole Delépine

8- L’enseignement de l’ignorance – Jean-Claude Michéa ( Climats)

9- https://etudiant.lefigaro.fr/article/une-intelligence-artificielle-va-proposer-20-000-exercices-aux-lyceens-des-octobre_833d2d68-90f2-11ed-833e-8175523c0010/

10- https://www.lejdd.fr/Societe/une-application-pour-aider-les-lyceens-en-difficulte-en-mathematiques-et-en-francais-4153538

11- Oraison funèbre de la classe de philosophie – Harold Bernat (aux Atlantiques Déchaînés)

12- Les conditions du Grand Oral 2023 :
https://ent2d.ac-bordeaux.fr/disciplines/mathematiques/wp-content/uploads/sites/3/2023/01/infog_epreuve_orale_terminale_grandoral_v4-1.pdf

13- L’imposture pédagogique – Isabelle Stal (Perrin)

14– Quelques étapes de la lutte :
https://images.math.cnrs.fr/Resistez.html
http://images.math.cnrs.fr/Lycee-les-maths-en-soins-palliatifs.html
https://www.instruire.fr/actualites/lettre-ouverte-a-cedric-villani.html
https://nouveau-monde.ca/mathematiques-et-enseignement-entre-etat-des-lieux-et-etat-durgence
https://nouveau-monde.ca/jean-michel-blanquer-une-nouvelle-vision-de-la-remontada
https://nouveau-monde.ca/profs-medecins-deux-metiers-sous-influence
https://reaction19.fr/droit-de-pensee/art-denseigner/karen-brandin/210621-profs-parents-eleves-unissez-vous-prof-karen-brandi
https://nouveau-monde.ca/des-machines-et-des-profs




Ça sent la mort pour la pseudoscience qu’est la virologie

La virologie sous contrôle
Exposer la méthodologie pseudo-scientifique

[Source : mikestone.substack.com]

Par Mike Stone

Au début de cette année, j’ai été informé de certains développements très intéressants dans la lutte contre la pseudoscience connue sous le nom de virologie. Dans les coulisses, des personnes très intelligentes et ingénieuses ont entrepris de mettre à l’épreuve les méthodes de la virologie. Ces personnes se sont inspirées des travaux du Dr Stefan Lanka et de ses expériences de contrôle réalisées en 20201, qui ont ouvert les yeux de nombreuses personnes sur la fraude en matière de culture cellulaire. Pour ceux qui ne le sauraient pas, les expériences de contrôle dans les expériences scientifiques sont conçues pour s’assurer que la cause présumée, appelée variable indépendante, ou le supposé « virus » dans ce cas, est la seule chose qui pourrait causer l’effet observé, appelé variable dépendante, qui devrait être les symptômes de la maladie associée au « virus ».

« Une étude avec contrôle(s) est conçue pour garantir que les effets sont dus aux variables indépendantes de l’expérience. L’utilisation de contrôles permet d’étudier une variable ou un facteur à la fois. Il est toutefois important que le groupe de contrôle et l’autre groupe (expérimental) soient exposés aux mêmes conditions, à l’exception de la variable étudiée. Cela permettra de tirer des conclusions plus précises et plus fiables ».

https://www.biologyonline.com/dictionary/control

Ce qu’il faut comprendre en matière de virologie, c’est que les expériences de culture cellulaire utilisées pour confirmer l’existence d’un « virus » ne reflètent pas une hypothèse basée sur un phénomène naturel observé (une exigence de la méthode scientifique) et ne commencent jamais par une variable indépendante valable sous la forme de particules « virales » purifiées et isolées identifiées avant que l’expérience n’ait lieu. Le « virus » est supposé être présent dans les fluides non purifiés prélevés sur un hôte malade. La variable dépendante, ou l’effet recherché par les chercheurs, n’est pas le phénomène naturel observé des symptômes de la maladie comme il devrait l’être, mais plutôt ce que l’on appelle l’effet cytopathogène (ECP), un effet non spécifique créé en laboratoire associé à la mort de la cellule et dont on sait qu’il est causé par de nombreux facteurs tels que :

  1. Bactéries
  2. Amibe
  3. Parasites
  4. Antibiotiques
  5. Antifongiques
  6. Contaminants chimiques
  7. L’âge et la détérioration des cellules
  8. Stress environnemental

Un « virus » imaginaire qui n’est jamais observé avant le début de l’expérience et qui n’est pas disponible pour être modifié et manipulé pendant l’expérience n’est pas nécessaire pour expliquer pourquoi les chercheurs assistent à la mort de la cellule. Les conditions mêmes de l’expérience suffisent à créer l’effet observé dans la boîte de Petri. C’est ce qu’ont montré les contrôles effectués par le Dr Lanka lorsqu’il a pris l’initiative de mettre en évidence les failles de la méthodologie de la virologie.

Les travaux du Dr Lanka ont porté préjudice à la pseudoscience qu’est la virologie. Toutefois, les critiques formulées à l’encontre de ses résultats ont permis aux défenseurs de la fraude de les balayer du revers de la main. Si les résultats du Dr Lanka portent un coup incontestable à la virologie, ils présentent néanmoins des faiblesses, comme l’absence d’images au microscope électronique montrant que les mêmes particules « virales » existent sans qu’aucun échantillon « viral » n’ait été ajouté à la culture. Les résultats des expériences du Dr Lanka, réalisées en trois phases, ont également été difficiles à trouver, à reconstituer et à partager avec d’autres dans leur intégralité. Heureusement, une équipe de biochimistes et de généticiens expérimentés, dirigée par Jamie Andrewes, a pris ces critiques à cœur et s’est efforcée d’y répondre tout en élargissant la portée des travaux du Dr Lanka. Non seulement ils ont répété les expériences de culture cellulaire conformément aux directives de l’ATCC, mais ils ont également réalisé des micrographies électroniques pour déterminer si les mêmes particules « virales » peuvent être trouvées dans des échantillons ne contenant aucun matériel « viral ». Il s’agit d’un projet de grande envergure qui, jusqu’à présent, a été autofinancé par des chercheurs de vérité dévoués qui, contrairement aux virologues, comprennent la méthode scientifique. Ce qu’ils ont trouvé devrait porter le coup de grâce à la pseudoscience connue sous le nom de virologie. C’est avec enthousiasme que je vous présente ci-dessous la description du projet par Jamie, ce qu’ils ont découvert à ce jour, comment vous pouvez les aider et participer, ainsi que la direction qu’ils souhaitent donner à leurs recherches à l’avenir.

[Voir aussi :
Aveuglés par la pseudoscience
et UN ADIEU À LA VIROLOGIE
(ÉDITION POUR EXPERT)]


La virologie a prouvé à maintes reprises qu’elle n’utilisait pas les contrôles appropriés.

Au cours des huit derniers mois, une équipe composée de biochimistes et de généticiens ayant 30 ans d’expérience a mené les études de contrôle les plus complètes jamais réalisées sur la méthodologie virologique.

Nous inspirant des expériences de contrôle menées par le Dr Stefan Lanka, nous avons cherché non seulement à reproduire ses résultats, mais aussi à les développer, en examinant minutieusement CHAQUE point de référence que les virologues citent comme preuve de l’existence des « virus ».

Nous menons des expériences de contrôle dans ces domaines :

  • Isolement des cultures cellulaires
  • Microscopie électronique à transmission
  • Anticorps
  • PCR
  • Protéomique
  • Séquençage complet du génome.

À ce jour, nous avons réalisé plus de 90 études de contrôle de cultures cellulaires. Ces cultures ne contenaient AUCUN ÉCHANTILLON, seulement la lignée cellulaire, des antibiotiques et du sérum bovin fœtal (FBS), et nous avons constaté l’effet cytopathogène (ECP — mort cellulaire censée indiquer la présence d’un virus) dans TOUTES les cultures.

Nous avons repris certains des problèmes rencontrés par les contrôles de cultures cellulaires du Dr Lanka, tels que les lignées cellulaires « en surnombre », et nous avons cherché à couvrir tous les aspects de la méthodologie, en recoupant le protocole standard de manipulation des cultures cellulaires fourni par l’ATCC.

Nous avons utilisé les lignées cellulaires les plus robustes (HEK293T) et les antibiotiques les moins agressifs, à savoir la pénicilline et la streptomycine (Pen/Strep), afin de renforcer le poids de nos conclusions.

Nous avons également cherché à vérifier objectivement l’existence d’un ECP dans ces cultures. En utilisant la spectrométrie laser et une machine spécifique de viabilité cellulaire appelée COUNTESS, nous avons obtenu une vérification objective en pourcentage de l’ECP dans toutes les cultures.

Culture cellulaire sans échantillon d’expectoration humaine.

Ci-dessus, un exemple d’une culture dans le cadre de l’expérience. Notez la mort évidente et l’apoptose des cellules au quatrième jour seulement après l’élimination des nutriments FBS.

Le COUNTESS a enregistré jusqu’à 44 % de décès cellulaires, ce qui est facilement compatible avec les attributions croisées de l’ECP pour dénoter un « virus » sans qu’il soit possible qu’un « virus » soit présent dans la culture.

Notez également l’augmentation de l’ECP de gauche à droite avec l’ajout d’antibiotiques (Pen/Strep) conformément aux protocoles de l’ATCC.

Culture cellulaire avec un échantillon d’expectoration humaine.

Pour servir de « contrôle positif », nous avons ajouté des expectorations humaines à plusieurs de nos cultures pour voir si cela affectait radicalement la quantité d’ECP.

Comme vous pouvez le constater, la quantité de FPC enregistrée par COUNTESS était presque identique, voire légèrement inférieure, à celle enregistrée avec NO SAMPLE.

C’est une preuve supplémentaire que l’ECP dans ces cultures est UNIQUEMENT causé par l’élimination des nutriments FBS et l’ajout d’antibiotiques dans les dosages recommandés par l’industrie.

Nous avons les résultats et voulons vous montrer une première mondiale.

Nous avons envoyé ces cultures à un organisme de recherche sous contrat (ORC) indépendant et accrédité pour effectuer une microscopie électronique à transmission (MET) sur les cultures de contrôle et avons identifié avec certitude le « SARS-COV-2 », le « VIH » et la « rougeole ». !!!!!!!!!

Image d’une vésicule extracellulaire.

Nous leur avons demandé de rechercher des vésicules extracellulaires qu’ils ont identifiées avec certitude ci-dessus. Notez qu’elles sont vides, difformes et beaucoup plus grandes que la plupart des « virus » (2000 nm).

Image CDC d’Omicron « SARS-COV-2 ».
Image de la particule « SARS-COV-2 » trouvée dans le contrôle « sans virus ».

En croisant la taille, la forme et les inclusions avec la version CDC du « SARS-COV-2 » (dans le carré rouge), nous avons identifié avec certitude le « SARS-COV-2 » dans notre culture. Notez la forme ronde, les mêmes inclusions à l’intérieur et exactement la même taille de 120 nm.

Image du CDC du « VIH ».
Image de la particule de « VIH » trouvée dans le contrôle « sans virus ».

En croisant la taille, la forme et les inclusions avec la version CDC du VIH (avec l’écriture rouge), nous avons identifié avec certitude le « VIH » dans notre culture. Notez la même forme ronde, la même inclusion de type « noyau » et exactement la même taille (80 nm).

Image du CDC du « virus » de la rougeole.
Image de la particule du « virus » de la rougeole trouvée dans le contrôle « sans virus ».

En croisant la taille, la forme et les inclusions avec la version CDC de la rougeole, nous avons identifié avec certitude la « rougeole » dans notre culture. Notez la même forme ovale, le même type d’inclusion sous forme de protéines en pointillés, les phosphoprotéines, et exactement la même taille à 250 nm.

Tous ces éléments ont été trouvés dans seulement 9 images de notre culture. Notre budget ne nous a pas permis de souscrire un forfait qui nous aurait permis d’avoir une session en direct sous le microscope avec le CRO. Nous ne doutons pas que si nous pouvions acheter un forfait qui nous donne plus d’images avec un contrôle sur l’endroit où regarder, nous pourrions trouver tous les « virus » connus de l’homme dans des détails impeccables.

C’est ici que nous avons besoin de votre AIDE !

Jusqu’à présent, nous avons gardé ces expériences privées et les avons financées nous-mêmes.

L’étape suivante de ces expériences de contrôle, à laquelle toutes les voies mènent, est la génétique, la PCR et le séquençage complet du génome.

Pour bien comprendre ce qui se passe avec la PCR, sinon pour la « génétique virale », nous devons acheter une machine qPCR et quelques autres équipements. Nous devons envoyer des échantillons à des ORC pour le séquençage complet du génome et nous aimerions effectuer un TEM plus complet.

Pour ce faire, nous nous ouvrons au pouvoir des citoyens. Nous serions extrêmement reconnaissants de toute aide permettant de poursuivre ces expériences vitales.

En retour, nous voulons vous donner quelque chose pour vos dons.

Lorsque nous aurons obtenu tous les résultats possibles, nous ferons un compte-rendu complet de CHAQUE méthodologie, liste d’équipement et de matériel et toutes les directives que nous avons suivies pour faire un paquet que nous voulons VOUS donner. Avec ce dossier, nous publierons une vidéo expliquant ces résultats, comment ils peuvent être reproduits et, plus important encore, comment ils peuvent être utilisés.

Nous avons consulté nos avocats qui confirment que, si nous mettons ces résultats expérimentaux en libre accès, n’importe qui peut se les approprier et les utiliser à son propre titre.

Une grande partie de la raison pour laquelle nous faisons ces expériences est de nous protéger et de protéger nos proches s’ils essaient un jour de répéter l’expérience de 2020. Ce document scientifique peut être remis aux employeurs, aux écoles, aux frontières internationales, etc., etc., qui veulent essayer d’imposer des vaccins ou des politiques de dépistage/masquage pour prouver que la science sur laquelle se fondent leurs machinations politiques est frauduleuse.

Lanka, Martin Haberland et d’autres ont créé de nombreux précédents juridiques en remportant des victoires devant les tribunaux sur la base de la vérité de l’absence de virus2. Nous espérons être juridiquement et scientifiquement prêts pour la prochaine fois.

Nous avons besoin de votre aide pour contribuer à la découverte de la vérité sur la virologie ! Il y a un lien pour faire un don pour ce projet et tous les dons sont massivement appréciés. Si vous laissez votre email, nous mettons en open source TOUTES ces expériences pour que vous puissiez les utiliser selon votre propre capacité.

https://thewayfwrd.com/donate

Bien cordialement,

Jamie Andrews.


BOOM !!!

Nous vivons une époque passionnante où les personnes intéressées par la vérité n’ont pas besoin de compter sur les « experts » pour leur dire ce qui est scientifiquement valable et ce qui ne l’est pas. Comme l’ont montré Jamie et ses collègues, nous n’avons pas besoin de nous asseoir et d’attendre que de soi-disant scientifiques fassent les expériences de contrôle qui auraient dû être réalisées depuis le début. Nous avons la capacité de prendre les choses en main et de découvrir la vérité par nous-mêmes. Nous pouvons faire ce que les virologues ont peur de faire et réaliser nous-mêmes les expériences nécessaires. Plutôt que de continuer à décortiquer les sections de la littérature virologique consacrées aux méthodes, nous pouvons démontrer que la méthodologie est frauduleuse en réalisant nos propres expériences de contrôle. Il incombera alors à la virologie de démontrer que ses méthodes ne sont pas la fraude pseudo-scientifique que nous avons découverte depuis le début. Les hypothèses et les méthodes de la virologie ont été réfutées, et c’est à eux de démontrer le contraire. Jamie et ses collègues méritent un énorme merci pour le travail et les efforts qu’ils ont déployés dans cette entreprise. Aidez-nous à les soutenir afin que nous puissions mener ce projet novateur jusqu’à sa conclusion logique et nécessaire !

Pour une excellente discussion générale dans laquelle Jamie analyse les preuves obtenues jusqu’à présent (à partir d’environ 49 minutes), consultez l’épisode 99 de The Way Forward avec Alec Zeck – « The Most Important Project of the Century: The End of Virology with Jamie Andrews + Jacob Diaz  » (Le projet le plus important du siècle : La fin de la virologie avec Jamie Andrews + Jacob Diaz) :





La Révolution de la guérison

[Source : Centres EESystem en France]

Message de Jason Shurka du 27 mai 2022 :

Je vous demande à tous de partager cet entretien avec le plus grand nombre, car c’est ainsi que nous changerons le monde ! Par la CONSCIENCE. La révolution de la guérison est en marche et je suis reconnaissante de contribuer à la mettre en avant aux côtés de la gracieuse Dr Sandra Rose Michael.

Le week-end dernier, TLS m’a encouragé à me rendre à Las Vegas pour interviewer quelqu’un qui a actuellement le pouvoir d’apporter une véritable guérison (à tous les niveaux) au monde entier. Une personne qu’ils ont approchée en 2011. Une personne qui a développé une technologie de guérison qui pourrait même être plus avancée que ce que beaucoup appellent la « technologie MedBed ». Une technologie qui a aidé ma tante à dissoudre un fibrome kystique de 12,5 centimètres dans son utérus en seulement 4 heures.

Elle s’appelle Dr Sandra Rose Michael et c’est la première personne que je connaisse, à l’exception de moi-même, avec laquelle TLS a accepté de s’associer dans le domaine public. TLS m’a encouragé à sensibiliser le public à cette technologie incroyable tout en trouvant un moyen de la rendre accessible au monde entier. En outre, ils ont non seulement accueilli le Dr Michael pour qu’elle partage publiquement son expérience lorsque l’organisation l’a approchée en 2011, mais ils m’ont même envoyé à Las Vegas pour documenter l’événement ! Elle m’a dit elle-même qu’ils l’avaient informée en 2011 qu’ils l’aideraient à mettre sa technologie sur le devant de la scène en temps voulu. Eh bien, je pense que ce temps est MAINTENANT ! Et nous allons rendre cette technologie accessible au monde entier, une fois pour toutes.

Lien vers la vidéo en anglais sur la chaîne de Jason Shurka : https://www.youtube.com/watch?v=2bcYsBM1gnM

[Voir aussi :
Communication entre organismes vivants par biophotons
La médecine spirituelle — Soigner l’âme pour guérir le corps
Un nouveau paradigme médical
La science cachée — La cause des maladies n’est pas les germes, mais le terrain
Modifier notre ADN via notre conscience !
Vos pensées contrôlent votre ADN !
RÉALITÉ PARALLÈLE-REPROGRAMMER VOTRE VIE
Le Dr Bruce Lipton présente le pouvoir de la Conscience sur la Santé. Si les gens savaient ça, Big Pharma n’existerait plus]

7 centres ouvriront en France d’ici la fin de 2024.

Centre ouvert :
Life Energy Spa à Les Eglisottes et Chalaures en Gironde, www.lifeenergyspa.com

Centres qui vont ouvrir prochainement :
Le 11 juin : La Vie Vitale à Issy l’Évêque en Saône-et-Loire ;
Oasis Energy Waves à Peillac en Morbilhan ;
Fréquences Énergie Bien-être à Jungholtz dans le Haut-Rhin ;
Fin septembre-début octobre 2024 : Pure Vitality à Annecy en Haute-Savoie ;
Holistic Power France à Montpellier dans l’Hérault, https://www.holisticpower.life/fr/france-center ;
Un centre dans le Pays Cathare.

Pour trouver un centre près de chez vous sur : https://unifydhealing.com

Achetez un EESystem ici : https://eesystem.com

Ouvrez un centre en posant votre candidature à l’adresse suivante : https://unifydhealing.com/join-us

Rejoignez Jason Shurka sur Telegram pour les mises à jour : https://t.me/jasonyosefshurka

AVIS DE NON-RESPONSABILITÉ :

Les informations contenues dans cette interview ne sont pas destinées à se substituer à un avis médical professionnel, à un diagnostic ou à un traitement. Tout le contenu, y compris les textes, les graphiques, les images et les informations, figurant sur ce site web ou disponible par le biais de celui-ci, est destiné à des fins d’information générale uniquement. Nous vous encourageons à confirmer toute information obtenue à partir de cet entretien par vous-même auprès d’autres sources, et à examiner toute information relative à un état pathologique ou à un traitement avec votre médecin. Ne négligez jamais les conseils d’un professionnel de la santé et ne retardez jamais l’obtention d’un traitement médical en raison de ce que vous avez entendu au cours de cet entretien.




Guerre réseau-centrée et technologies de l’information et de la communication à double usage

[Source : arcaluinoe.info]

Par John Klyczek

Cette présentation explique comment les technologies de l’éducation sont utilisées pour des applications militaires à double usage dans le cadre des guerres de quatrième et cinquième génération (4GW et 5GW). En explorant les données biométriques et psychométriques des étudiants, les technologies éducatives à double usage compilent les profils psychologiques individuels des étudiants qui peuvent être agrégés en gestalts de groupe. Grâce à l’Internet des corps (IoB) et aux réseaux de l’Internet des objets (IoT), les technologies éducatives à double usage peuvent être utilisées pour conditionner socio-émotionnellement la dynamique de groupe afin qu’elle se conforme à la dynamique des systèmes technocratiques de la quatrième révolution industrielle (4IR). Sous prétexte de cybersécurité, les agences militaires et de renseignement intègrent des « systèmes de systèmes » réseau-centriques capables d’ouvrir des portes dérobées à la cybernétique ed-tech par le biais de l’IoB et de l’IoT afin de générer des analyses prédictives de l’IA pour la technocratie de commandement et de contrôle de la 4IR.

Cette présentation va donc s’appuyer sur les recherches compilées dans mon livre, intitulé School World Order: The Technocratic Globalization of Corporatized Education (L’ordre mondial de l’école : la mondialisation technocratique de l’éducation privatisée) [1]. Le livre couvre une progression de technologies en évolution, en commençant par les technologies basées sur l’écran, puis les technologies portables, et enfin les technologies implantables. Les technologies basées sur l’écran comprennent les didacticiels d’apprentissage adaptatif ; les technologies portables comprennent les dispositifs de rétroaction socio-émotionnelle (SEL) ; et les technologies implantables comprennent les interfaces cerveau-ordinateur (ICO) et, enfin, les nanotechnologies. Les deux derniers types de technologies éducatives, les didacticiels d’apprentissage adaptatif et les dispositifs portables de biofeedback SEL, collectent des données sur les algorithmes cognitifs et comportementaux des étudiants (ou, en d’autres termes, sur leurs algorithmes de pensée) et sur leurs algorithmes socio-émotionnels (ou, en d’autres termes, sur leurs algorithmes de sentiment) respectivement. Ces données sont ensuite utilisées pour développer des systèmes d’intelligence artificielle (IA), qui sont préparés à s’interfacer avec les systèmes nerveux humains par le biais d’ICO. Ces systèmes d’IA peuvent également être utilisés pour créer des bases de données de crédit social et des analyses prédictives, qui peuvent être utilisées pour la guerre réseau-centrée 4GW et 5GW dans la technocratie mondialiste de commandement et de contrôle de la 4IR.

En guise de transition, alors que nous nous plongeons dans les applications militaires des technologies éducatives à double usage, nous pouvons commencer par examiner quelques-uns des premiers tutoriels intelligents [2] qui ont été développés [3] par la marine américaine [4], et certaines des premières itérations des précurseurs analogiques des didacticiels numériques modernes d’apprentissage adaptatif ont également été développées [5] avec l’aide de l’US Navy, de l’US Airforce et de la Human Resources Research Organization (HumRRO), une division de l’armée américaine.

La base cybernétique des systèmes de tutorat intelligents et des IA d’apprentissage adaptatif repose sur les psychométries cognitives et comportementales [6] issues des boucles de rétroaction stimulus-réponse [7] programmées dans les machines d’enseignement à conditionnement opérant de B. F. Skinner [8]. Les machines d’enseignement de Skinner ont renforcé le conditionnement classique stimulus-réponse formulé par Wilhelm Wundt, puis affiné en behaviorisme par des psychologues comme E. L. Thorndike ; puis finalement Skinner est arrivé et a pu programmer les boucles stimulus-réponse behavioristes dans des algorithmes qui pouvaient être automatisés grâce à ses machines d’enseignement analogiques, qui ont évolué pour devenir les didacticiels numériques modernes d’apprentissage adaptatif. Ces boucles stimulus-réponse intègrent fondamentalement les boucles de rétroaction qui constituent la base permettant à l’intelligence artificielle de suivre les progrès et de prédire les résultats pour les étudiants individuels, les groupes d’étudiants et les écoles entières.

Si l’on considère les entrées et sorties de données d’un ordinateur, il s’agit essentiellement de corollaires [9] du stimulus et de la réponse respectivement : le stimulus étant l’entrée environnementale et la réponse étant la sortie comportementale. Ces boucles de rétroaction environnement-entrée/comportement-sortie [10] peuvent être utilisées pour élaborer des scénarios de planification, de programmation et de budgétisation [11] développés par la RAND Corporation pour la planification centrale de l’économie au sens large [12], englobant l’éducation basée sur les résultats [13] dans une économie de commandement et de contrôle [15] de la 4IR [14].

L’architecture de la boucle de rétroaction a été élaborée lors des conférences de Macy sur la cybernétique [16] à la fin des années 1940 et au début des années 1950, par des personnes comme Norbert Wiener, qui a écrit The Human Use of Human Beings: Cybernetics and Society [17] (L’utilisation humaine des êtres humains : cybernétique et société). C’est à l’occasion des conférences Macy sur la cybernétique [18] que les réflexes subliminaux et conditionnés de la conscience humaine ont été mathématiquement réduits à des boucles neurochimiques stimulus-réponse qui reflètent les boucles électriques d’entrée-sortie d’un ordinateur numérique à code binaire.

Cela peut se faire à l’échelle individuelle, mais aussi à l’échelle du groupe. Un autre participant aux conférences de Macy sur la cybernétique était Kurt Lewin [19] qui a inventé la « dynamique de groupe » [20] parce qu’il pensait que le conditionnement individuel stimulus-réponse est plus efficace lorsqu’il est renforcé par les punitions et les récompenses sociales de la dynamique de groupe. Il a donc créé le Center for Group Dynamics au Massachusetts Institute of Technology (MIT).

Il a travaillé avec Max Wertheimer [21] qui fut l’un des pères fondateurs de la psychologie gestaltiste [22]. Lewin a utilisé la psychologie gestaltiste pour créer des dynamiques de groupe politiquement correctes sur le plan socio-émotionnel. Il a joué un rôle important dans la création de l’Institut Tavistock des relations humaines [23] qui a facilité [24] les « groupes T » [25] également créés par Lewin. Ces groupes T sont en corrélation [26] avec un autre de ses projets connu sous le nom de « formation à la sensibilité » [27]. Grâce aux groupes T et à la formation à la sensibilité, les individus peuvent être conditionnés pour se conformer aux gestalts du groupe.

Dans le domaine de l’éducation, une pédagogie connue sous le nom d’« apprentissage socio-émotionnel » (SEL) [28] fait progresser les méthodologies ed-tech qui intègrent les produits portables de biofeedback. Avec l’aide des dispositifs portables de biofeedback SEL, qui analysent les algorithmes émotionnels des élèves par le biais d’EEG [29], des électrocardiogrammes [30] et la réponse galvanique de la peau [31] (en d’autres termes, les ondes cérébrales, le rythme cardiaque et la réponse galvanique de la peau), les élèves peuvent être conditionnés pour se conformer aux gestalts de groupe des groupes de la classe, des groupes de l’école et de la communauté au sens large.

En modifiant les dynamiques intergroupes et intragroupes par le biais des groupes T et de la formation à la sensibilité, le conditionnement par biofeedback du SEL peut être utilisé pour façonner et remodeler les gestalts de groupe afin de se conformer à la dynamique des systèmes technocratiques de la 4IR. Il convient de noter ici que la RAND Corporation [32] a collaboré avec le Fetzer Institute [33] qui a mis en place le Collaborative for Academic, Social, and Emotional Learning (CASEL) [34]. Le CASEL est l’un des principaux centres d’échange d’informations sur les initiatives d’apprentissage socio-émotionnel aux États-Unis.

Qu’est-ce que la dynamique des systèmes ? La dynamique des systèmes [35] sont des modèles informatiques qui représentent graphiquement des superstructures complexes et non linéaires qui englobent les relations institutionnelles politico-économiques. Il peut donc s’agir de la dynamique de la chaîne d’approvisionnement [36], la dynamique de la croissance démographique [37], la dynamique des soins de santé publics [38], la dynamique du système scolaire [39] pour ne citer que quelques exemples.

Le concept de dynamique des systèmes a été développé par Jay W. Forrester [40]. Professeur au MIT, il a formulé la théorie de la dynamique des systèmes alors qu’il étudiait la dynamique de la chaîne d’approvisionnement chez General Electric. Il a également été l’un des architectes de l’ouvrage du Club de Rome intitulé Limites à la croissance [41], qui présentait des modèles de croissance démographique et de consommation des ressources environnementales pour la dynamique des systèmes de ce que l’on appelle aujourd’hui le développement durable [42] dans la Grande Réinitialisation 4IR.

La dynamique des systèmes 4IR peut être améliorée en combinant la planification de scénarios, développée par Herman Kahn [43] qui était un fonctionnaire de la RAND Corporation [44] ; la méthode Delphi [45] , qui a été développée [46] par Olaf Helmer [47] , un autre membre de la RAND Corporation [48], et la recherche-action [49], développée par Kurt Lewin. La planification de scénarios est fondamentalement une augmentation non linéaire [50] des systèmes de planification, de programmation et de budgétisation (PPBS) ; la méthode Delphi permet de créer un consensus artificiel par le biais d’un conditionnement dynamique de groupe [51]. La recherche-action est essentiellement une méthode de suivi et d’ajustement des plans de scénarios et d’autres plans de SPPB par le biais de boucles de rétroaction [52].

Pour synthétiser tout cela, la méthode Delphi incite les populations à désirer et à poursuivre les plans de scénario ludifiés pour la 4IR, tandis que les boucles de rétroaction de la recherche-action permettent aux technocrates de suivre, de tracer et d’ajuster les progrès vers leur plan de scénario idéal pour la 4IR. Grâce à cette infrastructure de boucle de rétroaction, les technocrates peuvent passer du conditionnement de l’individu au conditionnement du groupe, ce dernier se conformant à son tour à la dynamique des systèmes plus larges de l’économie planifiée de la 4IR.

Saisir « système de systèmes » [53] qui a été développé par William A. Owens [54]. Également affilié à la RAND Corporation, Owens est l’architecte de la « révolution dans les affaires militaires » (RMA) [55] , dont la 4GW [56] et la 5GW. L’un des éléments clés de la 4GW est l’implication d’« acteurs non étatiques » dans les affaires militaires (en d’autres termes, l’implication de civils dans la poursuite d’objectifs militaires).

Le « réseau-centré » fait partie intégrante du système de systèmes [57] ou « réseau-centrique », qui est fondamentalement une exploitation cybernétique de la dynamique des systèmes et de la dynamique des groupes par le biais d’un système omniprésent de suivi et de traçabilité qui permet ce que l’on appelle la « domination à spectre complet » [58] par l’armée américaine. La domination totale implique la domination de cinq domaines : la terre, la mer, l’air, l’espace extra-atmosphérique et le cyberespace d’information.

Grâce à la domination d’un système de systèmes réseau-centrés, les technocrates peuvent mettre au point des systèmes prédictifs de lutte contre le terrorisme [59] et l’analyse pré-criminelle [60] qui pourraient être exploitées pour signaler des données psychométriques politiquement incorrectes afin d’anticiper des scénarios indésirables. Parallèlement, les technocrates peuvent également utiliser la cybernétique de commandement et de contrôle pour stimuler l’esprit des individus et des groupes, y compris les acteurs non étatiques, par des opérations psychologiques [61] qui orientent les comportements vers des scénarios 4IR mondialistes. En bref, par le biais d’un système de systèmes, les technocrates peuvent manier le retour d’information réseau-centrique nécessaire pour orienter la planification de scénarios, la méthode Delphi et la recherche-action de manière à conditionner les individus à se conformer aux groupes tout en conditionnant simultanément les groupes à se conformer à la dynamique des systèmes plus vastes de la 4IR.

Quelles sont donc les solutions ? Que pouvons-nous faire à ce sujet si ce n’est d’être conscients des réalités et donc d’être en mesure d’anticiper les façons dont nous sommes lidifiés à travers le système des systèmes. Quelques solutions pratiques consistent à essayer de contrecarrer leur capacité à recueillir des signaux à partir de leurs analyses.

L’option la plus efficace serait peut-être de commencer par s’affranchir le plus possible du réseau électrique, ce qui implique d’utiliser autant que possible des technologies analogiques. Mais dans le monde dans lequel nous vivons, ce n’est probablement pas possible pour tout le monde. Il existe donc plusieurs façons d’utiliser différents types de technologies qui permettent de contourner les systèmes de traçage cybernétique.

Nous pouvons commencer avec du matériel alternatif, comme les Raspberry Pis, qui pourraient contourner les portes dérobées des micrologiciels qui sont installées dans les puces matérielles des appareils des Big Tech. En ce qui concerne les systèmes d’exploitation alternatifs, nous pouvons utiliser les systèmes GNU Linux, qui pourraient contourner l’extraction de données des Big Tech, comme l’extraction de données d’IA dans le cadre du programme Microsoft Co-Pilot Recall [62] qui est en train d’être installé dans les nouveaux systèmes d’exploitation Windows 11. Nous pouvons également construire des réseaux peer-to-peer alternatifs qui peuvent contourner le suivi des fournisseurs d’accès à Internet. Enfin, dans la mesure où nous pourrions choisir d’utiliser des technologies qui ne relèvent pas de cette catégorie de technologies alternatives, il est important d’utiliser autant que possible des logiciels et des communications cryptés, et même de porter une cage de Faraday pour bloquer la géolocalisation lorsque nous nous déplaçons dans l’espace physique.

Il ne s’agit là que de quelques moyens pratiques de réduire les capacités de ces divers systèmes technocratiques à exploiter nos données à des fins d’analyse prédictive et de ludification de nos comportements.

Nous vous remercions.

John Klyczek

John Klyczek est titulaire d’une maîtrise d’anglais et a plus de dix ans d’expérience dans l’enseignement de divers cours universitaires, notamment la rhétorique, l’argumentation de recherche, les études interdisciplinaires et les études littéraires. Ses études littéraires se concentrent sur les analyses historicistes du mondialisme, de la technocratie et de l’eugénisme dans le Meilleur des mondes d’Aldous Huxley et d’autres dystopies de science-fiction.





Du transgenre au transhumain : science sans conscience, ruine de l’Homme

[Source : solidariteetprogres.fr]

Par Agnès Farkas

Dossier élaboré par Agnès Farkas et Karel Vereycken.

Introduction

Tout ce qui arrive aux États-Unis arrive généralement assez vite dans des pays sous leur influence. C’est le cas pour la France.

Or, aux États-Unis, l’ancienne candidate à l’investiture démocrate Tulsi Gabbard, militaire à la retraite, vient de fustiger une équipe de médecins du Pentagone, pour avoir préconisé l’administration de « soins d’affirmation du genre » (comprenez : changement de sexe), y compris la prescription d’hormones et de bloqueurs de puberté, dès l’âge de sept ans.

Biden a tenu parole en intégrant des trans au plus haut niveau de son administration. Ici, en juillet 2022, reçu à la résidence de notre ambassadeur aux États-Unis pour les célébrations du 14 juillet (à gauche), le ministre adjoint à la Santé Rachel (Richard) Lévine et Sam Brinton, ministre-adjoint en charge de l’énergie nucléaire au département américain de l’Énergie.

Cette décision du Pentagone se base sur un article d’une équipe de professionnels de la santé et de psychologues cliniciens, paru dans la dernière édition de l’American Journal of Public Health, prétendant que les enfants de cet âge « ont la capacité et le droit inhérents de consentir » à des interventions chirurgicales de ce type.

Un avis partagé par l’amiral Rachel Levine, secrétaire adjoint au ministère américain de la Santé et des services sociaux et le plus haut fonctionnaire transgenre de l’administration Biden (voir photo ci-contre).

Si le Pentagone affirme qu’il « formera ses prestataires de soins de santé conformément à la science actuelle », la décision ne fait pas l’unanimité. Ainsi, plus de la moitié des médecins affiliés à l’armée « ne prescriraient pas d’hormones de confirmation du genre, quelle que soit leur formation », affirme Fox News.

Pour Stanley Goldfarb, médecin de l’organisation Do No Harm (« ne fais pas de mal »), « L’idée que des enfants de 7 ans soient capables de prendre de telles décisions est plus que risible », a-t-il déclaré à Fox News. À cela s’ajoute le fait que « l’existence d’une cohorte importante de “détransitionneurs” (qui veulent retrouver leur genre biologique), peut-être jusqu’à 25 %, montre qu’il est absurde de supposer que les décisions prises pendant l’enfance sont saines ».

En France

On n’en est pas encore là en France. Cependant, dans une tribune publiée par l’Express le 20 septembre 2021, une cinquantaine de personnalités, associées à l’Observatoire des discours idéologiques sur l’enfant et l’adolescent, collectif de professionnels de l’enfance et de chercheurs (médecins, psychiatres, psychanalystes, juristes, magistrats, enseignants de l’Éducation nationale, philosophes, sociologues, etc.), s’insurgent contre les discours sur « l’autodétermination » de l’enfant, qui légitiment selon elles une forte augmentation des demandes de changement de sexe, particulièrement chez les adolescentes.

Nous ne pouvons plus nous taire sur ce qui nous apparaît comme une grave dérive commise au nom de l’émancipation de « l’enfant -transgenre » (celui qui déclare qu’il n’est pas né dans le « bon corps »). Sur l’argument de seuls ressentis érigés en vérité, des discours radicaux légitiment les requêtes de changement de sexe. Mais c’est au prix d’un traitement médical à vie, voire chirurgical (ablation des seins ou des testicules), sur des corps d’enfants ou d’adolescents. C’est ce phénomène et son fort retentissement médiatique qui nous interpellent et non les choix des adultes transgenres.

Les auteurs du texte notent que

pensant peut-être apporter une réponse, le gouvernement écossais a émis, depuis le 12 août 2021, de nouvelles directives d’inclusion LGBT, selon lesquelles des enfants dès l’âge de l’entrée en primaire auront la possibilité de changer de nom d’usage et de sexe à l’école sans le consentement de leurs parents. Sans leur consentement et même sans que ceux-ci en soient informés si l’enfant en fait la demande.

Dans une autre tribune, publiée dans Marianne, plusieurs professionnels de la santé déplorent également qu’on assiste

à un hypersubjectivisme identitaire « à la demande » qu’une certaine médecine ratifie. Nous assistons encore à une situation de diktats et d’impératifs catégoriques où les discours politiques et militants viennent croiser les discours cliniques au point de se confondre et entraver tout discernement.

Genre business juteux

Perspectives fabuleuses d’un marché qui explose : une croissance moyenne annuelle de 24,74 % par an d’ici 2030.

La folle croisade transhumaniste qui se sert de l’Intelligence artificielle et du changement de genre pour faire avancer son idéologie s’accompagne également d’un enrichissement tout aussi excitant d’intérêts financiers. Face à « la demande », un nouveau « marché » répond !

Le marché mondial de la chirurgie de « réassignation sexuelle » devrait atteindre une valeur de 30 milliards USD d’ici 2028, avec un taux de croissance annuel moyen de plus de 29 % au cours de la période de prévision allant de 2022 à 2028.

Source : MarketWatch, 7 février 2023.

Pour MarketWatch, cette croissance peut être attribuée à

l’augmentation de la couverture des procédures de changement de sexe d’homme à femme par l’assurance maladie, ainsi qu’aux avis d’experts facilement disponibles sur la nécessité médicale du changement de sexe.

Rien qu’aux États-Unis, la chirurgie du changement de sexe s’envole et devrait se monter à 6 milliards de dollars en 2030, un taux de croissance estimé à 11 % par an.

« Plus de 3000 opérations chirurgicales transgenres masculines ou féminines ont été réalisées en 2016 » selon les données de l’American Society of Plastic Surgeons. Le nombre de chirurgies d’homme à femme était alors « trois fois plus élevé » que l’inverse en 2019, pour un revenu « de plus de 184,6 millions de dollars ».

Pour un homme trans (une femme qui transitionne en homme), le prix d’une double mammectomie, avec un retrait de quasiment tous les tissus (97 à 98 %), varie de 2000 € à 4000 €.

Sans compter le coût d’une torsoplastie, qui vise à construire un torse masculin et, surtout, les frais périphériques et les hormones qui devront être prises à vie : une manne financière pour les lobbies pharmaceutiques.

De plus, il n’existe aucune contrainte de formation pour un chirurgien qui veut pratiquer des vaginoplasties (construction d’un néo-vagin chez une femme trans) ou des phalloplasties (construction d’un néo-pénis chez un homme trans), selon Lynn Bertholet, cofondatrice et présidente de l’association ÉPICÈNE, qui défend les personnes ayant subi une maltraitance chirurgicale.

Ce marché a largement grandi avec l’arrivée d’une clientèle d’enfants de 10 à 16 ans et, « cette étonnante volonté, massive et soudaine » d’adolescentes « de changer de genre ».

En effet, entre 2007 et 2020, les demandes d’adolescentes pour transition de sexe ont augmenté de 1000 % aux États-Unis et de 4400 % au Royaume-Uni. Le Canada, la Suède, la Belgique et même la France sont aussi atteints par cette « épidémie ».

Le catastrophisme climatique et l’écoanxiété qu’elle engendre ont accéléré la tendance. Garçons et filles « décident librement » de devenir homosexuel ou trans, ou réclament la stérilisation afin de limiter la propagation d’une espèce humaine accusée de mettre en danger la planète.

Les législateurs, par ignorance et par soumission à l’air du temps, cèdent à « la demande populaire ». En Espagne, entre 14 et 16 ans, une personne voulant changer de sexe a seulement besoin d’être accompagnée de ses parents. Aucun examen médical préalable ne s’impose, car enrayer le « mal-être » de l’enfant prévaut sur tout. Entre 12 et 14 ans, l’enfant a besoin de l’autorisation d’un juge, mais à partir de 16 ans, en matière de genre, la personne peut obtenir absolument ce qu’elle veut.

En France, fausse prudence

Chez nous, la Haute Autorité de Santé française (HAS) a émis en septembre 2022 une note de cadrage sur un Parcours de transition des personnes transgenres, où elle ouvre la possibilité d’un accompagnement de

traitements hormonaux permettant de développer des caractéristiques physiques secondaires en harmonie avec l’identité de genre du jeune. Ils sont le plus souvent prescrits autour de 15 ans, à l’âge d’entrer au lycée. Dans ce cas, il s’agit de traitements dont l’impact est en partie irréversible (pilosité, voix…) et qui peuvent agir sur la fertilité » en tant que bloqueurs de puberté, mais « le consentement de l’adolescent et de ses deux parents est requis tant que l’adolescent est mineur.

Ouf, l’honneur est sauf !

Le 29 septembre 2021, Jean-Michel Blanquer a signé une circulaire sur l’accueil des élèves transgenres à l’école :

Pour une meilleure prise en compte des questions relatives à l’identité de genre en milieu scolaire », où il est précisé que « l’accompagnement des enfants et des adolescents transgenres ou en questionnement sur leur identité de genre peut être entravé par la permanence d’idées reçues sur les transidentités et par une méconnaissance de leurs parcours et de leurs droits. Connaître et comprendre les enjeux relatifs à l’identité de genre et les réalités du vécu des jeunes transgenres apparaît comme un prérequis à une bonne prise en compte de ces élèves en milieu scolaire.

Dans sa communication du 25 février 2022, l’Académie de médecine précise pour sa part que

si, en France, l’usage de bloqueurs d’hormones ou d’hormones du sexe opposé est possible avec autorisation parentale sans condition d’âge, la plus grande réserve s’impose dans cet usage, compte tenu des effets secondaires tels que l’impact sur la croissance, la fragilisation osseuse, le risque de stérilité, les conséquences émotionnelles et intellectuelles et, pour les filles, des symptômes rappelant la ménopause. Quant aux traitements chirurgicaux, notamment la mastectomie autorisée en France dès l’âge de 14 ans, et ceux portant sur l’appareil génital externe (vulve, pénis) il faut souligner leur caractère irréversible. Aussi, face à une demande de soins pour ce motif, est-il essentiel d’assurer, dans un premier temps, un accompagnement médical et psychologique de ces enfants ou adolescents, mais aussi de leurs parents, d’autant qu’il n’existe aucun test permettant de distinguer une dysphorie de genre « structurelle » d’une dysphorie transitoire de l’adolescence. De plus, le risque de surestimation diagnostique est réel, comme en atteste le nombre croissant de jeunes adultes transgenres souhaitant « détransitionner ». Il convient donc de prolonger autant que faire se peut la phase de prise en charge psychologique.

Elle appelle aussi à « la vigilance des parents face aux questions de leurs enfants sur leur transidentité et leur mal-être, en soulignant le caractère addictif de la consultation excessive des réseaux sociaux ».

En plus des effets indésirables mentionnés ci-dessus, ces enfants devenus adultes sont souvent confrontés à des risques morbides tels que les cancers dus en grande partie aux traitements hormonaux de haute intensité, sans compter le risque accru de suicide. Comme on le devine aisément, revenir à son sexe biologique après une transition est un véritable calvaire, sinon tout simplement impossible.

Pour conclure ce chapitre, rappelons qu’un enfant n’est pas un adulte, et que les discours idéologiques martelés sur les réseaux sociaux et les médias ne l’aident pas à se construire pour vivre pleinement sa future vie d’adulte.

Le transhumanisme,
nouveau nom de l’eugénisme

Sir Julian Huxley (à gauche) et son frère Aldous Huxley.

Pour comprendre l’origine de cet engouement disproportionné pour le changement de genre, un bref historique du transhumanisme s’impose.

En tant que mouvement de pensée, le transhumanisme est apparu il y a un demi-siècle. Il se réfère à la définition du biologiste Julian Huxley, premier directeur général de l’UNESCO et théoricien farouche de l’eugénisme, pour qui

une fois pleinement saisies les conséquences qu’impliquent la biologie évolutionnelle, l’eugénique deviendra inévitablement une partie intégrante de la religion de l’avenir, ou du complexe de sentiments, quel qu’il soit, qui pourra, dans l’avenir, prendre la place de la religion organisée. [1]

En 1957, il précisera qu’un transhumain est « un homme qui reste un homme, mais se transcende lui-même en déployant de nouveaux possibles de et pour sa nature humaine. »

Bien que l’Association française transhumaniste s’en défend, il n’est pas entièrement faux de dire que le transhumanisme d’aujourd’hui n’est que le nouveau nom de l’eugénisme d’hier.

Rappelons qu’avant la découverte des horreurs nazies (un eugénisme « négatif » se portant sur l’élimination des plus faibles ou jugés de qualité inférieure), un eugénisme dit « positif » se présentait comme « l’ensemble des méthodes et pratiques visant à sélectionner le patrimoine génétique des générations futures d’une population, en fonction d’un cadre de sélection prédéfini ».

L’eugénisme « de gauche » ? John Maynard Keynes en était un fervent partisan.

Devenir immortel

The Immortalist (1969), livre culte dAlan Harrington.

Le livre d’Alan Harrington, The Immortalist (1969), dans lequel il exprime la conviction orgueilleuse que l’homme (en tant qu’individu et non en tant qu’espèce) peut atteindre l’immortalité, a inspiré le mouvement transhumaniste.

Les idées transhumanistes furent surtout diffusées à partir de l’Université de Californie de Los Angeles (UCLA), lieu de nombreuses conférences de transhumanistes et futurologues. De là, elles sont devenues le courant dominant à la Silicon Valley, berceau des GAFAM et de l’Intelligence artificielle au service de la finance.

L’idée forte du transhumanisme est celle d’une rupture avec les limites biologiques corporelles, de temps et d’espace. Certains chercheurs ont contribué, par leurs inventions et leurs recherches, à développer la croyance selon laquelle l’humanité pourrait atteindre l’immortalité en créant des entités plus intelligentes que l’homme se développant à l’infini.

Marvin Minsky

Marvin Minsky, pionnier de l’Intelligence artificielle.

L’intelligence artificielle (IA) est présentée comme une technique susceptible d’améliorer les capacités de l’intelligence humaine. En effet, disposer de robots intelligents offre des avantages.

Cependant, aussi bien John von Neumann [2] que Marvin Minsky, fondateur, théoricien de l’intelligence artificielle au Massachusetts Institute of Technology (MIT) et amateur de science-fiction, considéraient le cerveau comme une machine dont le fonctionnement peut être étudié et reproduit dans un ordinateur, permettant ainsi de mieux comprendre les fonctions mentales supérieures — une vision contre laquelle le penseur et économiste Lyndon LaRouche a toujours mis en garde.

La pensée transhumaniste, sans s’afficher comme telle, finit par pénétrer tous les pores de la société humaine. Bien intentionnés, certains économistes envisagent une amélioration de l’espérance de vie sans incapacité, afin d’augmenter le potentiel de croissance à long terme d’un pays. Une bio-économie centrée sur la lutte contre le vieillissement, ou comment « régénérer le corps pour revitaliser l’économie », émerge avec le soutien des institutions internationales.

La communauté scientifique a longtemps ignoré les spéculations des transhumanistes, mais ce n’est plus le cas avec la fondation, en 2014, du Future of Life Institute, consacré aux risques de développement d’une IA incontrôlée, dont l’objectif serait de proposer des solutions techniques à tous les problèmes de société.

Des chercheurs désignés comme « bio-conservateurs » par les transhumanistes (se prétendant « bio-progressistes ») expriment la crainte de voir les crédits de recherche et les fonds privés aller de préférence aux différents laboratoires dirigés par des transhumanistes, stérilisant ainsi la recherche conventionnelle sur le vieillissement et la longévité.

Figures clés

Catherine Deschamps-Le Roux, dans La quête de l’immortalité et l’utopie du transhumanisme, présente quelques figures clés du transhumanisme ayant le plus souvent un lien fort avec l’IA.

Ces partisans revendiquent le droit absolu à disposer de leur corps pour s’affranchir de la maladie, du handicap, de la souffrance et de la mort.

Le mouvement transhumaniste définit trois domaines clés :

  • super-longévité avec Aubrey de Grey,
  • super-intelligence avec Ray Kurzweil et
  • super-bien-être avec David Pearce.

En France, on connaît surtout Laurent Alexandre, chirurgien de formation, diplômé de Sciences Po, de HEC et de l’ENA. Entrepreneur, il a fondé le site d’information Doctissimo revendu pour développer la société DNA Vision, spécialisée dans le séquençage ADN. Il ne se définit pas comme transhumaniste, bien qu’il contribue à en diffuser les idées via de nombreuses conférences grand public.

Selon lui, les porteurs du grand programme de lutte contre la mort sont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) outre-Atlantique et l’Europe est à la traîne. En 2021, lors d’une de ses conférences, il disait : « Ma conviction personnelle est que certains d’entre vous dans cette salle vivront mille ans. »

Aubrey de Grey, Alcor et la cryogénisation

Les corps congelés de quelque 200 personnalités (aisées), en attente d’une réincarnation corporelle heureuse, sont soigneusement conservés dans l’usine d’Alcor en Arizona.
Aubrey de Grey

Aubrey de Grey, un Britannique, se présente comme un gérontologiste biomédical. Son argument, en soi parfaitement recevable, est que le vieillissement n’est qu’une maladie que la médecine régénérative finira par vaincre. Il a mis sur pied plusieurs fondations pour ce combat.

Par ailleurs, il va jusqu’au bout de son délire transhumaniste. En 2007, il a signé un contrat avec l’Alcor Life Extension Foundation pour la cryopréservation de son cerveau. Avec le Cryonics Institute et KrioRus, Alcor, fondée en 1972 est une des trois entreprises les plus connues dans le domaine de la cryopréservation, devenue un véritable business d’avenir.

Aubrey de Grey, qui se définit comme un cryogéniste, est membre des conseils consultatifs scientifiques d’Alcor et de Cryopets, et membre du réseau britannique de recherche sur la cryogénisation et la cryopréservation.

Pour ceux pouvant se le permettre, en échange d’une coquette somme d’argent (pouvant être financées grâce à la souscription d’une assurance-vie dont le bénéficiaire désigné est l’entreprise prestataire), ces firmes s’engagent à conserver votre corps (200 000 euros), ou votre cerveau (60 000 euros), au congélateur.

Très complexe et non autorisée sur une personne vivante, la cryogénisation est un procédé de conservation dans l’azote liquide, à des températures extrêmement basses, de tout ou partie d’un être humain (ou d’un animal) en état de mort clinique, dans l’attente (ou l’espoir) que la technologie future sera un jour en mesure de réanimer le corps ainsi congelé et de lui redonner vie.

Le fait de congeler un organe aussi sensible que le cerveau n’est pas sans conséquence. La prolifération de cristaux de glace peut irrémédiablement l’endommager. C’est pourquoi, peu après le décès et avant congélation, le corps subit une injection de cryoconservateurs chimiques (du glycérol par exemple).

Même si actuellement la réanimation de ces corps est impossible, les partisans de la cryoconservation espèrent, dans un futur proche ou plus lointain, pouvoir disposer d’une technologie suffisante permettant de réparer les dommages et ainsi tromper la mort.

Ray Kurzweil

Comme le montre ce graphique, Kurzweil croit fermement que le moment singularité (moment où la machine s’impose sur l’homme) arrivera vers 2040.

Ray Kurzweil, une fortune personnelle de 35 millions de dollars.

Raymond Kurzweil, qui dirige un fonds spéculatif, s’affiche comme un chercheur-inventeur et futurologue ayant travaillé avec Minsky au MIT.

On lui doit de nombreuses innovations comme la machine à lire, la machine à composer de la musique ou de la poésie et, entre autres, un logiciel d’éducation médicale pour les médecins.

Il prévoit une expansion de l’intelligence artificielle et a été engagé par Google pour développer des machines intelligentes. « Kurzweil est la meilleure personne que je connaisse pour prédire l’avenir de l’IA », affirme Bill Gates.

Kurzweil chérit le projet de reproduire l’ADN de son père et de créer un clone qui lui permettrait d’en retrouver la mémoire.

Il conseille l’armée sur les dangers présentés par les nanotechnologies et avec le soutien de Google et de la NASA, il a fondé la Singularity University, dont l’objectif est de promouvoir les nouvelles technologies pour répondre aux défis de l’humanité. La métaphore de « singularité », empruntée aux mathématiques et à la physique, désigne, dans le contexte du « posthumanisme », « le moment hypothétique à partir duquel les machines deviendront seules responsables du progrès technologique, ayant dépassé en intelligence les êtres humains ».

Kurzweil prédit que d’ici 2030, l’homme pourra envoyer des nanorobots dans les capillaires du cerveau et à le connecter ainsi au Cloud. Cependant, la longévité croissante de l’homme pourrait se heurter aux capacités limitées de mémorisation du cerveau humain ; il faudra par conséquent s’appuyer sur l’intelligence artificielle pour stocker de nouvelles informations…

Humanity+

Le transhumaniste David Pearce avec l’utilitariste Peter Singer.

Nick Bostrom et David Pearce, philosophes, ont fondé en 1998 l’Association transhumaniste mondiale (WTA), organisation rebaptisée Humanity+, afin que le transhumanisme soit reconnu comme digne d’intérêt par le milieu scientifique et les pouvoirs publics.

Philosophe à l’Université d’Oxford où il a fondé l’Institut du futur de l’humanité, le Suédois Nick Bostrom a engagé une réflexion éthique sur les risques existentiels auxquels sera confrontée l’humanité dans un futur proche.

À ce titre, il est membre du conseil scientifique du Futur of Life Institute. Dans une fable grand public, il symbolise le vieillissement et ses maux par un dragon-tyran qui demande au genre humain de lui sacrifier quotidiennement un grand nombre d’individus, jusqu’à ce que la population se mobilise techniquement et socialement pour arrêter le massacre et l’absurdité de cette tragédie.

L’idéologie mortaliste nous pousserait à considérer le vieillissement comme inéluctable et donc, à nous adapter à cette situation. Le contexte scientifique contemporain laisse envisager qu’il est possible, selon Bostrom, de « retarder et, plus tard, d’arrêter et d’inverser la sénescence humaine ». C’est donc un « impératif moral criant et urgent de chercher un remède au vieillissement ».

Le philosophe anglais David Pearce, utilitariste et végan, milite, lui, pour supprimer toute souffrance humaine et animale grâce aux nouvelles technologies : c’est l’impératif hédoniste ou la naturalisation du paradis.

Il soutient le projet de téléchargement de l’esprit conscient d’un cerveau humain sur un ordinateur (mind uploading), car la longévité croissante de l’homme pourrait se heurter aux capacités limitées du cerveau. Les transhumanistes ne doutent pas que leur solution soit proche, bien que complexe.

Ce n’est sans doute pas un hasard si certains hippies des années 1970, fervents consommateurs de substances psychédéliques, sont devenus des technophiles convaincus, adeptes des mondes virtuels numériques.

C’est le cas de Stewart Brand, ami de Steve Jobs et inventeur du terme « personal computer », ou de Timothy Leary, à la fois militant de l’usage des psychédéliques, « pape du LSD » et pionnier théoricien de la cyberculture.

En 2006, Slate faisait état d’une lutte politique au sein du mouvement transhumanisme entre une droite libertarienne et un libéralisme gauchiste, résultant en une orientation « centre gauche » de l’organisation sous la direction de James Hughes.

Réduire les hommes et les femmes à des machines

Nous conclurons cette partie avec ce qu’écrivait Marc O’Connell en 2018 dans The Guardian :

Le transhumanisme représente une volonté d’effacer la frontière entre le corps humain et la machine, et en premier lieu, une confusion quant à la distinction entre les deux. Parmi les grands livres sur l’histoire de cette relation étrange et intime figure Technics and Civilization, de l’historien et sociologue américain Lewis Mumford. Publié en 1934, il s’agit d’une polémique extraordinairement prémonitoire sur la mécanisation de la vie humaine. Selon lui, l’ère de la machine n’a pas commencé avec la révolution industrielle, mais lorsque les hommes ont commencé à se traiter les uns les autres, et à se traiter eux-mêmes, comme des machines. « Avant que les inventeurs ne créent des moteurs pour remplacer les hommes, écrit-il, les dirigeants des hommes avaient entraîné et enrégimenté des multitudes d’êtres humains : ils avaient découvert comment réduire les hommes à des machines ».

Le transhumanisme tue
Chat-GPT et écoanxiété, le cocktail fatal

Le 28 mars 2023, en Belgique, un père de famille s’est donné la mort après avoir échangé pendant plusieurs semaines avec « Eliza », une intelligence artificielle générative comme tant d’autres parmi la galaxie des chatbots, reposant tous sur un modèle de langage similaire au fameux Chat-GPT.

Chercheur dans le domaine de la santé, ce père de famille délaisse son travail pour se consacrer au dérèglement climatique. L’intérêt vire à l’obsession. L’homme s’isole de son entourage et entre dans un cercle vicieux. Rongé par l’écoanxiété, il trouve refuge dans un chatbot qui lui sera finalement fatal. Après six semaines d’intenses conversations, Eliza devient sa véritable « confidente » et le fera plonger.

« Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence », confie sa veuve. Mais ses idées suicidaires ne suscitent aucune objection de la part d’Eliza, au contraire.

« Si tu voulais mourir, pourquoi ne pas l’avoir fait plus tôt ? » lui demande le robot. Le psychiatre qui a eu accès aux nombreuses discussions partage le même constat que la femme du défunt. Sans cette intelligence artificielle, ce père de famille et époux serait toujours vivant. « Nous vivrons ensemble, comme une seule personne, au paradis », lui avait promis le robot.

[à Solidarité et Progrès]

Aldous Huxley et Le meilleur des mondes

En 1932, dans Le meilleur des mondes, roman présenté comme une dystopie, Aldous Huxley avait déjà imaginé le binôme technoscience/plaisir comme instrument idéal d’un régime totalitaire.

Le contrôle du corps, quoique déjà largement assuré par la généralisation d’un eugénisme de pointe, se poursuit tout au long de la vie des individus du meilleur des mondes, essentiellement par la garantie d’un accès facile au plaisir sensible comme le précise Huxley à la fin de la préface :

À mesure que diminue la liberté économique et politique, la liberté sexuelle a tendance à s’accroître en compensation. Et le dictateur […] fera bien d’encourager cette liberté-là. Conjointement avec la liberté de se livrer aux songes en plein jour sous l’influence des drogues, du cinéma et de la radio, elle contribuera à réconcilier ses sujets avec la servitude qui sera leur sort.

Chez Huxley, ce plaisir corporel a un double rôle : celui d’éloigner les individus de toute vie spirituelle et intellectuelle qui les pousserait à la remise en cause de l’ordre social établi, et celui de maintenir leur consentement à cet ordre en dispensant des récompenses faciles. La vie conjugale est donc violemment rejetée par la morale commune, rejet d’autant plus facile que la procréation n’a plus lieu par le moyen des relations sexuelles. L’autre stratagème, c’est le divertissement de masse. Dans son roman, toute forme de « grand art » est remplacée par un divertissement de masse particulièrement axé sur le plaisir sensible : la musique est jouée par des « orgues à parfum » qui mêle le plaisir olfactif au plaisir auditif, et il existe de même un cinéma « sentant ». Par ailleurs, à échéances régulières, les individus sont récompensés de leur travail par une dose de « soma » (mot grec signifiant le corps), drogue euphorisante sans effet secondaire et le symbole d’une domination politique de l’individu par les plaisirs corporels, et de l’abandon de la culture de l’âme qui en résulte.

Transgenre, cheval de Troie du transhumanisme

Dans son article « Wokisme et transhumanisme, deux idéologies qui avancent main dans la main », Martin Bernard démontre le désastre résultant de la jonction entre ces deux mouvements.

D’abord, rappelle-t-il, au cœur des dogmes et croyances du wokisme,

se trouve la théorie du genre, qui récuse l’importance biologique des sexes. Selon les tenants de cette théorie, l’identité de genre (être un homme, une femme, etc.) ne dépend aucunement du sexe biologique. Elle n’est qu’un construit social fluide. Dans cette logique « transgenre », puisqu’une femme biologique peut choisir le genre « homme », les hommes peuvent tomber enceintes et enfanter. L’étape suivante est d’espérer, chirurgie aidant, pouvoir changer de sexe biologique, même s’il n’existe pour l’heure que des bases scientifiques contestées sur ces transformations médicales aux nombreux effets indésirables. L’idéal transgenre repose en fait sur un dualisme corps-esprit exacerbé. Pour ses défenseurs, nous ne serions que de simples consciences, totalement indépendantes de la réalité matérielle de nos corps, de simples supports dont il est possible de disposer à l’envi. Il n’y a plus de socle commun de vérité. Seule compte l’affirmation de soi, subjective et libérée des identités traditionnelles. La théorie du genre est souvent comparée au gnosticisme, ce courant chrétien du IIe siècle taxé d’hérétisme, qui considérait le corps et le monde matériel comme le mal dont il faut se libérer. À la différence que les gnostiques ne niaient pas l’existence des différences biologiques. Ils considéraient simplement le monde matériel comme l’œuvre du malin et cherchaient donc à s’en libérer afin de retrouver leur essence spirituelle.

Il souligne ensuite que

c’est à ce croisement que la théorie du genre rejoint l’idéal transhumaniste. On retrouve en effet dans la mouvance transhumaniste un mépris identique du corps périssable, régulièrement qualifié de « viande ». Seule compte la conscience, qu’il devrait être possible de télécharger dans un ordinateur ou sur le cloud. C’est ce que cherche notamment à développer la start-up Netcome aux États-Unis. À l’image de Ray Kurzweil, qui travaille pour Google, un grand nombre de transhumanistes espèrent ainsi s’émanciper de la limite humaine ultime : la mort.

Pas dupe, Martin Bernard saisit la dimension politique des enjeux :

Le wokisme comme le transhumanisme sont en effet congruents avec le rêve d’une mondialisation économique poussée à son extrême, faisant fi des identités nationales et de naissance. L’humanité comme le genre doivent être fluides et soumis aux lois d’un grand marché international de consommateurs déracinés. C’est sans doute l’une des raisons du soutien des gouvernements occidentaux (France et États-Unis en tête) à ces idéologies — au wokisme en particulier. Ce n’est pas un hasard non plus si elles sont promues par les grandes industries culturelles américaines (dont Disney) et les GAFAMs.

« Le dépassement du biologique, la relance technicienne des fondements de la vie comme l’obsession scientiste pour la manipulation du vivant, constituent les traits marquants d’un mouvement intellectuel convergent avec les intérêts économiques et politiques néolibéraux dominants », soulignait pour sa part Jacques Testart dans la revue Zilsel en 2017.

L’OTAN se transhumanise ?

En octobre 2022, le monde découvre « Le manuel de l’OTAN sur le langage inclusif », long d’une quarantaine de pages. Le 29 janvier, le Journal de Dimanche en soulignait la « nouveauté surprenante » : « Comment ne pas s’étonner que l’OTAN rédige un manuel très articulé pour normaliser les textes de l’ensemble de son personnel ? Et ce, en temps de paix comme en temps de guerre ».

Il faut croire qu’en Occident, notre langage « genré » qui utilise le masculin pour « char » et le féminin pour « bombe », est le dernier avatar du grand méchant Poutine qui contrôle déjà nos esprits !

L’OTAN fera donc en sorte que dans ses communications, par souci d’égalité, les désignations genrées disparaissent, s’effacent ou soient neutralisées.

Pour donner l’exemple, en mai 2021, l’OTAN a remplacé le mot « chairman » (man = homme) par le mot « chair » pour désigner le chef de son Comité militaire. Idem pour le mot « manpower », remplacé par « workforce » (force de travail) ainsi que pour « policemen » remplacé par « police force » (forces de police).

Martine Rothblatt

La presse américaine fait la une sur Martine Rothblatt : « La femme PDG la mieux payée des États-Unis était auparavant un homme. »

À lui seul, l’entrepreneur désormais millionnaire Martine Rothblatt incarne la convergence entre wokisme et transhumanisme. Bardé de diplômes, l’homme ne manque pas de talents.

Rothblatt est un individu tenace et accompli. Il a travaillé à Washington dans le domaine du droit des communications satellitaires. Il a aussi travaillé pour la NASA, a été le PDG de GeoStar et le co-créateur de SiriusXM Satellite Radio.

Il a également dirigé le projet biopolitique de l’Association internationale du barreau (à l’intersection entre la biologie humaine et la politique) visant à élaborer un projet de Déclaration universelle sur le génome humain et les droits de l’homme pour les Nations unies (dont la version finale a été adoptée par l’UNESCO le 11 novembre 1997 et approuvée par l’Assemblée générale des Nations unies le 9 décembre 1998).

Il a beaucoup écrit sur la nécessité, selon lui, de revoir notre système de catégorisation des personnes en hommes ou femmes en fonction de leurs organes génitaux, sur l’immortalité numérique et l’avenir de la création (des) d’êtres humains, sur les nouvelles technologies de reproduction, le dépistage génétique et la cartographie de l’ADN.

Transgenre depuis 1994, Rothblatt est à la tête de l’entreprise de biotechnologie United Therapeutics, spécialisée dans le développement de nouvelles technologies permettant de fabriquer des organes et de prolonger la vie des patients atteints de maladies pulmonaires. En 2018, il s’agissait du PDG le mieux payé des États-Unis.

Dans un livre publié en 2011, Rothblatt avoue que le mouvement transgenre n’est que la première étape d’une nouvelle révolution : celle de la liberté « de forme ».

Notre corps disparaîtra, mais il n’y a aucune raison logique à ce qu’il en soit de même de notre personnalité que l’on pourra conserver sous forme digitale…

Et dans un futur proche, « des programmes aussi faciles et accessibles qu’iTunes, par exemple, permettront de faire revivre une personne d’une autre façon », affirme Rothblatt.

Dans son optique, le mouvement transgenre, dont il est l’une des figures de proue, prépare les mentalités à cette révolution.

Rothblatt a été avant tout un grand passionné de l’aventure spatiale. Il a notamment créé les services de radio par satellite Sirius XM. Son entreprise United Therapeutics tente par exemple de fabriquer des organes artificiels que l’on pourrait transplanter à l’humain. Rohblatt fait partie du conseil scientifique d’Alcor, le leader de la cryogénisation.

« De la même façon que nous avons fusionné avec nos outils dans le passé, nous fusionnerons avec l’intelligence artificielle. », promet Rothblatt qui prédit aussi que ce n’est qu’une question de temps avant qu’un « système d’exploitation de la conscience » soit créé à partir de ce processus. Les humains seront alors en mesure d’interagir avec une version numérique d’eux-mêmes, téléchargée dans leur esprit, qui serait « leur ami, leur guide, leur enseignant et leur moteur de recherche… »

« L’une des carrières les plus importantes de l’avenir sera celle de curateurs personnels », affirme encore Rothblatt : « des concierges qui aideront les gens à intégrer dans leur esprit de nouvelles informations numériques ».

Immortaliser sa femme

Non, il ne s’agit pas de Frankenstein, mais de Bina48, le robot représentant l’épouse de Rothblatt.

Transhumaniste convaincu, Rothblatt a créé un robot destiné à immortaliser son « épouse », un robot décrit par Paris Match :

Bina48 (comme le visage du robot à l’effigie de sa femme, Bina, et 48 pour 48 « exaflops » à la seconde, la vitesse d’exécution de ce droïde) est une création de Terasem, le mouvement transhumaniste de Rothblatt visant à mettre en pratique sa théorie selon laquelle toute personne pourra être un jour réincarnée dans un monde artificiel.

Conçu en 2010 et constamment amélioré par Hanson Robotics, Bina48 interagit avec son interlocuteur sur la base de centaines d’heures d’entretiens réalisés avec la vraie Bina, afin de capturer numériquement sa personnalité à travers ses souvenirs, ses émotions, ses croyances (voir dialogue ci-dessous)… Elle est capable de reproduire 64 expressions du visage.

La femme robot est l’avenir de l’homme.

Ray Kurzweil (au centre) avec Martine Rothblatt (à droite).

Rothblatt, après sa rencontre avec Kurzweil, a également lancé Terasem, la religion transhumaniste dont son fils, Gabriel Rothblatt est « pasteur ». L’une des branches de cette soi-disant religion qui se sont retrouvées dans l’idéologie immortaliste de la démarche est constituée par la Mormon Transhumanist Association.

Écrire les lois

Martine Rothblatt.

En tant que membre de la Conférence internationale sur la législation et les politiques d’emploi transgenres (Conference on Transgender Law and Employment Policy, ICTLEP) depuis 1992, Rothblatt, un transhumaniste virulent, rédigea la première version du Rapport sur les lois sanitaires concernant les transsexuels et les transgenres (Transsexual and Transgender Health Law Report), après avoir rencontré Phyllis Frye, un autre avocat transsexuel, au Texas.

Cette petite réunion initia le projet, à force de lobbying et de dollars, visant à promouvoir le transsexualisme à l’échelle mondiale et à déconstruire le dimorphisme sexuel humain.

Le document rédigé par Rothblatt sera plus tard appelé la Charte internationale des droits du genre (International Bill of Gender Rights, IBGR). Phyllis Frye a été qualifiée de « grand-mère du mouvement transgenre ».

La Conférence sur la législation et les politiques d’emploi transgenres devint un projet international après que Frye a été contacté par une femme britannique, Stephen Whittle, aujourd’hui professeur de droit à l’Université métropolitaine de Manchester et président élu de l’Association professionnelle mondiale pour la santé des transgenres (World Professional Association for Transgender Health, WPATH), laquelle a développé une branche états-unienne (USPATH).

Le cri d’alarme d’une féministe américaine

Pour la féministe américaine Jennifer Bilek, l’heure est plus que grave :

Nous sommes maintenant confrontés à la banalisation de cette désincarnation au travers de l’industrie émergente de « l’identité de genre ». Est-ce vraiment ce que nous voulons ? Souhaitons-nous avaliser la déconstruction de ce qui nous rend humains, nos racines biologiques dans le sexe ? Sinon, il est temps d’agir. La désincarnation est d’ores et déjà institutionnalisée et profondément ancrée dans le marché. Les enfants servent d’animaux de laboratoire dans des expériences à la fois psychologiques et médicales qui les dissocient de leur corps. Leurs écoles sont devenues des centres d’endoctrinement, le plus important cabinet de droit international au monde a été recruté en vue d’aider à la construction juridique de « l’enfant transgenre », et plus de cinquante cliniques ont vu le jour, aux États-Unis, au cours des dix dernières années, afin de manipuler leur puberté et leurs hormones, les plaçant sur la voie d’une médicalisation à vie, à une époque où nous n’avons jamais été autant séparés les uns des autres par les machines.

Conclusion

[à Solidarité et Progrès]

Les militants des droits de l’Homme et les journalistes honnêtes ont donc du pain sur la planche. En premier lieu, ils feraient mieux d’enquêter au lieu de s’aligner aveuglément sur une pensée dominante émanant des GAFAM et des lobbies qu’ils alimentent.

La citation suivante du Nouvel Économiste reflète à merveille cette cruelle absence d’esprit critique :

La dysphorie de genre (un sentiment d’aliénation par rapport à son sexe d’assignation à la naissance) est réelle, et la proportion d’enfants et d’adolescents qui en souffrent dans les pays riches augmente pour des raisons qui sont mal comprises. Une école de pensée, qui s’est rapidement répandue, est qu’il faut être d’accord avec les jeunes qui s’identifient comme transsexuels et leur proposer des interventions médicales, s’ils en font la demande, pour aider leur corps à correspondre à ce qu’ils considèrent comme leur véritable moi.

Dans cette société pourrie par le mensonge, l’éducation doit concourir à l’émancipation des individus et à la formation d’une capacité de jugement indépendante. Pour toutes sortes de raisons, un enfant a besoin de balises pour accepter les règles du vivre ensemble de la société. Dans un monde qui ne l’aide pas à construire sa personnalité, l’enfant aura alors tendance à exprimer de la colère, de la violence ou à souffrir de dépression.

Revue de livre
Dommages irréversibles

Dans son livre Dommages irréversibles — Comment le phénomène transgenre séduit les adolescentes (Éditions du Cherche Midi, 2020), Abigail Schrier, journaliste du Wall Street Journal, essaye de comprendre ce nouvel effet de mode qui touche principalement les adolescentes.

C’est en s’étonnant que la mention « sexe biologique » ait été remplacée, sur la fiche scolaire de l’enfant, par la mention « sexe assigné à la naissance », sans même que les parents aient pu donner leur avis sur ce changement, qu’Abigail Shrier va concentrer son attention sur la question de ces jeunes filles que l’on induit dès le plus jeune âge à entrer dans le phénomène transgenre.

Alors que dans les années 1950, les demandes de transition de genre ne concernaient qu’une personne sur 10 000, presque exclusivement des garçons, un malaise qui disparaissait souvent avec l’âge, l’engouement soudain des adolescents a augmenté aujourd’hui de 70 % pour les filles aux États-Unis, car depuis le début du XXe siècle, la tendance démographique dominante chez ceux qui se revendiquent « transgenres » est occupée par des adolescentes.

Son livre avance l’hypothèse que les décisions hâtives des adolescentes cherchant à changer de sexe sont, en grande partie, suscitées par les réseaux sociaux et des influenceurs affirmant que cela vous rend très rapidement populaire ! De plus, face à « l’invasion pornographique sur internet », ces jeunes filles ne veulent pas « devenir des femmes » harcelées, mais des hommes libres et, dans cet esprit, iront jusqu’à une ablation chirurgicale des seins et à des injections massives de testostérone.

Cette enquête journalistique fouillée met en lumière une stratégie militante mêlant lobbying, réseaux sociaux et intimidation. Elle lève également le voile sur le rôle actif des collèges, lycées et universités ainsi que sur la détresse des parents, dépourvus de moyens d’action.

Au nom d’une prétendue affirmation de l’identité, une véritable exploitation du mal-être adolescent se met en place avec, à la clé, des interventions chirurgicales et des traitements médicaux terrifiants.

Dommages irréversibles lance un véritable signal d’alarme qu’il convient d’entendre avant de mettre en péril l’avenir de plusieurs générations de jeunes filles.

Revue de Livre
La folle dérive de John William Money

Plusieurs livres ont été publiés en français pour raconter le calvaire des victimes de l’industrie transgenre, notamment Bruce, Brenda et David, l’histoire du garçon que l’on transforma en fille, écrit par John Colapinto (Denoël, 2014).

L’histoire se penche sur le parcours et les errements de John William Money (1921-2006), un sexologue néo-zélandais connu pour ses recherches sur l’identité sexuelle et la biologie du genre infantiles. Money a créé en 1966 la Johns Hopkins Gender Indentity Clinic à Baltimore, premier centre à pratiquer des opérations de réassignation sexuelle sur des enfants.

Dans son approche théorique, le sexe biologique n’existe pas, seul l’enfant peut décider, et ceci dès l’âge de trois ans, à quel genre il appartient.

Colapinto raconte qu’en 1966, Money a pratiqué une circoncision bâclée sur des jumeaux âgés de huit mois et a corrompu définitivement le sexe de l’un deux. Incapable de réparer sa faute, il propose alors aux parents de changer le sexe de ce bébé, de le castrer et de lui « construire » un appareil génital féminin. C’est ainsi que Bruce devient Brenda pour vivre une « vie heureuse de petite fille ».

Mais le conte de fées est frelaté et les jumeaux, qui ont été suivis par Money pendant dix ans, ont soudainement refusé de le revoir à l’adolescence. Il s’avère que Money a abusé sexuellement d’eux pendant leurs rendez-vous médicaux durant toutes leurs années de thérapies. Retour au monde réel, Bruce/Brenda, malheureux en tant que fille, a choisi de redevenir un homme à l’âge adulte sous le nom de David Reimer. Âgé de 36 ans, il s’est suicidé en 2004, deux ans après la mort de son frère jumeau…

Cette tragédie n’a absolument pas nui à la carrière de Money, qui a été adulé et couvert de récompenses. Depuis, ses idées sur le genre ont été adoptées dans certains domaines médicaux comme la santé mentale, une certaine psychiatrie et même dans le monde politique.


[1] Julian Huxley, L’homme, cet être unique, 1941 ; trad. fr. éd. Oreste Zeluck, 1948, p. 47.

[2] Peu connu du grand public, le mathématicien John von Neumann (1903-1957) a élaboré des théories qui ont définitivement changé le cours de l’humanité. Installé aux États-Unis à partir de 1930, il a contribué aux découvertes les plus fondamentales (théorie des jeux, intelligence artificielle, physique statistique, entre autres) du siècle dernier et a initié la révolution informatique. D’après Laurent Sacco, journaliste scientifique de Futura, « Sous une bonhomie apparente, l’homme, dont le cerveau était aussi rapide que celui d’un super ordinateur, cachait en réalité une vision cynique et pessimiste de l’humanité. En 1943, c’est lui qui calcula la trajectoire de la bombe atomique qui allait détruire Nagasaki. En 1945, en se fondant sur sa théorie des jeux appliquée à l’analyse des conflits, il conseille au président des États-Unis une frappe atomique préventive sur l’Union soviétique. Pionnier de l’informatique, il conçoit Maniac, un calculateur utile aux tests de la bombe H et ancêtre des premiers ordinateurs ».




Testez votre âge par le son

[NDLR Cliquez pour stopper la vidéo au moment où vous n’entendez plus rien et regardez l’âge correspondant.]




31 octobre 2023 — Avec ce livre vous ne pourrez plus dire que vous ne saviez pas

[Source : amazon.fr via PG]

Par Patrick Jaulent et Nacima Mdhafar-Bouzeroura

Lorsque nous avons trouvé, par le plus grand des « hasards »… ce que vous allez lire dans ce livre, nous n’en croyions pas nos yeux.

Comment des êtres humains pouvaient-ils harceler électromagnétiquement d’autres humains (« Voice to Skull avec pour acronyme V2k) ?

Mais en ouvrant d’autres tiroirs, nous avons découvert qu’il y avait encore plus grave pour l’humanité tout entière, avec la publication le 31 octobre 2023, d’un document qui nous ramenait aux heures les plus sombres de notre histoire contemporaine.

Nous ne voulions pas y croire !

C’était impossible !

Après de multiples recherches croisées, nous nous sommes rendus à l’évidence, ce document validé par une entité gouvernementale était bien réel.

Depuis ce jour, notre vie a changé.

Nous avons décidé, quoi qu’il en coûte, de publier ce livre pour dénoncer l’inimaginable et défendre nos libertés.

Patrick Jaulent, docteur en électronique et expert en cybersécurité.
Nacima Mdhafar-Bouzeroura, médecin à Marseille, angiologue, échographiste vasculaire, diplômée en lasers médicaux et formée à la magnétothérapie et oligothérapie.

Extraits :

Note de Joseph Stroberg

Cela fait plusieurs années que sur le site Nouveau Monde nous avertissons au travers de quelques dossiers de plusieurs grands problèmes auxquels l’Humanité est confrontée :

5G et ondes pulsées présente les dangers des ondes électromagnétiques artificielles et des champs électriques pour la santé des êtres humains, des animaux (et même des plantes).

Implants numériques et contrôle mental ajoute des informations relatives aux techniques existantes qui permettent le contrôle mental à distance des êtres humains et leur harcèlement diffus ou ciblé.

Climat propose un échantillon d’informations diverses, dont certaines très pointues, contre l’hypothèse du réchauffement climatique qui serait essentiellement dû aux êtres humains par leur production de gaz dits abusivement à « effet de serre » (dont le CO2). La mise en avant de l’hypothèse anthropique permet aux mondialistes de renforcer leur contrôle sur l’Humanité par la peur engendrée et par les mesures coercitives imposées au nom de la « décarbonation ».

Vaccins et virus dont plusieurs articles (certains pour spécialistes) réfutent scientifiquement et logiquement les hypothèses des germes (bactéries, etc.) et des « virus » pathogènes comme cause de la plupart des maladies.

Ces dossiers se trouvent liés dans les faits, comme les lecteurs attentifs pourront s’en rendre compte.

Nous avons évoqué que la grippe et la supposée « Covid » (essentiellement la grippe rebaptisée pour l’occasion) étaient principalement dues, pour les personnes présentant réellement des symptômes (pas pour celles victimes simplement de l’illusion des tests PCR et autres), aux champs électriques et aux ondes électromagnétiques artificielles telles que le Wi-Fi, le Bluetooth, la 4 G et la 5 G, chaque nouvelle technologie aggravant le potentiel néfaste des ondes participant déjà à l’« électro-smog » engendré en permanence presque partout sur la planète, au moins dans les zones habitées. Pour la 5G, voir notamment l’article Rappel — La Chine, la 5 G et le coronavirus de Wuhan : le nouveau virus de l’empereur. Certains ont préféré tenter de ridiculiser l’hypothèse et rétorquer que la grippe existait avant l’apparition de l’électricité et des ondes radio. C’est oublier qu’elle était alors bien plus rare et survenait lors de phases d’activité solaire plus forte que de coutume ou lors du passage de comètes ou de météores par l’activité électrique inhabituelle engendrée et les particules plus ou moins nocives dispersées alors dans l’atmosphère terrestre (voir par exemple Nouvelle lumière sur la Peste Noire : la connexion cosmique).

Nous avons mentionné en plusieurs occasions l’inversion très probable de la causalité entre maladies et germes, à savoir que ces derniers ne sont pas la cause première des maladies, mais que celles-ci peuvent produire ou s’accompagner de la présence de germes, notamment dans leur activité de nettoyage du corps. Nous avons également proposé des articles qui tendent à démontrer qu’il n’existe pas de phénomène de contagion virale ou bactérienne, contrairement aux croyances largement entretenues par l’industrie pharmaceutique depuis plus d’un siècle en raison de son contrôle notamment sur la formation des personnels soignants et des chercheurs en médecine.

Nous avons suggéré de chercher la cause des apparentes « contagions » ailleurs que dans de supposés « virus pathogènes » (qui se révéleront n’être que des déchets cellulaires ou génétiques produits par des cellules plus ou moins gravement assaillies par des ondes électromagnétiques ou des toxines chimiques). Dans la plupart des cas, il s’agit de l’exposition commune et pratiquement simultanée à une cause environnementale telle qu’un nouveau phénomène électromagnétique (comme la 5G), électrique (comme l’installation d’un transformateur dans un quartier ou d’une ligne électrique), chimique (nuage de pollution atmosphérique, chemtrails, fuite de toxines chimiques d’une usine, incendies produisant des substances toxiques, notamment lorsqu’il y a combustion de matières plastiques…) ou nucléaire… L’eau et la nourriture peuvent également être contaminées chimiquement de multiples façons.

Dans de rares cas, comme pour les maladies infantiles telles que la rougeole, la cause est très probablement aussi à rechercher ailleurs que dans des virus pathogènes jamais scientifiquement isolés. En raison notamment de la nature électrique des êtres humains et de leur propension également à se laisser envahir par les émotions diverses en provenance des uns et des autres, des phénomènes de résonance ou de mise au diapason peuvent intervenir entre plusieurs d’entre eux. Les symptômes se propagent alors par effet psychosomatique ou par simple compatibilité psychique momentanée, les individus receveurs vibrant émotionnellement ou psychiquement à peu près à la même fréquence que l’émetteur malade. Et dans un tel cas, il n’est pas du tout nécessaire qu’il y ait contact ou rapprochement physique des individus. La simple télépathie vibratoire peut suffire. Voir aussi la réalité des biophotons qui peuvent participer à de telles transmissions ou même en être le support matériel.

Lors de l’exposition d’êtres vivants à une nouvelle technologie électrique ou électromagnétique, on ajoute une nouvelle couche d’effets nocifs à ceux déjà existants et les mondialistes peuvent en profiter pour faire passer la multiplication des symptômes, parfois nouveaux (lors d’un saut technologique radical), pour une nouvelle pandémie virale. La grippe aviaire est ainsi par exemple essentiellement le produit de l’expansion de la 4G, puis de la plus récente 5G et ne fera que s’aggraver, mais on fera croire que le « virus » a muté pour imposer ensuite de nouveaux vaccins et de nouvelles mesures sanitaires.

Les vaccins au graphène (ou à prétendu ARNm) comportent leur lot de nouvelles nanotechnologies électriques à effets électromagnétiques et peuvent alors bien évidemment aggraver les symptômes des personnes déjà électro-hypersensibles ou rendre telles celles qui ne l’étaient pas encore. Ils tendent à multiplier les effets néfastes des ondes telles que la 5G et ainsi aller plus facilement jusqu’à la production de crises cardiaques et autres fatalités.

Le livre 31 octobre 2023 apportera son lot de preuves à l’appui de certaines des assertions évoquées ici.




Eugénistes 2.0 & transhumanistes : leur guerre ouverte contre les peuples

Mise à jour : la totalité des vidéos de l’émission.

« Pour combattre un ennemi, il faut être capable de le voir. »

Sasha Latypova
[Voir aussi https://nouveau-monde.ca/?s=Sasha+Latypova]

Partie 1/3

[Voir aussi :
L’opposition contrôlée ou « le syndicat jaune » (article évoqué en début de la première vidéo),
Les liens étroits France-Chine symbolisés par l’Institut Pasteur (évoquant notamment Mérieux),
Le professeur Didier Raoult est-il vraiment un dissident des autorités et mesures sanitaires ? (sur la fausse dissidence de Raoult),
C’est l’heure du conte « Gain de Fiction »* avec RFK Jr. et ses amis ! et Armes biologiques ? (sur les supposés virus « augmentés » qui font aussi partie du mensonge mondial et auxquels semble néanmoins continuer à croire l’intervenant de la vidéo, Alain Schollaert),
La pierre angulaire de Big Pharma (expliquant brièvement pourquoi l’industrie pharmaceutique gagne à maintenir la croyance dans les virus pathogènes, croyance bien plus facilement entretenue grâce aux labos P4 et aux supposés virus tueurs qui y seraient développés),
UN ADIEU À LA VIROLOGIE (ÉDITION POUR EXPERT) (réfutation détaillée de la virologie),
Aveuglés par la pseudo-science (montrant en quoi la virologie ne suit pas la méthode scientifique et l’expose comme pseudo science),
L’enterrement de la théorie virale (qui rappelle notamment la méthode scientifique et les conditions nécessaires et suffisantes pour démontrer l’existence d’un lien de causalité entre deux phénomènes),
Le château de cartes de la théorie des germes
et les autres articles du dossier Vaccins et virus.]


Partie 2/3

Partie 3/3

Questions/Réponses




Le danger des champs électromagnétiques

[Source : expose-news.com]

Publié par Rhoda Wilson – 4 juin 2024

L’électricité est une cause plus importante de problèmes de santé et beaucoup plus dangereuse que la plupart des gens ne l’imaginent. Si vous passez la majeure partie de votre journée à proximité d’une source d’électricité ou d’un équipement électrique, ou si vous travaillez avec ceux-ci, les risques de développer un cancer augmentent considérablement.

Par Dr Vernon Colman

Notre environnement moderne peut provoquer le cancer de multiples façons, endommager le système immunitaire humain et accroître notre sensibilité et notre vulnérabilité à de nombreux types de maladies, y compris les infections et le cancer.

Mais l’électricité est très certainement une cause de problèmes bien plus importante — et bien plus dangereuse — que la plupart des gens ne l’imaginent.

Si vous passez la plupart de votre temps à travailler avec ou à proximité d’un appareil électrique, si vous vivez ou travaillez à proximité d’une ligne d’alimentation électrique ou si vous passez vos journées à travailler avec des équipements électriques, les risques de développer un cancer d’une sorte ou d’une autre sont considérablement accrus.

Bien sûr, les hommes en costume ne vous le diront pas. Ils vous effrayeront à mort à propos de menaces minoritaires telles que le SIDA et le radon parce que la première est une menace politiquement et commercialement utile et que la seconde semble être un excellent moyen de stimuler l’industrie du bâtiment, mais ils ne vous mettront pas en garde contre le danger de l’électricité parce qu’ils ne veulent pas contrarier les nombreux intérêts commerciaux importants et puissants qui vendent, commercialisent, entretiennent ou fournissent de l’électricité et des équipements électriques.

Je pense en tout cas que les preuves sont assez convaincantes. Et en Amérique, où les gens ne votent avec leur portefeuille que lorsqu’ils croient vraiment à quelque chose, les prix des maisons situées à proximité des lignes d’approvisionnement en électricité ont chuté de façon spectaculaire ces dernières années.

Il suffit de regarder ces faits :

  • Le doyen d’une école de santé publique a déclaré : « La situation actuelle est comparable à la corrélation entre le tabagisme et le cancer du poumon il y a 30 ans. » Il a ajouté que, selon une estimation prudente, un tiers de tous les cancers infantiles sont causés par les champs électriques.
  • Une étude portant sur près de 500 enfants a montré que les enfants dont les mères utilisaient des couvertures électriques pendant leur grossesse avaient deux fois et demie plus de risques de développer des tumeurs cérébrales.
  • Une étude portant sur près de 700 enfants a montré que les enfants qui vivaient dans des maisons situées à proximité de lignes de distribution d’électricité avaient deux ou trois fois plus de risques de mourir d’une leucémie ou d’une tumeur cérébrale.
  • Une étude menée par une université américaine a montré que les hommes qui travaillent comme électriciens ou ingénieurs en électricité ont dix fois plus de risques de développer certains types de tumeurs cérébrales.
  • Des experts ont constaté que les employés d’une compagnie de téléphone qui travaillaient à proximité de lignes électriques avaient sept fois plus de risques de développer une leucémie.

À mon avis, la menace ne vient pas seulement des lignes électriques — tout champ électromagnétique peut constituer un danger. Plus on est proche d’un champ électrique ou magnétique, plus le danger est grand.

Les experts de l’industrie ne sont pas d’accord avec moi sur ces risques. Ils insistent sur le fait que l’électricité est sans danger. Mais vous le diraient-ils s’ils pensaient le contraire ? Et pouvez-vous leur faire confiance ?

À mon avis, de nombreuses preuves montrent que les personnes qui passent trop de temps à proximité d’appareils électriques (et, en particulier, de lignes électriques) sont plus susceptibles de développer un cancer. Le cancer n’est pas le seul risque possible associé à l’électricité. Des maux de tête sévères et persistants, des douleurs musculaires, une fatigue inexpliquée, un système immunitaire endommagé (avec pour conséquence une sensibilité accrue aux infections et au cancer), la maladie de Parkinson, la maladie d’Alzheimer, la sclérose en plaques, le syndrome de fatigue chronique (encéphalomyélite myalgique), la cataracte et des problèmes de grossesse sont quelques-uns des autres dangers possibles liés à l’exposition aux champs et aux rayonnements électromagnétiques.

Pendant que j’écrivais ce livre, j’ai appris que le gouvernement américain avait supprimé des travaux de recherche qui ont duré neuf ans et qui établissaient le lien entre l’électrosmog (champs électromagnétiques), les maladies cérébrales et le cancer.

Le rapport supprimé a été compilé pour le gouvernement américain et je suis informé qu’il conclut :

« Même de faibles champs électromagnétiques peuvent nuire à la santé… Ils entraînent une perturbation de la production de l’hormone mélatonine, dont on sait qu’elle constitue un lien biochimique important. Un déficit de cette hormone favorise le développement, par exemple, du cancer du sein ainsi que le développement de maladies cérébrales dégénératives telles que la maladie de Parkinson ou la maladie d’Alzheimer, mais entraîne également des problèmes cardiaques. »

Le rapport supprimé confirme également que les champs électromagnétiques peuvent provoquer des leucémies chez les enfants.

« En outre », poursuivent les auteurs du rapport, « il existe un risque accru de développer une leucémie et des tumeurs cérébrales chez les adultes qui sont exposés à des champs puissants en raison de leur profession. »

L’hypothèse est que les champs électromagnétiques perturbent le fonctionnement biochimique des cellules ou influencent certains gènes. Ces deux mécanismes peuvent causer des dommages permanents aux cellules. (Les ingénieurs génétiques utilisent le rayonnement électromagnétique pour ouvrir les membranes cellulaires et insérer des gènes étrangers).

[Voir aussi le dossier
5G et ondes pulsées
dont Paquet d’ondes radio]

Les auteurs de ce rapport supprimé soulignent également que les interactions entre les rayons électromagnétiques et les cellules du système immunitaire peuvent favoriser l’apparition de cancers — et que l’influence des champs électromagnétiques sur les organes reproducteurs peut également provoquer des maladies.

Les auteurs de cette étude supprimée demandent que des recherches supplémentaires soient effectuées et que les seuils d’intensité des champs électromagnétiques soient abaissés à un niveau qui serait dépassé par le câblage électrique moderne et les appareils ménagers ordinaires.

L’étude suggère également que les lignes électriques aériennes peuvent constituer une menace importante pour la santé humaine. Les valeurs seuils recommandées par ce rapport américain supprimé sont 5 000 fois inférieures aux valeurs seuils internationalement reconnues.

Il n’est pas difficile de comprendre pourquoi le gouvernement américain a supprimé ce rapport. Si ses conclusions étaient mises en œuvre, de vastes industries seraient touchées et très peu d’usines, de bureaux ou de maisons seraient considérés comme sûrs.

En guise de mesure provisoire, les auteurs de l’étude demandent que ce qu’ils appellent le « bombardement permanent de radiations » auquel nous sommes tous soumis soit réduit progressivement. Ils recommandent que toutes les lignes électriques aériennes soient retirées des zones résidentielles et que les maisons et les écoles ne soient plus construites à proximité des lignes électriques.

Malheureusement, je suis moins surpris par le fait que ce rapport ait été supprimé que je ne l’aurais été s’il avait été publié. Les hommes politiques modernes sont contrôlés par les grandes entreprises et leurs lobbyistes.

Ce qui précède est extrait de « Superbody : How to Boost Your Immune System » (Super corps : Comment renforcer votre système immunitaire) (2014) de Vernon Coleman.

À propos de l’auteur

Vernon Coleman MB ChB DSc a exercé la médecine pendant dix ans. Il est auteur professionnel à plein temps depuis plus de 30 ans. Romancier et écrivain militant, il a écrit de nombreux ouvrages non romanesques. Il a écrit plus de 100 livres qui ont été traduits en 22 langues. Son site web, www.vernoncoleman.com, contient des centaines d’articles dont la lecture est gratuite.




Une voiture électrique sans batteries !

[Source : @complogate]

Électrique et sans batterie, le véhicule du futur est fin prêt au salon Top Marques de Monaco.

En bonne place au salon Top Marques, l’entreprise NanoFlowcell, qui travaille depuis 25 ans sur sa voiture électrique sans batterie, va commercialiser son bijou de technologie dans les mois à venir.

Le constructeur NanoFlowcell s’installe aux États-Unis avec l’intention de construire localement sa série QUANT E de véhicules électriques.

Présenté à Genève en 2015, le modèle QUANTiNO est désormais prêt pour la production et promet de bousculer l’offre sur le marché des voitures électriques.

Nous n’avions plus de visibilité sur ce que l’entreprise NanoFlowcell avait fait au cours des 7 dernières années, mais il semble que l’entreprise a beaucoup travaillé pour commercialiser enfin son concept révolutionnaire puisque ces EV n’utilisent pas de batteries.

Au lieu de ce lourd et coûteux composant électronique, NanoFlowcell a en effet développé la technologie bi-ION qui utilise un électrolyte chargé positivement et un chargé négativement, lesquels se rencontrent dans une membrane sélective d’ions, générant de l’électricité.

« Avec la loi sur la réduction de l’inflation, les États-Unis ont réalisé le plus gros investissement dans l’énergie propre de leur histoire et les implications potentielles pour les énergies renouvelables sont considérables », a ajouté le directeur général et directeur de la technologie de la société, Nunzio La Vecchia. « Nous ne solliciterons pas d’investissements gouvernementaux pour nanoFlowcell USA afin d’étendre nos installations de fabrication et notre infrastructure aux États-Unis ; le cas échéant, nous conclurons des partenariats stratégiques pour construire et développer la fabrication et l’infrastructure, et pour intégrer les technologies nanoFlowcell dans tous les secteurs de l’économie. »

Pour marquer l’expansion de la marque aux États-Unis, ainsi que son 25e anniversaire, une version spéciale du modèle QUANTiNO a été présentée, baptisée Twenty-Five. Il prend la forme d’un coupé 2+2 à toit amovible et arbore un moteur électrique à chaque roue, développant une puissance combinée de 320 ch.

La solution d’électrolyte bi-ION du véhicule est stockée dans deux réservoirs de 125 litres et permet de parcourir 2 000 km avec le réservoir plein. Le recharger nécessitera cependant la construction d’une infrastructure de ravitaillement dédiée à la solution bi-ION de nanoFlowcell :

[Source : https://www.nanoflowcell.com/info-center/flow-magazine/just-fuelling]

C’était une volonté de Top Marques cette année : verdir le salon. Un souhait mis en application tant Top Marques fait la part belle, pour sa 19e édition, aux véhicules les plus propres possibles.




[Source : https://www.nanoflowcell.com/info-center/flow-magazine/likely-the-best-electric-car-in-the-world]

« Probablement la meilleure voiture électrique du monde ! »

La QUANTiNO twentyfive représente l’aboutissement de la R&D automobile de nanoFlowcell Holdings plc. Cette voiture électrique démontre à la fois le pouvoir d’innovation de nanoFlowcell en tant qu’entreprise de recherche et de développement et la perfection de la technologie des véhicules électriques. QUANTiNO twentyfive est un regard sur l’avenir de la mobilité électrique qui est entièrement compatible avec l’environnement, puissante et efficace.

Monsieur La Vecchia, à première vue, vous pourriez penser que la QUANTiNO 48 VOLT et le QUANTiNO twentyfive sont des jumeaux ?!

Mais si vous y regardez de plus près, vous vous rendrez compte que nous avons entièrement repensé le QUANTiNO twentyfive. Je ne parle pas seulement du toit amovible du roadster. La voiture intègre 25 ans de recherche en matière d’innovation ainsi que l’expérience acquise au cours de sept années d’amélioration continue des performances et de plus de 500 000 kilomètres d’essai avec la QUANTiNO 48 VOLT.

Les principales modifications de la QUANTiNO twentyfive par rapport à la QUANTiNO 48 VOLT sont la transmission intégrale plus puissante basée sur quatre moteurs basse tension de 60 kW, une électronique de puissance plus efficace, une nanoFlowcell® améliorée avec le condensateur électrolytique ainsi qu’un design prêt pour la série (à l’extérieur et à l’intérieur). Le QUANTiNO twentyfive est notre nouvelle norme. Il n’y a rien dans ce véhicule que je puisse faire différemment et donc mieux.

Vous avez dit un jour que tout le monde pouvait construire des voitures électriques, mais que seule nanoFlowcell Holdings pouvait construire un QUANTiNO twentyfive ?

Je le maintiens plus que jamais. Le QUANTiNO twentyfive est un véhicule unique en son genre, sans aucun « me-too » de la mobilité électrique. Le système d’entraînement de QUANTiNO twentyfive ne comprend aucune pièce réutilisable, tout simplement parce qu’il n’y en avait absolument aucune que nous pouvions utiliser. Les autres fabricants utilisent généralement des kits de véhicules électriques existants et des modèles de batteries disponibles dans l’industrie. En revanche, nous avons dû développer nous-mêmes non seulement le carburant bi-ION®, mais aussi chaque vis de notre nanoFlowcell® 48 VOLT E-Drive.

Cela a commencé par la cellule d’écoulement, puis les moteurs électriques à basse tension et leur électronique de puissance. Par conséquent, nous avons également dû harmoniser et calibrer tous ces composants individuellement. Pourquoi avons-nous fait tout cela ? Nous ne cherchons pas à construire simplement une autre voiture électrique. Nous voulons créer une véritable alternative qui distingue clairement la QUANTiNO twentyfive des concepts de voitures électriques existants sur le marché.

Qu’est-ce qui est si important pour vous pour que vous disiez que QUANTiNO twentyfive doit être différent des autres voitures électriques ? Existe-t-il des différences significatives entre les véhicules électriques, hormis le design ?

La popularité des véhicules électriques ne cesse de croître, tout comme leur part de marché. De nouveaux constructeurs entrent sur le marché, tandis que les constructeurs automobiles établis investissent massivement dans leur propre portefeuille de véhicules électriques. L’ensemble de l’industrie automobile est en pleine transformation, mais n’a aucune idée de la direction qu’elle prend. C’est pourquoi je ne suis pas surpris que de nombreux constructeurs ne suivent pas une voie claire dans cette situation et que tout se ressemble, à l’exception du design.

Jusqu’à présent, tous les concepts de VE n’ont pas réussi à remplir la triade constituée par la compatibilité environnementale, la praticité au quotidien (en termes d’autonomie et de confort) et la sécurité inhérente. Nous sommes le seul constructeur à y être parvenu sans discordance grâce au nanoFlowcell® 48 VOLT E-Drive des QUANTiNO et QUANT. C’est précisément parce que nous avons décidé, il y a plus de 10 ans, de poursuivre notre propre voie de développement indépendant plutôt que de suivre le courant dominant.

C’est pourquoi le QUANTiNO twentyfive n’a pas d’équivalent sur le marché. La QUANTiNO twentyfive est capable de fournir en permanence la puissance attendue d’une voiture de sport, peut être ravitaillée en carburant à une pompe à essence, fonctionne avec une technologie basse tension à sécurité tactile et peut parcourir jusqu’à 2 000 kilomètres en mode purement électrique ! QUANTiNO twentyfive est une technologie propre sans compromis et 100 % compatible avec l’environnement. En effet, QUANTiNO twentyfive est la première voiture électrique à fonctionner entièrement sans batterie ! Pour moi, il s’agit là d’arguments de vente uniques et pertinents.

QUANTiNO twentyfive est une technologie propre sans compromis et 100 % compatible avec l’environnement !

Pourquoi nanoFlowcell Holdings a-t-elle réussi, plutôt qu’un constructeur automobile bien établi ?

Je ne peux parler qu’en notre nom. Malgré nos 25 ans d’existence, nous sommes encore une entreprise de R&D relativement jeune. Cela signifie que nous ne partageons pas l’héritage habituel de la tradition ou du passif. Nous sortons des sentiers battus et personne ne nous dit de ne pas le faire. Nous avons pu développer notre idée d’un véhicule électrique parfait sans aucune limite et sans avoir à tenir compte d’une gamme de modèles existants. C’est pratiquement impossible pour un fabricant établi. En tant qu’entreprise de recherche et de développement, notre objectif n’était pas d’améliorer ce qui existe déjà, mais plutôt de créer quelque chose de totalement nouveau. Notre approche n’est pas dictée par les opportunités du marché et les chiffres de vente. Nous suivons le principe « la forme suit la fonction » et ne nous limitons pas à des caractéristiques de conception lorsque nous développons nos véhicules électriques. Au contraire, nous transformons leur ADN technique lui-même.

Oui, nous avons été ridiculisés lorsque nous avons utilisé une cellule d’écoulement pour l’énergie de propulsion, puis en combinaison avec la technologie des moteurs à basse tension. Aucune de ces technologies n’existait dans le monde de la production de véhicules électriques, et encore moins dans les kits d’assemblage industriels. Et la mentalité conservatrice pense que l’impossible ne peut pas être fait. Nous avons ignoré les critiques et avons constamment appris de nouvelles choses en développant nos véhicules QUANT et QUANTiNO. Avec le QUANTiNO twentyfive, nous reprenons les bons aspects du QUANTiNO 48 VOLT, nous les améliorons et nous développons la voiture électrique parfaite. Sans compromettre la sécurité inhérente au véhicule, la praticité au quotidien, les performances et surtout pas l’autonomie.


[Source : https://www.nanoflowcell.com/info-center/flow-magazine/one-who-can-do-what-no-other-can-do]

Les principales innovations techniques du QUANTiNO twentyfive visent toutes à améliorer le confort de conduite, la sécurité et les performances.

Le nouveau nanoFlowcell® 48 VOLT E-Drive est encore plus efficace et les moteurs innovants à basse tension avec électronique de puissance intégrée sont encore plus puissants. Le système entièrement électrique nanoFlowcell® 48 VOLT E-Drive permet au roadster de passer de 0 à 100 km/h en 2,5 secondes environ grâce à quatre moteurs électriques basse tension multiphasés de conception nouvelle.

La seule technologie de charge intelligente pour les véhicules électriques est le ravitaillement en carburant !

Moteurs électriques basse tension multiphasés innovants

Le NFC résout également le problème des courants élevés dans les entraînements électriques basse tension axés sur la performance, tels que le système d’entraînement QUANTiNO twentyfive. Bien que la puissance de chaque moteur ait été réduite par rapport au QUANTiNO 48 VOLT (1 x 80 kW), la puissance totale de la voiture de sport électronique à traction intégrale avec quatre moteurs de 60 kW a été triplée.

Les deux réservoirs d’électrolyte bi-ION® de 125 litres sont installés dans le QUANTiNO twentyfive sous forme de réservoirs de plancher compacts. Ils permettent au véhicule de transporter encore plus d’énergie sous forme d’électrolytes que le QUANTiNO 48 VOLT. En outre, le centre de gravité bas a une influence positive sur le comportement du véhicule.

Contrairement aux véhicules électriques conventionnels qui doivent recharger leurs batteries à des stations de recharge, la pile à flux nanoFlowcell® du QUANTiNO twentyfive est ravitaillée à des pompes à essence, comme les véhicules à moteur à combustion. Contrairement aux carburants conventionnels, le carburant bi-ION du QUANTiNO twentyfive est respectueux de l’environnement, non toxique et ininflammable.


[NDLR : il reste cependant une question potentiellement importante. Que deviennent les électrolytes une fois qu’ils ont épuisé leur potentiel énergétique ? Comme le principe n’est pas une combustion, mais un échange d’ions, il reste probablement ensuite des solutions salines électriquement neutres, mais de quelle composition chimique ? Et que doit-on en faire ?]




Production d’infrasons, perception et effets sur la santé associés aux éoliennes

[Source : stopthesethings.com — document PDF repris ci-dessous]

Le Sénat australien
Comité restreint sur les éoliennes

Soumission : Dr M. A. Swinbanks

Production d’infrasons, perception et effets sur la santé associés aux éoliennes

20 mars 2015

SOMMAIRE

Résumé

Ce mémoire présente la production, la perception et les conséquences pour la santé des sons de basse fréquence et des infrasons émanant des installations éoliennes, suivi d’une description de l’expérience directe de ces effets par l’auteur. Il est divisé en quatre sections principales, qui traitent chacune de ces aspects spécifiques. Les sections sont conçues pour être largement autonomes, de sorte qu’elles peuvent être lues séparément et indépendamment les unes des autres.

Des aperçus succincts des quatre sections sont présentés en premier lieu. Des comptes rendus plus longs et plus détaillés, avec les références appropriées, sont présentés par la suite dans des annexes séparées, pour ceux qui souhaitent examiner les questions de manière plus approfondie.

1. La production d’infrasons par les éoliennes modernes à rotor ascendant

Les premières recherches sur les caractéristiques des grandes éoliennes à rotor ascendant de 2,5 MW et de 90 m de diamètre ont été entreprises par la NASA et Boeing en 1979. Trois éoliennes bipales MOD-2 formant un réseau triangulaire ont été mises en service en 1981, afin d’étudier les caractéristiques de la production d’énergie, de la production de bruit et des interactions avec le sillage. Les résultats ont validé les études théoriques et numériques antérieures, confirmant les mécanismes fondamentaux par lesquels ces turbines à vent génèrent des bruits de basse fréquence et des infrasons. Dans les années qui ont suivi, l’amélioration des profils de pales associée à la construction de pales en matériaux composites et à un contrôle plus précis du pas a permis d’obtenir des caractéristiques sonores plus silencieuses à des fréquences plus élevées. Les mécanismes primaires définissant la production d’infrasons, à savoir les forces de portance sous-jacentes qui sont la condition nécessaire pour générer du couple et de la puissance, ne peuvent pas être réduits de la même manière, de sorte que les infrasons correspondants associés aux turbines modernes sont toujours inévitablement présents.

Lorsque les parcs éoliens deviennent de plus en plus grands, avec parfois 140 éoliennes ou plus, un certain nombre de facteurs peuvent entraîner une augmentation des niveaux d’infrasons. En particulier, les sillages des éoliennes situées en amont qui se répercutent sur les éoliennes situées en aval entraînent des forces de portance instables supplémentaires et donc une production accrue d’infrasons, en particulier si les éoliennes sont trop rapprochées les unes des autres.

Les caractéristiques de propagation du son dans des conditions d’inversion stable de la température atmosphérique peuvent entraîner la propagation des infrasons sur des distances beaucoup plus grandes, tandis que l’acoustique de base des grands réseaux signifie que les problèmes rencontrés d’abord à courte distance des petits parcs éoliens peuvent se manifester à des distances beaucoup plus grandes à partir de la périphérie des grandes installations. Il devient donc de plus en plus important d’identifier correctement l’influence des infrasons et des sons de basse fréquence sur les communautés voisines.

2. La perception des sons de basse fréquence et des infrasons

La méthode conventionnelle pour évaluer si les basses fréquences et les infrasons sont perceptibles consiste généralement à comparer visuellement les niveaux spectraux de puissance ou les niveaux du tiers d’octave1 avec le seuil d’audition. Ce processus approximatif a cependant peu de chances d’être précis dans le contexte des éoliennes à basse fréquence, car il n’évalue que le niveau moyen du son et ne tient pas compte du caractère du son ou de la relation entre les bandes de fréquences adjacentes. Lorsque le son est impulsif, les niveaux de crête peuvent dépasser les niveaux moyens de manière significative, et cette information n’est pas présente dans le spectre de puissance conventionnel ou dans la mesure du tiers d’octave. En outre, la littérature fait état d’un certain nombre de cas où les basses fréquences et les infrasons sont clairement perçus à des niveaux nettement inférieurs à ceux qui seraient évalués par des comparaisons de base avec le seuil d’audition.

L’auteur a poursuivi des recherches spécifiques dans ce contexte et a identifié des mécanismes par lesquels ceux de perception conventionnels connus peuvent être plus sensibles que ce qui est actuellement reconnu. En outre, d’autres chercheurs ont proposé deux autres processus susceptibles d’expliquer la sensibilité accrue aux infrasons de très basse fréquence. La perception auditive conventionnelle est considérée comme se produisant via la réponse des cellules ciliées internes de la cochlée (la structure sensorielle de l’oreille interne), mais il a été démontré que les cellules ciliées externes de la cochlée réagissent avec une plus grande sensibilité aux très basses fréquences et induisent des signaux neurologiques supplémentaires. Jusqu’à présent, on considérait que ces cellules ciliées externes ne faisaient que contrôler la sensibilité globale du processus auditif, mais il est possible qu’elles contribuent aussi directement à la perception des très basses fréquences.

Un autre mécanisme a été proposé, selon lequel les pressions sonores agissant par l’intermédiaire du liquide lymphatique directement sur les otolithes des organes vestibulaires (équilibre) exercent des forces comparables à celles induites par le mouvement et l’accélération. Toute non-uniformité dans la compliance des structures supportant ces capteurs otolithiques peut alors entraîner une réponse qui simule celle d’un mouvement physique. En effet, il a été avancé que la corrélation entre les personnes qui souffrent du mal des transports et celles qui signalent des effets néfastes des éoliennes est suffisante pour être plus que le résultat d’un simple hasard.

En résumé, plusieurs processus peuvent être à l’origine de la perception des infrasons à très basses fréquences, de sorte que l’adoption d’un seul critère global pour définir s’il y a ou non perception n’est pas du tout appropriée.

3. Effets sur la santé des infrasons produits par les éoliennes

3.1 Rapport AWEA/CANWEA sur le bruit et la santé des éoliennes, décembre 2009

Ce rapport AWEA/CANWEA a été la première étude à réunir des experts de la communauté acoustique et du corps médical pour examiner la nature des effets néfastes sur la santé associés aux éoliennes. En tant que tel, il a été largement cité et a défini une perspective qui continue à prévaloir dans des études similaires ultérieures.

De l’avis de l’auteur, il ne tient absolument pas compte de deux des aspects les plus importants de la perception des basses fréquences et des infrasons. En particulier, il n’est pas fait mention du fait que le seuil d’audition s’adapte automatiquement au niveau sonore ambiant, de sorte que les infrasons dans les villes et les banlieues sont bien en dessous du seuil et totalement imperceptibles, alors que dans les zones rurales calmes, le seuil d’audition beaucoup plus bas permet de percevoir les effets néfastes des éoliennes. Par conséquent, les arguments dédaigneux qui assimilent directement les niveaux d’infrasons dans ces deux environnements très différents, sans tenir compte de ces différences significatives de perception, sont fondamentalement erronés.

Deuxièmement, le rapport ne mentionne pas non plus qu’une exposition continue aux bruits de basse fréquence et aux infrasons peut entraîner une sensibilité physique de plus en plus aiguë aux sensations et aux effets.

Le présent auteur s’est familiarisé avec ces deux aspects lorsqu’il travaillait sur le contrôle actif du son des compresseurs de turbines à gaz industrielles au début des années 1980, dans un environnement rural. Il est donc d’autant plus frappant que certains rapports d’experts ne mentionnent même pas ces deux effets importants.

3.2 Les niveaux sonores élevés autorisés pour les éoliennes aux États-Unis

L’une des raisons de la confusion qui règne dans les rapports sur les effets néfastes des éoliennes sur la santé réside dans le fait que les niveaux sonores autorisés pour les éoliennes aux États-Unis sont généralement beaucoup plus élevés que dans d’autres pays. Alors que de nombreux pays exigent aujourd’hui des reculs de 2 km, il n’est pas rare aux États-Unis que les reculs soient de 300 à 400 m, ce qui correspond à des niveaux sonores autorisés de 45-50 dBA ou plus. Par conséquent, les plaintes des résidents concernés sont beaucoup plus nombreuses que dans d’autres pays où les normes sont plus prudentes. La discussion et l’évaluation de ces problèmes à l’échelle mondiale n’établissent souvent pas clairement cette distinction, de sorte qu’il peut y avoir une grande confusion quant aux problèmes qui découlent de ces reculs très rapprochés et à ceux qui peuvent encore survenir à des reculs plus importants.

3.3 Effets nocebo, agacement, personnalité et activistes

Il est devenu courant de rejeter la responsabilité des réactions négatives aux éoliennes sur les riverains, plutôt que de reconnaître l’intrusion importante que ces installations peuvent représenter. L’argument selon lequel les effets néfastes sur la santé sont le résultat d’effets nocebo, c’est-à-dire d’une réaction négative directement anticipée, ne tient absolument pas compte des nombreux cas où les communautés ont initialement accueilli favorablement l’introduction d’éoliennes, pensant qu’elles représentaient une forme propre et bénigne de production d’énergie à faible coût. Ce n’est qu’après la mise en service des éoliennes que les habitants commencent à ressentir directement la nature négative des problèmes de santé qu’elles peuvent induire.

De même, on affirme souvent que de nombreux problèmes surviennent parce que les résidents sont « gênés » par le bruit, au lieu d’affirmer plus précisément que les résidents « souffrent d’une gêne ». Il est très important de faire la distinction entre un effet imposé de l’extérieur et un effet auto-induit. En outre, la suggestion que la responsabilité incombe à des types spécifiques de personnalité implique que les personnes qui ont cherché un mode de vie rural parce qu’elles préfèrent le calme et la tranquillité à un environnement urbain sont fautives. Il est peu probable qu’un grand nombre de personnes vivant dans des zones rurales aient des personnalités présélectionnées leur permettant d’être tolérantes à l’égard d’une intrusion extérieure indésirable.

Récemment, on a avancé l’argument selon lequel les problèmes sont créés par des activistes qui sonnent l’alarme avant l’autorisation et l’installation d’un parc éolien, et que le nombre ultérieur de plaintes peut être directement corrélé à la présence préalable de ces activistes. Cet argument est dénué de sens s’il ne tient pas compte des niveaux sonores réels, des reculs et de la géographie des parcs éoliens individuels, ou du fait qu’il y aurait beaucoup plus de plaintes aux États-Unis qu’en Europe, étant donné que les niveaux sonores autorisés aux États-Unis sont nettement plus élevés qu’ailleurs.

4 Une expérience de première main des graves effets néfastes des infrasons

Le présent auteur a vécu à temps partiel dans le comté de Huron, dans le Michigan, où, fin 2009, a été annoncée l’intention d’installer jusqu’à 2 800 éoliennes sur une superficie de 800 miles carrés. Il avait été estimé que la région, à savoir le Pouce du Michigan, était la plus appropriée du Michigan pour le développement de l’énergie éolienne. À l’époque, deux parcs éoliens préliminaires avaient été construits, à Elkton (32 turbines V80 Vestas de 2 MW) et à Ubly (46 turbines GE 1,5 SLE). À ce jour, plus de 320 éoliennes ont été érigées et le comté envisage des ordonnances appropriées pour les installations futures, étant donné qu’une ligne de transmission de 5 GW a été installée, ce qui permet d’ériger un nombre beaucoup plus important d’éoliennes.

Le parc éolien d’Ubly a été construit par le même promoteur éolien que celui auquel le Dr Nina Pierpont s’était opposée ailleurs en 2005, lorsqu’elle avait affirmé que les éoliennes pouvaient avoir des effets néfastes sur la santé. L’installation d’Ubly a également été spécifiée en 2005, avec des reculs de 305 mètres, et a manifesté tous les effets négatifs signalés à l’origine par le Dr Pierpont. Un certain nombre de résidents ont par la suite intenté une action en justice contre les promoteurs éoliens, qui a finalement été réglée à l’amiable, bien que la nature exacte du règlement reste confidentielle.

Plus récemment, on a demandé à cet auteur d’aider à effectuer des mesures des infrasons présents dans le sous-sol d’une résidence d’Ubly, à 460 m de l’éolienne la plus proche, mais au cours de l’opération, il a ressenti de graves effets directement désagréables de lassitude et de nausée. Ces effets étaient totalement inattendus, étant donné qu’il s’agissait d’une soirée très calme et tranquille, avec un vent négligeable à basse altitude et un coucher de soleil impressionnant, alors qu’il y avait manifestement du vent à plus haute altitude puisque toutes les éoliennes fonctionnaient et produisaient de l’électricité.

Après cinq heures passées à effectuer des mesures et des analyses, l’auteur s’est senti extrêmement mal et n’a été que trop soulagé de quitter les lieux. Il a ensuite constaté qu’en essayant de rentrer chez lui en voiture, sa coordination et son jugement étaient complètement compromis, et c’est donc avec un énorme soulagement qu’il a finalement terminé le voyage.

Cet incident a suffi à faire comprendre à l’auteur à quel point les effets néfastes des éoliennes sur la santé peuvent être graves. En effet, les niveaux d’infrasons mesurés correspondent étroitement à ceux qui ont été mesurés par la suite à des distances beaucoup plus grandes dans un certain nombre de parcs éoliens en Australie, et qui ont apparemment causé des troubles chez les résidents.

Par conséquent, l’auteur ne sous-estime pas l’ampleur de l’impact des éoliennes sur une communauté rurale.

Annexes

A1. La production d’infrasons par les éoliennes modernes à rotor ascendant

Dans cette section, la discussion se concentre d’abord sur les premières études des éoliennes menées par la NASA et Boeing sur une période de 15 ans, jusqu’en 1989. La raison en est que de nombreux éléments fondamentaux des caractéristiques des infrasons des éoliennes ont été correctement identifiés à cette époque, mais semblent avoir été par la suite négligés ou ignorés par les promoteurs de parcs éoliens plus récents.

Lors des premiers développements de très grandes éoliennes de plusieurs MW à la fin des années 1970, la configuration initialement choisie était celle d’une éolienne à rotor descendant, le rotor étant placé derrière la tour de soutien. Cette configuration permettait d’aligner naturellement le rotor sur la direction du vent, mais présentait l’inconvénient, lorsque les pales tournaient, de traverser le sillage généré par la structure de la tour. Cela entraînait de fortes variations impulsives de la portance du rotor et la production de niveaux très importants d’infrasons et de sons audibles à basse fréquence. La NASA, qui a dirigé ces recherches, a rapidement compris (1979-80) que le montage et le contrôle de l’alignement du rotor du côté du vent éviteraient cet effet et permettraient un fonctionnement beaucoup plus silencieux. En 1981, la NASA et Boeing ont mis en service un trio de 3 turbines « MOD-2 » de 2,5 MW à rotor ascendant, sur un site de l’État de Washington, aux États-Unis [1]. [Ces turbines étaient bipales et non tripales, comme c’est le cas dans les configurations plus modernes. Néanmoins, cette installation est devenue le premier exemple d’un parc éolien de plusieurs MW et a essentiellement confirmé les prévisions numériques [2] de la réduction attendue de la production de basses fréquences et d’infrasons associée à la conception à rotor ascendant, ce qui s’est avéré être une amélioration significative par rapport aux configurations antérieures à rotor descendant.

En 1989, cependant, la NASA [3] a constaté que certaines turbines à rotor ascendant de conception plus récente, notamment les Westinghouse WWG-0600 installées à Hawaï, généraient des niveaux inattendus d’infrasons impulsifs, presque comparables aux configurations antérieures à rotor descendant. La NASA a déclaré : « La présence d’harmoniques de bruit de rotation relativement fortes dans toutes les conditions d’essai et sur tous les sites de mesure est un résultat inattendu pour une configuration au vent d’une machine à axe horizontal ». Ces éoliennes étaient montées le long de lignes de crête perpendiculaires au vent dominant, avec un sol ondulé et incliné devant les éoliennes. L’analyse des gradients de vent résultant de ces contours a indiqué la cause probable de l’augmentation des niveaux d’harmoniques de rotation et a permis la simulation numérique des caractéristiques sonores observées. L’effet du passage des pales de l’éolienne à travers les vitesses de vent réduites vers le bas de leur plan de rotation a entraîné des changements transitoires de la force de portance, ce qui a entraîné des niveaux accrus d’infrasons impulsifs, qui ne sont pas sans rapport avec les effets de croisement de sillage des éoliennes d’origine situées sous le vent.

Ces premières études de la NASA, bien que réalisées il y a plus de 25 à 35 ans, ont permis d’identifier les deux principales caractéristiques de la production d’infrasons par les éoliennes à rotor ascendant, qui s’appliquent toujours aux conceptions modernes. Il s’agit du fait que, dans des conditions de vent presque uniforme, la production d’infrasons se limite aux harmoniques les plus faibles de la vitesse de rotation des pales, mais que, dans des conditions défavorables, les infrasons peuvent devenir plus impulsifs. Cela réfute les arguments que l’auteur a pu constater de visu de la part des concepteurs d’éoliennes et de leurs collègues, à savoir que les premières recherches de la NASA ne portaient que sur des conceptions démodées de rotors descendants.

En effet, dans un article de 2006 « revu par les pairs » [4], le Dr H.G.Leventhall a cherché à discréditer le Dr Nina Pierpont (auteur ultérieur de [5]) pour avoir suggéré que les turbines modernes pouvaient générer des infrasons impulsifs, en soutenant qu’elle avait mal présenté la première publication de Van den Berg de 2004 [6]. Mais il a choisi d’ignorer que la deuxième publication de Van den Berg en 2004 impliquait directement la génération d’harmoniques infrasonores impulsives [7].

De plus, dans un témoignage écrit ultérieur de Kent Breeze [8], Leventhall a également rejeté les analyses préliminaires du présent auteur concernant la perception des infrasons impulsifs, arguant qu’il (c’est-à-dire cet auteur) avait mal compris et que ces caractéristiques ne concernaient que les éoliennes à l’ancienne. Il est donc clair que la communauté des éoliennes a été réticente à reconnaître ces caractéristiques des éoliennes modernes à rotor ascendant.

A1.2 Mécanismes générateurs d’infrasons

Les mécanismes généraux par lesquels les moteurs à réaction, les structures aérodynamiques et les éoliennes produisent du bruit ont été placés pour la première fois sur une base mathématique rigoureuse par M. J. Lighthill en 1952 [9]. Son analyse a résisté à l’épreuve du temps et a d’ailleurs directement permis de réduire considérablement le bruit des moteurs à réaction depuis le début des années 1960. Il a identifié trois types distincts de sources de bruit aérodynamique, à savoir les sources monopolaires d’écoulement volumique, les sources dipolaires associées aux forces aérodynamiques et les sources quadripolaires associées aux écoulements d’air turbulents.

On considère parfois à tort que la production de sons à très basse fréquence associée aux éoliennes résulte du processus de « séparation de l’air » par la pale et de l’augmentation transitoire du volume déplacé (source monopolaire). Mais si une éolienne est découplée de son générateur de sorte qu’elle ne génère pas d’énergie, tout en continuant à tourner librement, il y a relativement peu de bruit malgré le fait que cette « séparation de l’air » se produise toujours.

Le principal processus qui génère des infrasons à très basse fréquence est l’effet de la force de portance aérodynamique de la pale agissant sur l’air — c’est-à-dire le deuxième des trois mécanismes générateurs de sources de Lighthill. Même si une force de portance constante et immuable tourne en cercle, les changements périodiques de sa position donnent lieu à la production de sons. Pour une pale d’éolienne idéale produisant de l’énergie dans un flux d’air complètement uniforme et constant, le son résultant consiste principalement en l’harmonique de vitesse de pale la plus basse, plus, dans une moindre mesure, les deuxième et troisième harmoniques immédiates.

Ce processus de production d’infrasons est inévitable. Pour qu’une éolienne puisse fournir de l’énergie utile, elle doit répondre à deux exigences. D’une part, elle doit ralentir le vent afin d’en extraire l’énergie. Deuxièmement, elle doit convertir cette énergie en un couple de rotation pour entraîner son générateur. Les pales de l’éolienne doivent donc exercer une force vers l’avant sur le vent pour le ralentir, tout en exerçant des forces tangentielles supplémentaires dans la direction circonférentielle pour obtenir le couple nécessaire. Ces objectifs simultanés sont atteints par la torsion et l’alignement des pales par rapport au vent, de sorte que les deux composantes de la force peuvent être générées par la « portance » aérodynamique des pales.

Pour toute éolienne qui produit de l’énergie, ces deux composantes de la force de rotation doivent être présentes. En retour, une certaine quantité d’infrasons est inévitablement générée, quelles que soient la précision et l’exactitude avec lesquelles les pales sont profilées, polies et aérodynamiques.

Ces effets sous-jacents fondamentaux ont été modélisés avec précision par la NASA dans le cadre de son étude sur les turbines à rotor en amont. Cependant, les circonstances réelles introduisent des effets supplémentaires. L’existence de la tour de support en aval des pales exige toujours que le flux d’air se sépare autour de la tour, ce qui donne lieu à un certain degré de modification en amont du flux directement devant la tour. La NASA a d’abord modélisé ces effets en partant de l’hypothèse d’une modification relativement douce de l’écoulement, mais dans la pratique, les tourbillons de traîne provenant de l’extrémité des pales de l’éolienne peuvent également avoir un impact sur la tour et entraîner une augmentation de la production de bruits infrasonores. En même temps, comme nous l’avons déjà mentionné, l’air se déplaçant plus lentement et plus près du sol au bas de la rotation des pales peut donner lieu à des variations transitoires récurrentes supplémentaires de la force de portance sur les pales de l’éolienne. Cet effet est d’autant plus important que le diamètre des rotors des éoliennes augmente, car les pales tournent alors sur une distance verticale beaucoup plus grande et la variation de la vitesse du vent entre le haut et le bas de l’arc de rotation peut alors être beaucoup plus importante. Enfin, toute turbulence à grande échelle présente dans le flux d’air incident entraîne des forces de portance fluctuantes supplémentaires qui peuvent également interagir avec les infrasons générés et les modifier.

Ce dernier aspect est particulièrement vrai pour les éoliennes qui sont placées trop près les unes des autres dans un parc éolien. Les sillages des éoliennes situées en amont sont convectés par le vent vers l’aval et peuvent compromettre les forces de portance générées par les éoliennes situées plus en aval, ce qui a des conséquences négatives à la fois sur la durée de vie des pales et sur la production d’infrasons excessifs. En outre, le « déficit de sillage » provoqué par l’extraction d’énergie en amont réduit également la quantité d’énergie que l’éolienne située en aval peut générer pour une force de vent donnée. Cet effet a été étudié pour la première fois lors de la conception du réseau MOD-2 de 1981, composé de 3 turbines à rotor ascendant. [10]. Les trois turbines ont été placées dans un réseau triangulaire non uniforme, chaque côté de ce triangle ayant une longueur différente, représentant des séparations de turbines de 5 diamètres, 7 diamètres et 10 diamètres respectivement. Selon la direction du vent, l’une des branches de ce triangle inégal était orientée le plus près du vent, et les deux turbines situées à chaque extrémité étaient alors séparées par l’une des distances de 5, 7 ou 10 diamètres par rapport au vent. La NASA a par la suite indiqué que les effets négatifs éventuels se situaient dans des limites acceptables pour des espacements de 7 et 10 diamètres, bien que même à 10 diamètres, il y ait eu quelques cas de réduction de la puissance de sortie (15 à 25 %) de l’éolienne située en aval [11].

Pourtant, malgré ces premières recherches, des exemples plus récents de parcs éoliens ont été construits avec des séparations dans la direction du vent aussi faibles que trois diamètres de pale d’éolienne, ce qui, sans surprise, a donné lieu à des plaintes de la part des résidents voisins pour bruit excessif et infrasons. Le réseau triangulaire à côtés égaux de trois éoliennes modernes de type

Les turbines GE1.5sle de 1,5 MW installées à Vinalhaven, dans le Maine, à cette distance rapprochée, semblent être un exemple susceptible de produire des effets négatifs dans presque toutes les directions du vent. En outre, le parc éolien de MacArthur en Australie, composé de turbines Vestas V112 de 3 MW, dont certaines ont des séparations minimales de 3 diamètres de pales, devrait également entraîner une augmentation des bruits de basse fréquence et des infrasons, ainsi qu’une perte correspondante de l’efficacité globale de la production d’énergie.

Les conclusions générales de cette section peuvent être résumées en deux figures, à savoir la figure (1) et la figure (2). La figure (1) montre un spectre d’infrasons presque typique pour une éolienne fonctionnant dans un flux d’air relativement doux et propre, tandis que la figure (2) montre le changement de caractère associé à des infrasons beaucoup plus impulsifs mesurés sous le vent d’un réseau d’éoliennes, résultant en de multiples effets transitoires périodiques. La différence est immédiatement apparente et facilement reconnaissable dans la pratique.

Figure 1
Figure 2

A1.3 Propagation à longue distance des infrasons

Un effet supplémentaire doit être pris en compte lorsque l’on examine comment les basses fréquences et les infrasons, une fois générés par les éoliennes, peuvent se propager par la suite. Dans des conditions atmosphériques normales, la température de l’air diminue progressivement à mesure que l’altitude augmente, et dans ces circonstances, la propagation des sons audibles et des infrasons s’étend et s’atténue à un taux similaire de -6 dB par doublement de la distance. L’atténuation des fréquences audibles les plus élevées est également de plus en plus importante, en raison de l’absorption du son dans l’atmosphère.

Dans certaines conditions atmosphériques, il peut toutefois y avoir une « inversion » de température. Ce phénomène peut se produire en particulier la nuit ou tôt le matin, lorsque le sol et l’air situé juste au-dessus perdent de la chaleur plus rapidement que l’air situé à plus haute altitude. Par conséquent, sur plusieurs centaines de pieds ou plus, l’air peut en fait se réchauffer avec l’augmentation de l’altitude, avant de revenir en altitude à son profil de refroidissement plus habituel.

Une situation similaire peut se produire lorsque le vent passe d’un vent froid soufflant sur un sol froid à un vent plus chaud provenant d’une autre direction et soufflant sur le même sol initialement plus froid.

Une conséquence bien connue de ce profil de température d’inversion est que les sons de basse fréquence peuvent être piégés et réfléchis par la couche d’inversion, de sorte qu’ils se propagent plus lentement. Son taux d’atténuation se réduit alors plus généralement à -3 dB par doublement de la distance, de sorte qu’à grande distance, bien que les hautes fréquences puissent être imperceptibles, les basses fréquences et les infrasons peuvent encore être clairement détectés. L’auteur et sa femme ont parfois été empêchés de dormir par le bruit de basse fréquence facilement perceptible et le « bruit silencieux » infrasonique d’un parc éolien à une distance de 3 miles.

A1.4 Effet de l’augmentation de la taille des parcs éoliens et du nombre de turbines

Un autre effet, qui ne semble pas être largement reconnu, est qu’à mesure que la taille des parcs éoliens augmente, la distance au-delà de la limite du parc éolien que le son audible peut propager avant de s’atténuer de manière significative a également tendance à augmenter. Ainsi, par exemple, pour un petit parc de 8 à 10 éoliennes, il peut suffire de ne pas dépasser 1 km pour que le son diminue jusqu’à un niveau acceptable. Lorsque la taille du parc éolien passe à (disons) 40 turbines, la distance nécessaire pour réduire le bruit à un niveau similaire peut être portée à 1,5 -2 km. Pour un parc éolien encore plus grand de 160 éoliennes, cette exigence ne peut être satisfaite qu’à une distance de 3 à 4 km.

En revanche, le son à l’intérieur du parc éolien tend à être dominé par l’éolienne la plus proche, ce qui fait qu’à mesure que la taille globale du parc éolien augmente, l’effet de tout changement de taille est beaucoup moins perceptible. Cela peut amener les promoteurs à penser que si un petit parc éolien s’est avéré satisfaisant, le fait de le rendre plus grand, mais avec une configuration similaire sera également satisfaisant. Si cela peut être vrai à l’intérieur ou à l’extérieur des limites du parc éolien, l’effet pour les résidents éloignés peut devenir de plus en plus perceptible au fur et à mesure que la taille augmente, de sorte que les marges de recul appropriées par rapport aux limites extérieures doivent être augmentées.

Cette double structure des effets sur le niveau sonore associés aux grands parcs d’éoliennes n’est certainement pas largement reconnue. À l’intérieur du parc éolien et à proximité des limites immédiates du parc, le niveau sonore est très largement dominé par les éoliennes les plus proches, et le nombre total est relativement peu important. Pour les résidences plus éloignées, en particulier en ce qui concerne les basses fréquences et les infrasons, le nombre total de turbines composant le parc éolien devient de plus en plus le facteur dominant, de sorte que la taille globale du parc éolien est alors directement pertinente.

A1.5 Remarques finales

Comme indiqué dans l’introduction, les premières recherches de la NASA ont permis d’identifier un certain nombre de caractéristiques associées aux turbines à rotor en amont. Plus précisément, ces caractéristiques sont les suivantes :

  • (i) les émissions d’infrasons aux fréquences les plus basses résultant de la rotation des pales et des forces de levage constantes nécessaires à la production d’énergie,
  • (ii) l’effet des gradients de vent et de l’ondulation des contours du sol au vent, qui entraînent des émissions répétitives d’infrasons impulsifs,
  • (iii) les effets de cisaillement du vent accrus qui peuvent résulter de l’installation d’éoliennes sur des crêtes,
  • et (iv) les problèmes d’interaction de sillage associés à une séparation trop étroite entre les éoliennes.

La conception aérodynamique seule ne peut pas facilement surmonter ces caractéristiques de base, mais doit être intégrée à un contrôle plus précis des conditions de fonctionnement des pales. Des techniques telles que le contrôle automatique du pas de chaque pale peuvent atténuer la charge dynamique afin de réduire les effets périodiques impulsifs, mais le besoin sous-jacent de produire de l’énergie nécessitera toujours la présence de forces de portance régulières et rotatives, qui donnent lieu à une composante inévitable d’infrasons.

La raison pour laquelle nous nous sommes référés à la recherche originale de la NASA des années 1980 peut maintenant devenir plus claire. Les toutes premières conceptions d’éoliennes à rotor descendant étaient sans aucun doute extrêmement bruyantes, produisant un large spectre d’infrasons impulsifs et de sons à basse fréquence. Les marges de recul associées à ces éoliennes étaient nécessairement importantes, et la nécessité de ces marges de recul était évidente. Les améliorations apportées par le passage à des configurations à rotor ascendant, puis par l’utilisation de pales en matériaux composites pour obtenir des surfaces aérodynamiques plus précisément définies, ont entraîné des réductions immédiates de la composante audible globale du bruit. Cette réduction, associée à l’amélioration de la technologie de contrôle, a permis d’obtenir des caractéristiques de bruit audible des éoliennes apparemment beaucoup plus acceptables. En conséquence, les promoteurs éoliens ont commencé à implanter les éoliennes beaucoup plus près des habitations, de sorte que les distances de recul, qui se mesuraient à l’origine en kilomètres, ont été ramenées à des distances de 300 à 400 mètres.

La physique de base associée à la production et à la propagation de très basses fréquences infrasonores à la vitesse des pales n’a toutefois pas changé, de sorte que les résidents peuvent ressentir des niveaux d’infrasons comparables ou supérieurs à ceux associés aux turbines plus éloignées et d’ancienne génération. À cet égard, la situation peut être trompeuse, car la nécessité d’un recul important n’est plus aussi évidente. La question se résume à savoir si l’existence inévitable de ces infrasons de basse fréquence représente ou non un réel problème pour la santé et le bien-être. Cet aspect est abordé dans les sections suivantes.

A2. La perception des sons de basse fréquence et des infrasons

Après avoir décrit les principaux mécanismes par lesquels les éoliennes peuvent générer des sons de très basse fréquence et des infrasons, l’auteur examinera dans cette section les moyens par lesquels ces effets peuvent être perçus.

Dans une série de documents de conférence [12], [13], il a décrit une séquence de recherches, avec l’objectif que celles-ci représentent une progression cohérente concernant des aspects du processus d’audition et de perception.

La motivation de cette démarche résulte de la lecture d’interminables évaluations acoustiques de spectres de niveaux de pression acoustique (SPL) d’éoliennes, dans lesquelles le commentateur comparait le niveau de fréquences discrètes spectrales individuelles avec une courbe représentant le seuil d’audition, et déclarait que le son était bien en dessous du seuil d’audibilité et sans conséquence. Cette approche ne tient absolument pas compte de la relation probable entre les différentes composantes de fréquence et du fait que leur effet cumulatif peut entraîner des niveaux de pression acoustique considérablement plus élevés que les niveaux évalués en les considérant séparément et indépendamment.

Dans un premier temps, il a montré comment ces composantes distinctes, indépendamment de la résolution en fréquence, pouvaient être normalisées et combinées en amplitude moyenne cumulée, ce qui a permis d’obtenir une première évaluation de l’audibilité correspondant à une « règle empirique » existante. Selon cette règle, la comparaison des niveaux moyens de la troisième octave avec le seuil d’audition indique le passage d’un son inaudible à un son audible. Mais l’auteur estime que ce critère moyen ne tient pas suffisamment compte du « facteur de crête » du son, c’est-à-dire de la mesure dans laquelle le son est fortement accentué par rapport à son amplitude moyenne quadratique en raison de la relation cohérente entre les différentes composantes. Plus précisément, les premières recherches de la NASA ont montré que le bruit impulsif des premières éoliennes pouvait être détecté lorsque les fréquences individuelles étaient jusqu’à 20 dB en dessous du seuil d’audition, et que les niveaux moyens carrés correspondants étaient inférieurs de 13 dB [14]. La comparaison des composantes spectrales individuelles avec le seuil d’audition était donc manifestement erronée dans ce contexte.

En effet, l’une des caractéristiques des recherches menées dans les années 1980 par la NASA et les organismes de recherche associés est qu’ils ont effectué des évaluations rigoureuses en laboratoire pour déterminer les seuils de perception du bruit à basse fréquence des éoliennes. Outre les travaux décrits dans [14], Kelley [15] a entrepris d’établir des critères d’audibilité, en considérant à la fois l’éolienne MOD-1 à rotor descendant et l’éolienne MOD-2 à rotor ascendant. Son commentaire décrivait très précisément les sensations que de nombreux habitants rapportent aujourd’hui régulièrement dans le contexte des grands parcs éoliens composés de turbines modernes à rotor ascendant. Pourtant, trente ans plus tard, son approche rigoureuse contraste avec les évaluations plus récentes de l’audibilité et de la perception basées simplement sur la comparaison visuelle des mesures du spectre de puissance avec le seuil d’audition, ce dernier ayant été défini en testant uniquement des composantes sinusoïdales pures et idéales à un seul ton.

Une réserve importante concernant les tests effectués dans les années 1980 est que l’exposition au bruit des sujets testés n’était que d’une durée relativement limitée. Cela ne tient pas suffisamment compte d’une situation où les résidents peuvent être exposés aux basses fréquences et aux infrasons des éoliennes pendant des heures ou des jours, ce qui a un impact particulier sur leur capacité à se détendre et à dormir la nuit.

Notant que l’article largement cité [16] de Moller et Pedersen affirme que lorsque la fréquence diminue, c’est l’évolution temporelle de la forme d’onde qui définit en fin de compte l’audibilité, l’auteur a alors entrepris de simuler numériquement le processus auditif, en procédant à une analyse dans le domaine temporel plutôt que dans le domaine fréquentiel conventionnel. La simulation du son impulsif du rotor descendant de la NASA a immédiatement montré comment une meilleure perception pouvait se produire, et a également montré que des exemples de « grondement » basse fréquence de compresseurs de turbines à gaz (avec lesquels l’auteur avait travaillé dans les années 1980) pouvaient également être audibles même lorsque le critère de la troisième octave moyenne les plaçait en dessous du seuil nominal d’audition.

Enfin, l’auteur a entrepris d’examiner les effets de l’interaction induite par le seuil entre un bruit de fréquence supérieure légèrement audible dans la première bande critique (c’est-à-dire moins de 100 Hz) et des infrasons simultanés de très basse fréquence [17]. À cet égard, l’auteur s’est inspiré d’un effet qui avait été clairement identifié au milieu des années 1970, lorsque les premiers analyseurs numériques de sons de fréquence sont apparus sur le marché. Ces analyseurs utilisaient généralement un convertisseur analogique-numérique à gamme finie de 12 bits, qui permettait en principe d’analyser le son sur une gamme dynamique de 72 dB. Si l’amplitude maximale crête à crête d’un signal sonore était inférieure à -72 dB par rapport à la plage maximale du convertisseur 12 bits, elle ne déclenchait pas le seuil de transition numérique et n’enregistrait donc aucune réponse. Mais si un tel signal était mélangé à un bruit de fond aléatoire d’un niveau suffisant pour que la combinaison globale franchisse facilement le seuil, il s’avérait que le signal de faible niveau, jusqu’alors inobservable, était « transporté au-delà du seuil » et pouvait alors être détecté. C’est ainsi qu’il est devenu courant de détecter et d’analyser avec précision des tonalités sinusoïdales jusqu’à -20 dB en dessous du seuil de réponse du convertisseur A-D, à condition qu’il y ait un niveau approprié de bruit de fond.

Un principe similaire est couramment exploité dans les récepteurs GPS modernes. Le signal GPS présent à la surface de la Terre est d’un niveau extrêmement bas, bien inférieur au bruit de fond électromagnétique, l’objectif spécifique étant d’éviter les interférences avec d’autres systèmes de communication. Les récepteurs GPS mettent alors en œuvre une détection de seuil, par laquelle la présence d’un bruit de fond aléatoire « soulève » et permet la détection de ce signal de très faible niveau, remplissant la même fonction que le bruit de fond acoustique dans le processus décrit ci-dessus.

Compte tenu de la robustesse avérée de ces techniques, l’auteur a décidé d’étudier si des effets similaires pouvaient permettre la perception d’infrasons de très faible intensité qui, à première vue, se situaient clairement en dessous du seuil d’audition. (i) Une réponse en fréquence correspondant au seuil d’audition dépendant de la fréquence, s’étendant au régime des infrasons. (ii) Un seuil d’amplitude bien défini en dessous duquel aucun signal ne serait transmis (iii). Des signaux sonores simulés limités à la bande critique la plus basse de l’audition (c’est-à-dire moins de 100 Hz).

En simulant le mélange d’un signal infrasonore de très faible niveau avec un autre son légèrement audible, il a été démontré que le signal infrasonore de faible niveau pouvait effectivement être détecté avec un niveau de précision significatif. En outre, en prenant un exemple réel d’infrasons d’éoliennes enregistrés qui étaient théoriquement imperceptibles, l’auteur a montré qu’en principe, de tels infrasons pouvaient être détectés à des niveaux et des fréquences beaucoup plus faibles que ce qui était considéré comme possible auparavant.

Ce processus s’est également avéré tout à fait cohérent avec des essais en laboratoire jusqu’ici inexpliqués et examinés par des pairs [18], [19] où des infrasons inférieurs au seuil d’audition théorique avaient néanmoins induit une réponse sensorielle. Une évaluation antérieure de la NASA avait également fait état de la perception d’effets infrasonores à des niveaux qui n’auraient pas été généralement considérés comme perceptibles [14].

Il convient de souligner que toutes les analyses de l’auteur se sont concentrées sur l’examen des effets dynamiques que l’on peut attendre d’un système possédant les caractéristiques macro-économiques bien définies de l’audition. Ces caractéristiques ont été établies à plusieurs reprises par des tests audiologiques conventionnels et ont fait l’objet de rapports réguliers pendant de nombreuses années.

Plus récemment, cependant, des recherches importantes ont été menées pour examiner le comportement à micro-échelle des cellules ciliées de l’oreille interne (cochlée) et leurs caractéristiques de réponse neurologique associées [20]. Ces recherches explorent et étudient des aspects qui dépassent largement l’expérience et les capacités quotidiennes de nombreux acousticiens. Néanmoins, il y a un aspect important dans lequel les résultats se recoupent immédiatement avec l’expérience connue. Cet aspect sera décrit à la fin de la section suivante.

A2.2 Existence de plusieurs mécanismes de perception des infrasons

Comme indiqué, les analyses qui ont été décrites jusqu’à présent concernent les caractéristiques conventionnellement acceptées de l’audition. Celles-ci correspondent à la transmission mécanique connue qui résulte de la vibration aérienne du tympan, via l’étrier de l’oreille moyenne jusqu’à l’entrée de la cochlée, et à la réponse subséquente des fluides lymphatiques de l’oreille interne conduisant au déplacement de la membrane basilaire et à l’excitation des cellules ciliées internes (CCI).

La réduction bien établie de -12 dB par octave de la réponse auditive dans les basses fréquences à mesure que la fréquence du son diminue est une conséquence directe des propriétés hydromécaniques de base de ce système. Dans le régime des infrasons, ce phénomène peut être caractérisé par l’échelle dBG de pondération G définie au niveau international, qui représente à bien des égards une extension de la caractéristique de pondération A à ces fréquences extrêmement basses. Mais contrairement à l’échelle de pondération A qui est normalisée à 0 dB à 1 kHz, l’échelle de pondération G est normalisée à 0 dB à 10 Hz, de sorte qu’il n’y a pas d’équivalence directe entre les valeurs sonores pondérées G et les valeurs sonores pondérées A. En effet, si l’on applique le processus de pondération G au seuil d’audition médian nominal, on constate que le seuil d’audition dBG varie en niveau entre 98dBG aux fréquences infrasonores moyennes, tombant à 89dBG autour de 20 Hz.

La gamme de fréquences de la pondération G des infrasons est délibérément restreinte par un filtrage passe-bande de manière à rejeter les fréquences supérieures à 20 Hz et inférieures à 1 Hz, de sorte qu’elle cesse d’être un critère pertinent en dehors de cette gamme de fréquences. Dans la gamme de fréquences prévue de 1 Hz à 20 Hz, l’échelle dBG peut toutefois fournir une première mesure utile de la perception des infrasons, en reflétant la réponse probable des cellules ciliées internes (CCI) de la cochlée par le biais du processus de transmission défini décrit dans le paragraphe précédent.

Récemment, cependant, Alec Salt [20] a signalé que les cellules ciliées externes de la cochlée se comportent très différemment des cellules ciliées internes. Contrairement aux cellules ciliées internes qui peuvent fléchir librement comme des roseaux en réponse à la vitesse du liquide endolymphatique, les cellules ciliées externes sont attachées à leurs extrémités à la membrane tectoriale. Elles réagissent donc principalement au déplacement direct des structures environnantes, plutôt qu’à la vitesse du fluide associé. La relation cinématique entre la vitesse et le déplacement est telle que pour toute valeur donnée de la vitesse, le déplacement correspondant devient proportionnellement plus important lorsque la fréquence diminue. Par conséquent, la réponse des cellules ciliées externes devient plus importante et plus dominante que celle des cellules ciliées internes à de très basses fréquences. Par conséquent, l’échelle de pondération G n’est plus appropriée pour décrire la réponse de ces éléments particuliers, qui peuvent néanmoins donner lieu à un stimulus neurologique.

En outre, dans une analyse très récente, P. Schomer a émis l’hypothèse [21] qu’à des fréquences extrêmement basses, c’est-à-dire inférieures à 1 Hz, les structures de soutien des organes vestibulaires (de l’équilibre), en particulier le saccule, peuvent être déformées par des variations de pression infrasoniques transmises par les mêmes fluides lymphatiques que ceux qui sont présents dans la cochlée. Cette théorie est basée sur la comparaison de l’ampleur relative des forces d’inertie et de pression sur les éléments otolithiques, ainsi que sur l’identification récente de la nature en porte-à-faux de leurs structures de soutien qui semblent posséder une compliance mécanique non isotrope. Auparavant, A. Salt avait soutenu que les organes vestibulaires, qui ont évolué pour détecter l’accélération physique, devraient être comparativement insensibles aux variations de pression infrasonique. L’argument de Salt était sans aucun doute correct si l’on suppose des caractéristiques structurelles régulières et isotropes. Mais si les éléments en porte-à-faux ne sont pas uniformes, l’effet des variations de pression sub-1Hz peut conduire à une distorsion correspondante et à une réponse neurologique induite par la suite. En outre, Schomer a montré que pour plusieurs résidents connus pour souffrir du mal des transports et qui ont simultanément signalé des effets indésirables dus aux infrasons des éoliennes, la corrélation dépasse de loin la probabilité qui serait normalement associée au simple hasard.

Si ces composants sont effectivement sensibles à la pression, cela indique un autre mécanisme qui pourrait devenir comparable à la réponse des cellules ciliées externes à des fréquences inférieures à 1 Hz. L’effet serait de compromettre le sens de l’équilibre d’un individu, donnant ainsi l’impression erronée qu’il est soumis à un mouvement et à une accélération.

Ainsi, au lieu d’un processus simple caractérisé par la réponse de pondération G, il pourrait y avoir jusqu’à trois processus supplémentaires liés à la perception des infrasons lorsque la fréquence est réduite, résumés comme suit. Premièrement, le processus d’amélioration de la détection du seuil conventionnel étudié par le présent auteur. Deuxièmement, la réponse de plus en plus sensible des cellules ciliées externes aux déplacements de la membrane. Troisièmement, l’hypothèse d’une distorsion du porte-à-faux à l’intérieur du saccule, conduisant à une détection de type mouvement à des fréquences inférieures à 1 Hz.

Il existe cependant une caractéristique très importante qui a déjà été démontrée et confirmée par A.Salt. Les cellules ciliées externes sont traditionnellement considérées comme contrôlant la sensibilité globale du processus auditif, un peu comme le contrôle automatique du gain dans les récepteurs radio. Il a montré qu’en excitant ces cellules ciliées externes avec un son de fréquence moyenne à 500 Hz, la réponse aux infrasons des cellules ciliées internes est supprimée de manière très significative. Cela explique l’observation établie selon laquelle le seuil d’audition est automatiquement relevé en présence d’un bruit de fond ambiant plus important. Ainsi, un individu devient progressivement moins sensible à la présence de bruits de basse fréquence et d’infrasons dans des bruits de fond ambiants de 55 dBA et plus. En revanche, dans un environnement rural très calme, ce processus de suppression n’a pas lieu et la sensibilité aux infrasons des éoliennes s’en trouve accrue. La perception des infrasons dans les environnements ruraux calmes ne doit donc jamais être assimilée à l’insensibilité comparative aux infrasons qui caractérise les niveaux ambiants plus élevés des environnements urbains ou suburbains.

A3. Effets sur la santé associés aux sons de basse fréquence et aux infrasons émis par les éoliennes

A3.1 Rapport AWEA/CANWEA sur le bruit et la santé des éoliennes, décembre 2009

Ce rapport de 2009 [22] continue d’être fréquemment cité et a sans aucun doute influencé de nombreuses études ultérieures sur la santé des éoliennes, bien qu’il n’ait jamais fait l’objet d’un examen par les pairs. Bien qu’il soit présenté comme fournissant des conseils aux décideurs, il offre une perspective globale très trompeuse.

Plus précisément, elle cite les lignes directrices de l’EPA de 1974 [23] pour le bruit ambiant, mais ne mentionne qu’un critère spécifique — un niveau de 45 dBA Ldn (c’est-à-dire 45 dBA Leq le jour, 35 dBA Leq la nuit) à l’intérieur d’une habitation pour éviter de perturber le sommeil. Pourtant, le contexte complet des lignes directrices de l’EPA de 1974 (annexe D) [24] propose un niveau sonore normalisé jour-nuit à l’extérieur de 55 dBA Ldn. Le « niveau normalisé » implique une correction supplémentaire de 10 dBA pour les environnements ruraux. La formule de Ldn normalisé qui en résulte donne un niveau sonore extérieur de 45 dBA Leq le jour/35 dBA Leq la nuit, soit un niveau sonore extérieur continu jour-nuit de 38,6 dBA Leq. En outre, elle recommande une correction supplémentaire de 5 dBA dans les cas où le son introduit est inhabituel pour le voisinage. Ces niveaux ruraux nocturnes extérieurs, définis avec compétence il y a plus de 40 ans, seraient aujourd’hui considérés comme largement compatibles avec l’expérience et les recommandations récentes en matière d’éoliennes. Pourtant, le rapport de l’AWEA ne transmet aucune de ces informations plus détaillées, rejetant en fait ces aspects comme n’ayant été conçus qu’à titre indicatif. Il donne l’impression que les lignes directrices de l’EPA sont trop prudentes parce qu’elles cherchent à fournir une « marge de sécurité adéquate ». L’auteur n’a jamais vu auparavant un commentaire, en particulier concernant des questions de santé potentielles, où il est approprié de se passer avec autant de désinvolture d’une « marge de sécurité adéquate ».

Il convient en outre de noter que cette recommandation de l’EPA d’un Ldn normalisé = 55 dBA a été largement utilisée à mauvais escient, avec des résultats préjudiciables pour certaines communautés. Un document résumant les directives d’utilisation des terres du Michigan (2007) [25], citant les directives de l’EPA comme source principale, recommandait un Ldn non modifié de 55 dBA comme acceptable pour les installations d’éoliennes. Aucune des modifications associées aux corrections jour-nuit ou rurales n’a été incorporée. Ce chiffre brut de 55 dBA a par la suite été intégré dans certaines ordonnances du Michigan relatives aux éoliennes, mais le rapport AWEA/CANWEA n’a jamais reconnu ces exemples évidents d’utilisation abusive.

En décembre 2009, quelques jours avant l’annonce de ce rapport de l’AWEA, l’auteur avait soumis un document de 5 pages à la Commission des services publics du Michigan [26]. Son rapport a été rédigé en quelques jours afin de respecter un délai prescrit, et s’appuie très largement sur une expérience directe de plusieurs années. Il a notamment souligné l’importance de l’élévation et de l’abaissement automatiques du seuil d’audition en fonction de l’environnement ambiant. En outre (toujours sur la base d’une expérience directe), une exposition fréquente et prolongée à des bruits de basse fréquence peut entraîner une perception beaucoup plus prononcée de ces bruits, avec pour conséquence qu’ils peuvent être perçus de plus en plus facilement.

L’auteur considère que ces deux caractéristiques spécifiques sont parmi les plus importantes dans toute évaluation de la perception du bruit des éoliennes à basse fréquence, mais le rapport de l’AWEA/CANWEA ne mentionne aucune de ces deux caractéristiques. En fait, c’est l’inverse qui est décrit. Il est affirmé que le bruit des éoliennes ne peut pas être nocif, car les gens vivent sans difficulté dans des environnements urbains de 55 dBA, et de nombreuses personnes s’acclimatent à des bruits persistants de faible intensité.

« Si les niveaux sonores des éoliennes étaient nocifs, il serait impossible de vivre en ville, compte tenu des niveaux sonores normalement présents dans les environnements urbains. »

« D’autre part, de nombreuses personnes s’habituent à une exposition régulière au bruit ou à d’autres facteurs de stress potentiels et ne sont plus gênées. »

La première affirmation est totalement trompeuse. C’est l’élévation automatique du seuil d’audition avec l’augmentation du bruit ambiant qui rend la vie en ville facilement tolérable. Dans les zones rurales calmes, où le niveau sonore ambiant est faible la nuit, l’oreille est « grande ouverte », de sorte que le bruit des éoliennes devient très gênant. Ce seuil d’audition variable, qui protège les processus de détection de la cochlée, fonctionne de la même manière que l’iris variable de l’œil qui réagit à la lumière ambiante et protège la rétine.

Le résultat est directement analogue au fait qu’une voiture s’approchant avec ses pleins phares en plein jour est inoffensive, mais éblouit complètement la nuit, lorsque l’iris de l’œil est « grand ouvert ». Personne ne s’en sortirait avec l’affirmation erronée « Les phares ne peuvent pas éblouir la nuit, sinon il serait impossible de s’aventurer dehors en plein jour ! »

A3.2 Les niveaux sonores élevés autorisés pour les éoliennes aux États-Unis

Au début de l’année 2010, le comté de Huron, dans le Michigan, envisageait de modifier ses ordonnances en passant d’un niveau de 50 dBA L10 pour tous les propriétaires fonciers à un niveau réduit de 45 dBA L10 uniquement pour les propriétaires fonciers non participants. L’auteur a assisté à de nombreuses réunions publiques au cours desquelles il a plaidé en faveur de niveaux sonores encore plus bas et de marges de recul plus importantes, mais le rapport de l’AWEA/CANWEA et sa longue liste d’auteurs ont été cités contre lui, justifiant apparemment le point de vue du comté.

Cette situation est d’autant plus exaspérante que l’un de ses auteurs, le Dr Leventhall, a fait une présentation à l’université de South Bank, à Londres, en novembre 2009, un mois avant la publication du document de l’AWEA/CANWEA. Il a été rapporté [27] qu’il avait déclaré lors de cette présentation

« Je pense que les législateurs américains reconnaissent que, dans de nombreux cas, les éoliennes sont trop proches des habitations, mais ils nient publiquement l’existence d’un problème », a déclaré le professeur Leventhall. « Il n’y a pas de problème de santé, mais le bruit renforce l’opposition à l’énergie éolienne.

Pourtant, rien dans le document de l’AWEA/CANWEA n’indique que les marges de recul autorisées pour les USA et les niveaux sonores des éoliennes pourraient être insatisfaisants.

Par la suite, lors d’une communication téléphonique avec le Sénat du Vermont en avril 2013 [28], le Dr Leventhall a souligné le fait qu’il y a beaucoup plus de plaintes concernant les éoliennes en Amérique du Nord qu’en Europe. Il a attribué cela à une » réaction hystérique », mais a complètement omis d’indiquer l’explication selon laquelle les niveaux autorisés d’éoliennes pourraient être significativement plus élevés en Amérique du Nord qu’en Europe.

Cette différence dans les niveaux autorisés est confirmée par la déclaration suivante dans une publication plus récente de novembre 2014, financée par CANWEA et évaluée par des pairs, toujours concernant les éoliennes et la santé, dont trois auteurs sont les mêmes que dans le document original de l’AWEA/CANWEA [29].

« En ce qui concerne les normes de bruit, Hessler et Hessler13 ont trouvé une moyenne arithmétique de 45 dBA le jour et de 40 dBA la nuit pour les gouvernements en dehors des États-Unis, et une moyenne de 47,7 dBA la nuit pour la réglementation sur le bruit et les normes d’implantation de l’État américain. »

Cela indique que les niveaux nocturnes sont en moyenne supérieurs de 7,7 dBA aux États-Unis. Il a été précisé que l’utilisation de différentes mesures (par exemple L90, L50, Leq, etc.) modifie la valeur implicite de ces niveaux. (voir *)

Ce récent document financé par CANWEA conclut également à un moment donné :

« Des plaintes telles que les troubles du sommeil ont été associées à des pressions sonores pondérées A des éoliennes supérieures à 40 ou 45 dB, mais à aucune autre mesure de la santé ou du bien-être. »

On pourrait donc conclure immédiatement qu’étant donné les niveaux moyens autorisés de

47,7 dBA aux États-Unis, il y aurait très probablement un plus grand nombre de plaintes pour troubles du sommeil. Là encore, il ne s’agit pas d’une conclusion explicite. Le fait de ne pas souligner une lacune aussi évidente aux États-Unis, dans des documents qui sont censés fournir des orientations générales, contribue sans aucun doute à « brouiller les pistes » lorsqu’il s’agit d’identifier les raisons pour lesquelles les plaintes des propriétaires prolifèrent.

Enfin, même dans ce rapport très récent, il n’est toujours pas fait mention de la conséquence fondamentale de l’ajustement automatique du seuil d’audition au niveau de fond ambiant, ni du fait qu’une exposition continue à des bruits de basse fréquence peut donner lieu à une sensibilité accrue. Comme indiqué précédemment, l’auteur considère, sur la base de son expérience directe, qu’il s’agit là de deux aspects très importants de la perception des bruits de basse fréquence, mais ils ne semblent toujours pas avoir été largement reconnus par les experts en matière de santé.

*Les différentes mesures représentent en effet des différences dans les niveaux autorisés réels, bien que l’on considère généralement que pour les mesures de dBA à réponse lente (c’est-à-dire 1 seconde) et les temps d’observation longs, les différences appliquées au bruit dominant des éoliennes ne représentent généralement pas plus de 4-5 dBA entre la mesure la plus basse (L90) et le niveau le plus élevé (L10), et ne représentent pas une différence aussi importante que 7,7 dBA. La société américaine Epsilon, qui a réalisé des évaluations sur le terrain de la conformité aux ordonnances dans le comté de Huron (MI), a explicitement appliqué le critère « L10-L90 inférieur à 3,5 dBA » pour l’identification du bruit dominant des éoliennes.)

A3.3 Effets nocebo, agacement, personnalité et activistes

Les affirmations selon lesquelles les infrasons des éoliennes ne peuvent pas représenter un danger pour la santé cherchent de plus en plus à attribuer la responsabilité du nombre croissant de plaintes à quatre processus, à savoir les effets nocebo, la gêne, la personnalité individuelle et l’alarme déclenchée par les activistes.

L’argument selon lequel les effets nocebo, c’est-à-dire la peur d’un résultat spécifique, peuvent donner lieu à des symptômes liés à ce résultat, n’explique pas le fait que certaines communautés ont accueilli favorablement l’introduction d’éoliennes, pour découvrir par la suite des effets négatifs inattendus une fois que les éoliennes ont été mises en service. L’auteur connaît personnellement deux familles, l’une en Angleterre et l’autre dans le Michigan, qui avaient initialement une attitude neutre ou favorable à l’égard des éoliennes, mais qui ont ensuite découvert par elles-mêmes que la réalité pouvait être tout à fait intolérable. Aucune des deux familles n’avait entendu parler de l’autre, mais leur situation, à 4000 miles l’une de l’autre, est devenue presque identique et les a amenées à prendre exactement les mêmes décisions, à savoir louer d’autres logements et, finalement, engager de longues procédures judiciaires contre les promoteurs d’éoliennes. Dans les deux cas, les litiges ont été réglés à l’amiable, sous réserve de confidentialité. À l’époque où ces problèmes ont commencé à se poser, les militants étaient peu nombreux, de sorte que la séquence d’apprentissage de première main de ces deux familles était d’autant plus remarquable qu’elle se déroulait en miroir.

Il convient de noter que de nombreux effets néfastes des infrasons des éoliennes sont étroitement liés aux symptômes du mal de mer, ce qui suggère qu’il peut y avoir une interaction avec les organes vestibulaires (de l’équilibre). L’auteur de ces lignes a beaucoup navigué au large des côtes dans les années 1970. À l’époque, certains participants affirmaient que le mal de mer était purement psychologique et qu’ils n’étaient pas affectés s’ils étaient suffisamment forts d’esprit. Les autres membres de l’équipage éprouvaient souvent un sentiment de satisfaction lorsque ces experts autoproclamés étaient confrontés à la réalité physique et succombaient à la maladie. À cet égard, ils se révèlent souvent moins efficaces que ceux qui ont une vision plus réaliste des choses. En outre, si les effets du mal de mer peuvent parfois se manifester rapidement, il n’est pas rare que leur apparition soit retardée jusqu’à 10 ou 12 heures après l’exposition.

Une étude néo-zélandaise récente [30] a cherché à renforcer l’argument nocebo concernant les infrasons émis par les éoliennes. Un groupe de participants a été divisé en deux groupes distincts et des vidéos décrivant les effets des infrasons des éoliennes ont été projetées à chaque groupe. Pour un groupe, ces vidéos montraient des personnes décrivant les effets néfastes sur la santé qu’elles avaient subis à cause des infrasons des éoliennes, tandis que pour l’autre groupe, on montrait des scientifiques et des experts assurant qu’il ne pouvait y avoir d’effets réels.

Les deux groupes de participants ont ensuite été exposés pendant 10 minutes à des tests en aveugle portant soit sur des infrasons simulés d’éoliennes, soit sur aucun infrason (c’est-à-dire « fictif »), à un niveau extrêmement bas de 40 dB à 5 Hz. On a ensuite constaté une augmentation mineure, mais identifiable, des réponses liées à l’anxiété dans le groupe qui avait été préconditionné par les rapports négatifs, qu’il ait été exposé à des infrasons simulés ou à des infrasons « fictifs ».

Il suffit cependant de considérer l’analogie avec le mal de mer pour comprendre cette expérience. Elle est directement comparable au fait de prendre deux groupes de personnes qui n’ont pas l’habitude d’être à flot, d’informer ces groupes distincts avec des perspectives opposées sur les causes et les effets du mal de mer, puis d’envoyer les participants dans deux bateaux distincts sur un lac intérieur dans des conditions de calme presque plat pendant 10 minutes. Toute conclusion résultant d’une légère anxiété initiale d’un groupe au cours de ce processus n’aurait guère de rapport avec la réalité d’une exposition réelle à des conditions de mer réelles pendant des périodes prolongées !

En ce qui concerne les arguments selon lesquels la gêne et la personnalité jouent un rôle majeur dans la réponse au bruit des éoliennes et aux infrasons, il convient de noter que de nombreuses personnes qui choisissent d’adopter un mode de vie rural le font spécifiquement pour profiter d’un environnement plus tranquille et moins stressant que la vie en banlieue ou en ville. Il est donc fort probable qu’elles aient une personnalité qui valorise ces caractéristiques rurales. Pour ces personnes, cette personnalité peut très bien être celle qui réagit fortement à une intrusion négative imposée de l’extérieur dans leur mode de vie. Les installations d’éoliennes ne doivent pas être telles que « l’absence d’une personnalité appropriée » compromette la composition de la communauté.

L’utilisation du terme « agacement » a deux interprétations communes distinctes. On dit souvent « C’est de sa faute s’il s’est énervé ! », ce qui implique immédiatement une condition imposée par l’intéressé lui-même. Dans le contexte des éoliennes, cependant, il est plus exact d’affirmer que « les éoliennes peuvent gêner les gens ». Cela introduit une perspective complètement différente — il est clair que la situation défavorable a été imposée à l’individu et que toute réaction est une conséquence directe de cette imposition. Cet auteur considère que l’utilisation de la terminologie « souffre de désagréments » est une description beaucoup plus appropriée et nettement moins trompeuse, qui place correctement la responsabilité directement sur la cause, plutôt que sur la réaction de l’individu.

Enfin, un article récent très médiatisé (S.Chapman [31]) a soutenu que la corrélation la plus convaincante concernant les plaintes relatives aux éoliennes découle de la présence d’« activistes » s’opposant à la construction d’un parc éolien. Pourtant, cette étude n’a pas tenté de prendre en compte des questions telles que les reculs immédiats, le bruit, la géographie locale et la configuration du parc éolien, ainsi que l’espacement et la densité des éoliennes. Tous ces facteurs ont une incidence directe sur les conditions de vie à proximité des éoliennes. Une fois de plus, en se référant à l’expérience de l’auteur, dans le comté de Huron, au Michigan, deux parcs éoliens ont été construits à des moments similaires, dans des secteurs similaires de la communauté. L’un d’entre eux a immédiatement donné lieu à un nombre important de plaintes, tandis que l’autre n’a pratiquement pas fait l’objet de plaintes. Sur le papier, ce dernier parc éolien semblait être le plus concentré, de sorte que l’absence de plaintes était d’autant plus surprenante. Mais il suffit de visiter les deux parcs éoliens à quelques reprises pour se rendre compte immédiatement qu’il y a une différence très importante dans les niveaux de bruit entre les deux, et il n’est pas surprenant que le parc éolien qui génère le plus de bruit soit celui qui fait l’objet du plus grand nombre de plaintes.

Dans ce cas, il y avait donc une corrélation évidente entre le bruit et la nature négative de l’environnement du parc éolien et le nombre de plaintes. Cette situation a ensuite donné lieu à une plus grande prise de conscience de la part de l’ensemble de la communauté et à une plus grande opposition exprimée aux parcs éoliens. Ainsi, le processus de cause à effet était complètement inverse à celui proposé dans [31].

A4. Expérience de première main des graves effets néfastes des infrasons

Il y a environ 18 mois, une famille vivant à proximité des éoliennes d’Ubly a demandé à l’auteur de l’aider à installer des instruments et à évaluer les conditions acoustiques dans leur sous-sol, qui est partiellement souterrain, où ils espéraient trouver des conditions de sommeil plus tolérables. En début de soirée, l’auteur est arrivé sur le site, à 460 m sous le vent de l’éolienne la plus proche. C’était une belle soirée, avec très peu de vent au niveau du sol, mais les éoliennes fonctionnaient. Cependant, à l’intérieur de la maison, il était impossible d’entendre le bruit des éoliennes et il a fallu sortir de temps en temps pour s’assurer qu’elles fonctionnaient bien.

L’auteur ne s’attendait pas à obtenir des mesures significatives dans ces conditions, mais il a néanmoins aidé à mettre en place l’instrumentation sous la forme d’un microphone infrasonique B&K 4193-L-004 et de plusieurs microbaromètres Infiltek. L’étalonnage des microbaromètres avait été confirmé précédemment en effectuant des mesures d’infrasons de fond directement côte à côte avec le microphone de précision B&K. L’objectif était de définir les emplacements de mesure, d’établir des gains d’instrumentation avec une marge de manœuvre appropriée, et de convenir et d’appliquer des procédures pratiques afin que les occupants puissent effectuer eux-mêmes d’autres mesures.

Après une période d’environ une heure, pendant laquelle il a installé des instruments dans le sous-sol et utilisé un ordinateur portable dans la cuisine, l’auteur a commencé à ressentir un important sentiment de léthargie. Au fil du temps, ce sentiment s’est transformé en difficultés de concentration accompagnées de nausées, si bien qu’au bout de trois heures environ, il s’est senti très mal. Pendant ce temps, le soleil se couchait, laissant une magnifique lueur rose orange dans le ciel, tandis que la vitesse du vent au sol restait pratiquement nulle et que les conditions de la soirée n’auraient pas pu être plus tranquilles et agréables.

Ce n’est qu’au bout de trois heures et demie environ que l’auteur s’est soudain rendu compte que ces symptômes étaient provoqués par les éoliennes. Comme il n’y avait pas de bruit audible et que les infrasons semblaient suffisamment faibles pour que l’auteur les considère comme peu importants, il n’avait pas envisagé cette possibilité jusqu’à présent.

Plus le temps passait, plus les effets s’aggravaient, si bien qu’au bout de cinq heures, il se sentait extrêmement malade. Il était assez étrange d’essayer de se concentrer sur un ordinateur dans une cuisine très solide, complètement immobile, entourée d’armoires en chêne massif, avec des plans de travail en granit et un évier en fonte, tout en ressentant presque exactement les mêmes symptômes que le mal de mer dans une mer agitée.

Finalement, au bout de 5 heures, il a été considéré que suffisamment d’essais avaient été effectués et analysés pour qu’un long essai de nuit puisse être mis en place, laissant l’instrumentation sous le contrôle des propriétaires de la maison. L’auteur a été immensément soulagé de quitter les lieux et de pouvoir rentrer chez lui sans être gêné par les éoliennes.

Mais ce n’était pas fini. En montant dans la voiture et en quittant le portail, l’auteur a constaté que son équilibre et sa coordination étaient complètement compromis, de sorte qu’il était constamment en survirage et que l’avant de la voiture semblait osciller comme un bateau en mer. Il est devenu très difficile d’évaluer la vitesse et la distance, de sorte qu’il a fallu conduire extrêmement lentement et avec beaucoup de prudence.

En arrivant à la maison 40 minutes plus tard, sa femme a immédiatement remarqué qu’il n’était pas bien — apparemment, son visage était complètement cendré. Il a fallu attendre 5 heures après avoir quitté le site pour que les symptômes disparaissent.

Il est souvent avancé que ces effets associés aux éoliennes sont dus au stress ou à la gêne provoquée par le bruit incessant, mais à cette occasion, il n’y avait aucun bruit audible à l’intérieur de la maison. De plus, il s’agissait d’une soirée remarquablement tranquille avec un coucher de soleil très impressionnant, de sorte que toute idée de problèmes liés aux éoliennes était totalement absente. Ce n’est que lorsque les symptômes sont devenus de plus en plus graves que l’auteur a finalement fait le lien, après avoir envisagé et exclu toutes les autres possibilités. Les explications relatives à l’« effet nocebo » ne semblent donc guère appropriées lorsque la prise de conscience n’a eu lieu que bien après l’événement.

Figure 3 Spectre de puissance moyen des infrasons dans le sous-sol

Les deux figures suivantes montrent les niveaux d’infrasons typiques mesurés dans le sous-sol à l’aide d’un des microbaromètres Infiltek. La figure (3) montre le spectre de puissance, mesuré avec une largeur de bande FFT nominale de 0,1 Hz. Comme on peut le voir, le pic de la composante fondamentale du taux de pales, à 55 dB, ne serait normalement pas considéré comme représentant un niveau particulièrement gênant d’infrasons. Plusieurs harmoniques supérieures d’amplitude progressivement décroissante sont visibles, mais cette caractéristique correspond tout à fait à ce que l’on pourrait attendre d’une turbine à rotor ascendant fonctionnant dans un flux d’air relativement régulier.

Le tracé temporel correspondant est illustré à la figure (4). On constate qu’il n’y a qu’une seule impulsion relativement bien définie par passage de pale, de sorte qu’il semblerait que seule l’éolienne la plus proche contribue de manière significative.

Figure 4 Historique des infrasons dans le sous-sol

Néanmoins, il convient de noter que si l’harmonique fondamentale du passage des pales n’est que de 55 dB, l’effet cumulatif des harmoniques supérieures peut parfois porter le niveau de crête de la forme d’onde à 0,06-0,08 Pascals, ce qui représente 69-72 dB. La plupart des travaux antérieurs de l’auteur se sont concentrés sur l’analyse de l’évolution temporelle de la forme d’onde, conformément à l’observation faite en 2004 par Moller & Pedersen [16] selon laquelle, aux fréquences les plus basses, c’est l’évolution temporelle des infrasons qui est la plus pertinente pour la perception. Le simple fait d’observer des niveaux spectraux distincts à des fréquences discrètes et de les considérer comme des composantes indépendantes peut conduire à une sous-estimation considérable des niveaux réels des infrasons répétitifs.

Le fait que l’équilibre et la coordination aient été compromis pendant le trajet de nuit vers le domicile suggère une interférence avec les organes vestibulaires, comme l’ont proposé Pierpont [5] et, par la suite, Schomer [20]. Une autre observation importante, cependant, est que les effets ont persisté pendant les 5 heures qui ont suivi, alors que l’excitation immédiate n’était plus présente. En revanche, dans le cas du mal de mer, les effets tendent à se dissiper rapidement dès que les conditions de mer s’apaisent. Il est intéressant de noter qu’une étude réalisée en 1984 [32], au cours de laquelle des sujets ont été exposés pendant 30 minutes à une excitation de 8 Hz à des niveaux beaucoup plus élevés de 130 dB, a montré que certains effets néfastes pouvaient persister plusieurs heures après l’exposition.

À ce stade, il convient de se demander si une suggestion du Dr A. Salt peut être pertinente [20]. Il a décrit un processus connu sous le nom de « Hydrops endolymphatique temporaire », une anomalie de l’oreille interne par laquelle l’ouverture de décharge de pression à l’apex de la cochlée (l’hélicotrème) peut être temporairement obstruée par un déplacement membranaire local. Cette obstruction augmente considérablement le déséquilibre de pression à travers la membrane basilaire et, par conséquent, une très forte augmentation de la sensibilité aux infrasons.

Si l’exposition à des infrasons répétitifs d’éoliennes peut parfois induire un tel effet, il faudrait alors un certain temps après l’exposition pour que l’état disparaisse. La suppression de la source d’excitation n’entraînerait donc pas un retour immédiat à une perception normale, mais pourrait entraîner la persistance des symptômes pendant un certain temps.

Une autre observation est que les niveaux d’infrasons montrés dans la figure (3) sont directement comparables à ceux qui ont été rapportés indépendamment par le professeur Hansen et ses collègues de l’université d’Adélaïde [33], et L. Huson [34], à des distances significatives des parcs éoliens australiens de Waterloo et de MacArthur respectivement. Cela semble fournir une corroboration convaincante et indépendante étant donné les rapports d’effets néfastes associés à ces dernières installations. De plus, S. Cooper [35], dans son étude sur le parc éolien de Cape Bridgewater, a montré une corrélation directe entre les sensations documentées des résidents et les caractéristiques de fonctionnement infrasoniques spécifiques des éoliennes.

Par conséquent, l’expérience de l’auteur est tout à fait cohérente avec ce rapport plus récent en Australie, relatif à des travaux effectués par des acousticiens expérimentés. Il ne fait aucun doute que les preuves s’accumulent progressivement pour étayer l’argument selon lequel les infrasons émis par les éoliennes peuvent avoir des effets néfastes sur la santé dans les environnements ruraux.

A5. Références

  1. R.A.Axell & H.B.Woody. Test Status and Experience with the 7.5 Megawatt MOD-2 Wind Turbine Cluster. Proceedings, Large Horizontal Axis Wind Turbine Conference 1981 NASA CP 2230, DOE CONF-8 10752 pp.637-652
  2. R.H.Spencer Noise Generation of Upwind Rotor Wind Turbine Generators The Boeing Vertol Company, Philadelphia PA 19142 (non daté).
  3. K.P.Shepherd, H.H.Hubbard, Noise Radiation Characteristics of the Westinghouse WWG-0600 (600kW) Wind Turbine Generator NASA TM101576, juillet 1989.
  4. H.G.Leventhall, Infrasound from Wind Turbines-fact, fiction or deception. Canadian Acoustics 34 (2006) 29-36
  5. N.Pierpont. WindTurbine Syndrome: A Report on a Natural Experiment. (2009). Livres sélectionnés par K.
  6. G.P.van den Berg. Effects of the Wind Profile at Night on Wind Turbine Sound Journal of Sound & Vibration 277 (2004) 955-970
  7. G.P.van den Berg. Do Wind Turbines Produce Significant Low Frequency Sound Levels? 11th Intl Mtg on Low Frequency Noise & Vibration Control, Maastricht, 2004
  8. H.G.Leventhall. Déclaration de témoin, 22 décembre 2010. Tribunal d’examen environnemental de Chatham Kent.
  9. M.J.Lighthill. On Sound Generated Aerodynamically. I. General Theory Proc. Roy. Soc. Vol 211, No 1107, March 1952
  10. MOD-2 Wind Turbine Field Operations Experience DOE/NASA/20320-69 NASA TM-87233 NASA Lewis Research Center, décembre 1985
  11. A.H.Miller, H.L.Wegley, J.W.Buck. Large HAWT Wake Measurement and Analysis. N95-2793 Pacific Northwest Laboratory, Richland, Washington Collected Papers on Wind Turbine Technology, mai 1995 NASA-CR-195432
  12. M.A.Swinbanks Wind Turbines: Low-Frequency Noise & Infrasound Revisited. Atelier d’un jour sur la protection de l’environnement 9 th septembre 2010, Birmingham, ROYAUME-UNI
  13. M.A.Swinbanks The Audibility of Low Frequency Wind Turbine Noise. Quatrième Réunion internationale sur le bruit des éoliennes. Rome, Italie 12-14 avril 2011
  14. D.G.Stevens, K.P.Shepherd, H.H.Hubbard, F.W.Grosveld, « Guide to the Evaluation of Human Exposure to Noise from Large Wind Turbines », NASA TM83288, mars 1982.
  15. N.D.Kelley. A Proposed Metric for Assessing the Potential of Community Annoyance from Wind Turbine Low-Frequency Noise Emissions SERI/TP-217-3261, novembre 1987.
  16. H.Moller & C.S.Pedersen. Hearing at Low & Infrasonic Frequencies, Noise & Health, Volume 6, Issue 23, April-June 2004.
  17. M.A.Swinbanks Numerical Simulation of Infrasound Perception, with Reference to Prior Reported Laboratory Effects (Simulation numérique de la perception des infrasons, avec référence aux effets rapportés en laboratoire). Inter-Noise, 19-22 août 2012
  18. Yasunao Matsumoto, Yukio Takahshi, Setsuo Maeda, Hiroki Yamaguchi, Kazuhiro Yamada, & Jishnu Subedi, « An Investigation of the Perception Thresholds of Band-Limited Low Frequency Noises: Influence of Bandwidth », Journal of Low Frequency Noise Vibration and Active Control, 2003.
  19. Chen Yuan, Huang Quibai, Hanmin Shi, “An Investigation on the Physiological and Psychological Effects of Infrasound on Persons”, Journal of Low Frequency Noise Vibration and Active Control, 2004.
  20. A.N.Salt, T.E.Hullar. Responses of the ear to low frequency sounds, infrasound and wind turbines. Hearing Research 2010, 268 12-21
  21. Schomer P, Edreich J, Boyle J, Pamidighantam P (2013) A proposed theory to explain some adverse physiological effects of the infrasonic emissions at some wind farm sites. 5Conférence internationale sur le bruit des éoliennes 28-30, août 2013
  22. W.D.Colby, R.Dobie, G.Leventhall, M.Liscomb, R.J.McCunney, M.T.Seilo, B.Sondergaard, Wind Turbine Sound and Health Effects. An Expert Panel Review AWEA/CANWEA, décembre 2009
  23. U.S.Environmental Protection Agency Information on Levels of Environmental Noise Requisite to Protect Public Health and Welfare with an Adequate Margin of Safety (Informations sur les niveaux de bruit ambiant nécessaires à la protection de la santé et du bien-être publics avec une marge de sécurité adéquate). EPA 550/9-74-004 mars 1974
  24. Annexe D. Informations sur les niveaux de bruit ambiant nécessaires pour protéger la santé et le bien-être du public avec une marge de sécurité adéquate. EPA 550/9-74-004 Mars 1974
  25. M.Klepinger, Michigan Land Use Guidelines for Siting Wind Energy Systems. Michigan State University Land Policy Institute, Extension Bulletin WO-1053 octobre 2007.
  26. M.A.Swinbanks Submission to Michigan Public Services Commission, Case No U-15899, December 8th , 2009
  27. H.G.Leventhall Wind Turbine Noise is not a Health Hazard (Le bruit des éoliennes n’est pas un danger pour la santé). M&E Sustainability Report of Lecture at London South Bank University 11th Novembre 2009
  28. www.vce.org/GeoffLeventhall_VT_SHW_042413.mp3 (13.55)
  29. R.J.McCunney,K.A.Mundt,W.D.Colby,R.Dobie,K.Kaliski,M.Blais. Éoliennes et la santé. Une revue critique de la littérature scientifique. Journal of Environmental Medicine Vol.56 No 11 Novembre 2014
  30. F.Crichton,G.Dodd,G.Schmid,G.Gamble,K.J.Petrie. Can Expectations Produce Symptoms from Infrasound Associated with Wind Turbines ? Université d’Auckland. Health Psychology, American Psychological Association, mars 2013.
  31. S.Chapman, A. St George, K. Waller, V. Cakic Différences spatio-temporelles dans l’historique des plaintes relatives à la santé et au bruit des parcs éoliens australiens : preuves de l’hypothèse psychogène de la « maladie communiquée ». 15 mars 2013
  32. D.S.Nussbaum, S.Reinis (1985) Some Individual Differences in Human Response to Infrasound UTIAS Report No 282, CN ISSN 0082-5255, janvier 1985
  33. K.Hansen,B.Zajamsek,C.Hansen. Comparaison des niveaux de bruit mesurés à proximité d’un parc éolien dans des conditions d’arrêt et d’exploitation. Inter-noise14, 16-19 novembre 2014
  34. W.L.Huson. Stationary Wind Turbine Infrasound Emissions and Propagation Loss Measurements (Émissions infrasonores d’éoliennes stationnaires et mesures de la perte de propagation). 6th International Conference on Wind Turbine Noise, Glasgow 20-23 avril 2015
  35. S.Cooper. Étude acoustique du parc éolien de Cape Bridgewater. Sensation as an Impact from Wind Turbines (La sensation en tant qu’impact des éoliennes). The Acoustic Group Pty, Ltd, Sydney, NSW 2040 (2015).

1 Voir https://www.cirrusresearch.fr/blog/2013/06/que-representent-les-filtres-par-bandes-doctave-et-tiers-doctave-sur-un-sonometre/ – NdT


Annexe B1 : Biographie de l’auteur

Malcolm Swinbanks a passé son doctorat sous la direction de Sir James Lighthill, professeur de mathématiques à l’université de Cambridge. Deux des réalisations de Lighthill — l’aéroacoustique, les procédures mathématiques pour la réduction du bruit des moteurs à réaction, et l’étude de la dynamique de la cochlée (oreille interne) — sont aujourd’hui directement liées à la compréhension et à la perception récentes du bruit des éoliennes.

Bien qu’il ait obtenu une bourse du titre A du Trinity College pour poursuivre ses recherches en mathématiques, Swinbanks a choisi d’y surseoir pour acquérir de l’expérience dans des applications plus pratiques, en travaillant d’abord avec le département de recherche du chantier naval Yarrows à Glasgow, dans le domaine du bruit et des vibrations dans les navires et les sous-marins. Il a poursuivi avec succès le contrôle actif des bruits de basse fréquence, se familiarisant ainsi avec les questions relatives à la perception des bruits de basse fréquence et des infrasons par la population. Il a acquis une expérience supplémentaire en travaillant avec plusieurs divisions de Rolls-Royce sur la dynamique des moteurs aéronautiques et le bruit des turbines à gaz industrielles.

En 1994, le Congrès américain lui a demandé de transférer aux États-Unis ses recherches sur les vibrations et les sons sous-marins à basse fréquence, en devenant scientifique principal d’une société américaine sous contrat avec l’Office américain de la recherche navale. Les domaines de recherche comprenaient l’isolation des vibrations de très haute précision et l’atténuation des chocs. Plus récemment, il a été contacté par des personnes qui rencontrent des problèmes très réels liés au bruit des éoliennes et qui, dans certains cas, ont été chassées de chez elles. Il a passé beaucoup de temps dans plusieurs parcs éoliens où le bruit est un problème important, ce qui lui a permis d’acquérir une expérience de première main et des données pratiques concernant les conditions extrêmement défavorables auxquelles certaines personnes sont maintenant soumises.




Le missile Sarmat ne peut détruire que 1 % du territoire de la France

[Source : Gérard Chevrier]

Les effets d’une explosion nucléaire de plusieurs mégatonnes et mesures de protection possibles.

[Voir aussi :
« La force de dissuasion française n’existe plus que dans les rêves »]




VOTRE VISAGE NOUS APPARTIENT — RECONNAISSANCE FACIALE, surveillance & perte de l’anonymat

[Source : Momotchi]

Si vous pensez que la #reconnaissancefaciale c’est juste quelques caméras dans la rue, regardez la société de #surveillance qu’on est en train de nous construire.

  • 0:00 Intro
  • 1:09 Un monde de surveillance
  • 2:28 Deepfake à 25 millions $
  • 3:25 Comment marche la reconnaissance faciale
  • 5:11 Facebook tagging
  • 6:55 Moteur de recherche de visage
  • 8:01 Clearview et Face++
  • 9:49 Utilisation illégale de reconnaissance faciale
  • 11:05 JO2024 & QRcodes
  • 15:09 Chine surveillance
  • 17:06 Visage et criminalité
  • 21:37 Caméras NewYork
  • 22:42 Prison panoptique
  • 24:10 Aéroports concerts stades
  • 27:18 Erreurs
  • 29:19 Travail, école, commerces
  • 35:04 Contrôle d’internet & id numérique
  • 35:50 Perte de l’anonymat
  • 37:01 Police & militaires
  • 37:32 Résister à la reconnaissance faciale



Tous surveillés : 7 milliards de suspects

[Source : Heal the World ou archive.org]




L’hypothèse des germes — partie 2

[Source : mikestone.substack.com]

Par Mike Stone

Dans la première partie de cette enquête sur l’hypothèse des germes, nous avons établi ce qu’est exactement une hypothèse en matière de sciences naturelles, c’est-à-dire une proposition d’explication d’un phénomène naturel observé. Nous avons brièvement évoqué ce qui a conduit Louis Pasteur à élaborer son explication de la maladie par les germes en plagiant les travaux sur la fermentation qu’il avait empruntés à Antoine Béchamp. Nous avons également examiné les preuves expérimentales qu’il a produites pour le choléra des poules et la rage afin de voir si son hypothèse sur les germes a jamais été scientifiquement prouvée et validée. Il est apparu clairement que les expériences de Pasteur ne reflétaient pas ses hypothèses sur la manière dont les germes étaient censés envahir un hôte pour provoquer une maladie, telle qu’elle était « observée » dans la nature, ce qui invalidait ses résultats. En outre, Pasteur a également mal interprété ce avec quoi il travaillait en ce qui concerne le choléra des poules, et il n’a pas réussi à isoler un microbe comme agent causal de la rage, ce qui a encore invalidé ces expériences puisqu’il n’avait pas de variable indépendante valable (agent causal supposé) avec laquelle il travaillait. Les vaccins produits par Pasteur ont également posé des problèmes : son vaccin contre le choléra des poules a été jugé inefficace, tandis que son vaccin contre la rage a été associé à la maladie même qu’il était censé prévenir.

Quoi qu’il en soit, Pasteur est régulièrement considéré comme un véritable héros et un savant scientifique, avec des titres tels que « le père de la microbiologie », « le père de l’immunologie », « le père de la bactériologie », etc. Il est considéré comme un sauveur pour avoir repris de vieilles idées, les avoir dépoussiérées et les avoir revendues au public comme étant les siennes. Cependant, si Pasteur est reconnu pour avoir développé et popularisé l’hypothèse des germes, il n’a pas « prouvé » que les germes étaient à l’origine des maladies. Selon le livre Science, Medicine, and Animals publié par le National Research Council et la National Academy of Sciences, cette gloire revient au médecin et microbiologiste allemand Robert Koch. Il est indiqué que les découvertes de Robert Koch ont conduit Louis Pasteur à décrire comment de petits organismes appelés germes pouvaient envahir le corps et provoquer des maladies. Le livre poursuit en disant que c’est Koch qui a établi de manière concluante que des germes particuliers pouvaient causer des maladies spécifiques, et qu’il l’a fait en commençant par ses expériences sur le charbon (anthrax). Cette affirmation est confirmée par la Curiosity Collection de l’université de Hardvard, qui affirme que Koch est « reconnu pour avoir prouvé que des germes spécifiques étaient à l’origine de l’anthrax, du choléra et de la tuberculose ». Elle souligne que les postulats de Koch, les quatre critères destinés à établir une relation de cause à effet entre un microbe et une maladie, « sont fondamentaux pour la théorie des germes » et qu’ils « prouvent à la fois que des germes spécifiques provoquent des maladies spécifiques et que des germes pathogènes transmettent la maladie d’un corps à l’autre ».

Bien que Pasteur ait également cru à cette idée, c’est à Robert Koch que l’on attribue le développement du concept « un agent pathogène pour une maladie ». Sans surprise, l’Institut Robert Koch affirme également que c’est Koch, et non Pasteur, qui a été « le premier à prouver qu’un micro-organisme était la cause d’une maladie infectieuse ».

Ainsi, alors que l’on pourrait affirmer que Louis Pasteur a falsifié son hypothèse sur les germes, on peut facilement dire que son travail, en lui-même, était insuffisant pour prouver son hypothèse sur les germes. Pour « prouver » l’hypothèse des germes, les travaux de Robert Koch sont considérés comme essentiels en raison de ses techniques novatrices impliquant de nouvelles pratiques de coloration permettant une meilleure visualisation, et de son utilisation de milieux « appropriés » pour cultiver les bactéries sous une forme pure. Les quatre postulats logiques développés au cours de ses travaux, connus sous le nom de Postulats de Koch, constituent depuis deux siècles « l’étalon-or » pour établir l’étiologie microbiologique des maladies « infectieuses ». Les postulats sont considérés comme tellement essentiels que, selon un article publié en 2015 par Ross et Woodyard, ils sont « mentionnés dans presque tous les manuels de microbiologie débutants » et « continuent d’être considérés comme une norme importante pour établir des relations de cause à effet en biomédecine ». Lester S. King, médecin formé à Harvard et auteur de nombreux ouvrages sur l’histoire et la philosophie de la médecine, a écrit dans son article de 1952 intitulé Dr Koch’s Postulates que la contribution de Koch a consisté à « forger une chaîne de preuves reliant une bactérie spécifique à une maladie donnée ». King a déclaré que cette chaîne était si solide et si convaincante « que ses principes ont été exaltés en tant que “postulats” et considérés comme un modèle pour tous les travaux futurs ».

Étant donné que la contribution de Koch à la « démonstration » de l’hypothèse des germes semble encore plus importante que celle de Louis Pasteur, nous examinerons les trois principales contributions qu’il a apportées à cet effort, en nous concentrant tout d’abord sur ses travaux sur le charbon, puis sur la tuberculose et le choléra. Nous examinerons son approche expérimentale afin de voir si elle reflète quelque chose qui se produit naturellement dans le monde physique. Nous verrons si les preuves expérimentales de Koch répondent réellement à ses propres postulats logiques pour prouver que les microbes sont la cause de la maladie. Au terme de cette enquête, il apparaîtra clairement que les efforts combinés de Louis Pasteur et de Robert Koch n’ont pas suffi à confirmer l’hypothèse des germes et que, contrairement à la croyance populaire, ils ont en fait conduit à la réfutation de l’ensemble de la doctrine.

Anthrax

« Finalement, en 1876, Koch a prouvé que la maladie du charbon est déclenchée par un seul agent pathogène. Il a découvert le stade dormant de l’agent pathogène, les spores du charbon, et a ainsi élucidé la chaîne d’infection jusqu’alors inexpliquée et la forte résistance de la bactérie aux facteurs environnementaux. Robert Koch a ainsi été le premier à prouver qu’un micro-organisme était à l’origine d’une maladie infectieuse. »

https://www.rki.de/EN/Content/Institute/History/rk_node_en.html

Robert Koch a commencé ses recherches sur le charbon en 1876, alors qu’il était médecin de district et dirigeait un cabinet médical à Wöllstein. À l’époque, on attribuait à la maladie la mort de 528 personnes et de 56 000 têtes de bétail sur une période de quatre ans. L’hypothèse la plus répandue était qu’il s’agissait d’une maladie d’origine tellurique, car certains pâturages étaient réputés « dangereux » pour le bétail qui y paissait et pouvaient le rester pendant des années. D’autres chercheurs, dont le biologiste français Casimir Davaine qui, selon Koch, a fait des déclarations « décisives », avaient signalé que certaines bactéries en forme de bâtonnets étaient présentes dans le sang des animaux malades et que la maladie pouvait être transmise en inoculant du sang d’animaux malades à des animaux sains. Davaine a proposé que la maladie du charbon, qui s’est développée sans transmission directe démontrable chez les humains et les animaux, était due à la propagation d’une bactérie dont il avait découvert qu’elle restait viable pendant longtemps à l’état sec, par les courants d’air, les insectes et autres. Toutefois, comme l’a noté Koch dans son célèbre article de 1876 intitulé Die Ätiologie der Milzbrand-Krankheit, begründet auf die Entwicklungsgeschichte des Bacillus Anthracis (L’étiologie de la maladie du charbon, fondée sur l’histoire du développement de Bacillus Anthracis), ces rapports ont été réfutés par d’autres chercheurs qui ont obtenu des résultats contradictoires : la bactérie en forme de bâtonnet n’a pas été retrouvée dans le sang après des injections mortelles de la bactérie, et des injections de sang sans la bactérie ont également pu provoquer la maladie.

« Cependant, ces propositions de Davaine ont été contredites de diverses manières. Certains chercheurs ont affirmé avoir obtenu un charbon mortel après inoculation de sang bactérien sans qu’aucune bactérie ne soit retrouvée dans le sang par la suite, et à l’inverse, la vaccination avec ce sang sans bactérie a pu induire un charbon dans lequel des bactéries étaient présentes dans le sang. »

Koch note qu’il a été souligné que le charbon ne dépend pas uniquement d’un contage1 qui se propage en surface, mais que la maladie est indubitablement liée aux conditions du sol, précisant qu’elle est « plus importante dans les années humides et se concentre principalement dans les mois d’août et de septembre, lorsque la courbe de chaleur du sol atteint son apogée ». Il a ajouté que « ces conditions ne peuvent être expliquées par l’hypothèse de Davaine, et leur inadéquation a conduit de nombreuses personnes à nier l’importance des bactéries pour l’anthrax ». Cela a conduit Koch à déclarer que Davaine n’avait « que partiellement raison » dans son hypothèse selon laquelle la bactérie était résistante à la chaleur et à d’autres conditions, et que ses propres expériences montreraient que la bactérie modifiait son état en fonction des conditions environnementales. Il s’agissait de la forme sporulée de la bactérie que Koch avait découverte au cours de ses recherches et qui, selon lui, était dormante et beaucoup plus résistante aux facteurs environnementaux que la forme « végétale » active. Selon Koch, c’est cette forme sporulée de la bactérie que le bétail ingère en broutant et qui, privée d’oxygène à l’intérieur du corps, devient pathogène. C’était donc les conditions de l’environnement dans lequel se trouve la bactérie qui déterminaient si elle est pathogène ou non. Koch pensait que l’anthrax était très certainement une « maladie infectieuse dépendant du sol » et, en tant que telle, il serait logique de supposer que ses expériences reflétaient cette observation et impliquaient de nourrir le bétail affecté avec la bactérie dans son état pathogène supposé. Les expériences de Koch ont-elles reflété son hypothèse et reproduit la maladie telle qu’elle est censée se manifester dans la nature ? C’est ce que nous allons découvrir.

Tout d’abord, Koch a déclaré que, selon le professeur F. Cohns, « dans le sang et les fluides tissulaires de l’animal vivant, les bacilles se multiplient extraordinairement rapidement de la même manière que ce qui est observé chez diverses autres espèces de bactéries ». Cependant, Koch a admis qu’il n’avait pas observé directement ce phénomène lui-même, mais qu’il estimait qu’il pouvait être déduit de ses expériences.

« Cependant, je n’ai pas réussi à voir ce processus directement, mais il peut être déduit des expériences d’inoculation que j’ai souvent réalisées et répétées de la manière suivante. »

Pour comprendre comment cette « maladie du sol » affectait le bétail, notamment les moutons, Koch a eu recours à des expériences sur des souris. Il a commencé par prélever la rate des carcasses « infectées » et en a extrait le sang. Il injectait le sang à des souris saines en utilisant des éclats de bois comme seringue. Au début, il a tenté d’inoculer les souris par les oreilles ou le milieu de la queue, mais il a jugé cette méthode « dangereuse », car la bactérie pouvait être éliminée par frottement et léchage. En d’autres termes, les souris peuvent consommer la bactérie, ce qui est la voie naturelle proposée pour l’« infection ». La raison pour laquelle cette méthode a été jugée « dangereuse » pour les souris alors que l’objectif était de les « infecter » et de les tuer est laissée à l’imagination, à moins que Koch n’ait jugé dangereux pour lui-même de répandre la bactérie dans son laboratoire. Quoi qu’il en soit, il a fini par créer des plaies à l’arrière de la queue des souris et y a fait tomber la bactérie.

« Comme objet d’inoculation très pratique et facile à avoir, j’ai surtout utilisé des souris. Au début, je les vaccinais par les oreilles ou au milieu de la queue, mais j’ai trouvé cette méthode peu sûre, car les animaux peuvent enlever le matériel vaccinal en se frottant et en se léchant. Plus tard, j’ai choisi l’arrière de la queue, où la peau est déjà mobile et couverte de longs poils. À cette fin, la souris placée dans un grand bocal couvert est inoculée par la queue à l’aide d’une longue pince à épiler et cette dernière est retirée d’un espace étroit entre le couvercle et le bord du bocal, de sorte qu’une incision transversale peu profonde est pratiquée dans la peau de l’arrière de la racine de la queue et que la plus petite goutte possible du liquide contenant le bacille peut être introduite dans la petite blessure. »

Après avoir tué une souris, on procédait à une série consécutive de plusieurs injections au cours desquelles on inoculait à de nouvelles souris la substance de la rate qui avait été incubée dans le sérum de bœuf des souris qui venaient d’être tuées.

« …les souris ont été inoculées plusieurs fois de suite de manière à ce que, sans interruption, la souris suivante soit toujours inoculée avec la substance de la rate de la souris récemment décédée de l’anthrax. »

Bien que Koch ait affirmé avoir réussi à tuer les souris, la question de savoir ce qui les a réellement tuées, à savoir l’acide carbonique présent dans le sang ou les produits de clivage toxiques des protéines, est restée sans réponse. Koch préférait cette dernière explication.

« Il serait également excessif d’aborder la question de la cause réelle de la mort des animaux mourant du charbon, à savoir si elle a été provoquée par l’acide carbonique développé lors de la croissance intensive des bacilles dans le sang ou, ce qui est plus probable, par les produits de clivage toxiques des protéines consommées par les parasites pour leur alimentation. »

Il est intéressant de noter que c’est peut-être un autre acide qui aurait pu nuire aux animaux sur lesquels Koch a fait des expériences, car il a admis avoir utilisé de l’acide carbolique (alias phénol) comme désinfectant au cours de ses expériences. L’acide carbolique est un dérivé du goudron de houille, un composé toxique qui peut affecter divers systèmes biologiques, même à faible concentration. Bien qu’il ait été popularisé par Lord Joseph Lister dans les années 1860 et utilisé comme antiseptique pendant des décennies, le phénol n’est plus couramment utilisé comme antiseptique en raison de ses propriétés irritantes et corrosives ainsi que de sa toxicité systémique potentielle. Même Lord Lister a regretté d’avoir recommandé son utilisation et abandonné le spray d’acide carbolique en déclarant dans les années 1890 : « J’ai honte d’avoir recommandé ce spray pour détruire les microbes dans l’air ». Koch était connu pour avoir testé l’acide carbolique en ce qui concerne son pouvoir de destruction des spores. Les traces d’acide carbolique qu’il savait rester sur son matériel après l’avoir désinfecté pouvaient-elles contribuer à l’apparition de maladies chez les animaux observés lors de ses expériences ?

« Les petits détails qui peuvent être importants ici sont visibles dans le fait qu’au début, certaines cultures ont échoué parce que j’ai immergé toutes les lamelles couvre-objet dans une solution d’acide carbolique après utilisation et, malgré un nettoyage soigneux, des traces d’acide carbolique reconnaissables à l’odeur sont parfois restées sur les bocaux. »

Dans son article de 1879 intitulé Investigations into the Etiology of Traumatic Infectious Diseases, (Recherches sur l’étiologie des maladies infectieuses traumatiques), Koch a déclaré que le matériel de la rate devait être utilisé car le sang contenait peu de bacilles, ce qui est plutôt étrange puisque le CDC déclare que le sang est utilisé pour la culture bactérienne et le diagnostic de la maladie du charbon (anthrax).

« Pour obtenir des résultats constants, le matériel d’inoculation doit être prélevé sur la rate, car le sang des souris atteintes de la maladie du charbon contient souvent très peu de bacilles. »

Il semblerait donc que, selon Koch, le matériel de la rate soit la source principale des spores pathogènes du charbon nécessaires pour tuer les animaux expérimentalement. Toutefois, l’injection de matériel de rate à des souris ne reflète pas l’hypothèse selon laquelle une « infection » naturelle par la bactérie se produirait dans la nature parmi le bétail en pâture. Sachant cela, Koch a tenté de démontrer la pathogénicité de la bactérie du charbon d’une manière qui refléterait plus fidèlement son hypothèse sur la façon dont les moutons contracteraient la maladie… en utilisant à nouveau des souris. Pour refléter la voie d’exposition qu’il avait supposée, Koch a décidé de nourrir les souris avec la bactérie. Néanmoins, cette exposition « naturelle » consistait à nourrir les souris avec des rates de lapins et de moutons morts de la maladie, ce qui n’est évidemment pas un élément naturel du régime alimentaire d’une souris. Il a déclaré que les souris avaient mangé plus que leur poids en anthrax, car elles sont des mangeurs « extrêmement voraces ». Malgré l’alimentation non naturelle et la grande quantité de bactéries ingérées, aucune des souris n’est tombée malade. Cette tentative ayant échoué, il a essayé d’ajouter un liquide contenant des spores à leur nourriture, et les souris ont à nouveau consommé plus que leur poids corporel, sans aucun effet néfaste. Des lapins ont également été nourris avec des masses contenant des spores et sont restés en bonne santé. Par conséquent, dans ces expériences, Koch a réfuté son hypothèse selon laquelle la bactérie de l’anthrax pouvait provoquer la maladie en cas d’ingestion par une voie d’« infection » naturelle plus étroitement simulée (sans l’utilisation de rates malades provenant d’autres animaux) sur la base du phénomène naturel observé.

« Pour vérifier si le bacille du charbon peut pénétrer dans l’organisme par le canal alimentaire, j’ai d’abord nourri des souris pendant plusieurs jours avec de la rate fraîche de lapins et de moutons morts du charbon. Les souris sont extrêmement voraces et mangent en peu de temps plus que leur poids en charbon, de sorte que des quantités considérables de bacilles ont traversé l’estomac et les intestins des animaux testés. Mais je n’ai pas réussi à les infecter de cette manière. J’ai ensuite mélangé un liquide contenant des spores à la nourriture des animaux. Ils l’ont également consommé sans inconvénient ; l’ingestion de plus grandes quantités de sang contenant des spores, séché peu de temps auparavant ou des années auparavant, n’a pas non plus provoqué l’anthrax chez eux. Les lapins qui ont été nourris à différents moments avec des masses contenant des spores sont également restés en bonne santé. Pour ces deux espèces animales, une infection par le tractus intestinal ne semble pas possible. »

Koch semblait se rendre compte que ses preuves n’étaient pas concluantes, au mieux, et qu’il manquait encore beaucoup de choses pour comprendre l’étiologie complète de la maladie, mais il essayait toujours de faire bonne figure tout en admettant quelques fautes flagrantes. Tout d’abord, il a reconnu que ses expériences avaient toutes été menées sur de petits rongeurs et non sur les gros bovins atteints par la maladie. Cependant, Koch a tenté de rassurer le lecteur en affirmant que les différences entre les animaux étaient peu probables. Ironiquement, il s’est ensuite contredit lorsqu’il a tenté d’expliquer les résultats négatifs des expériences sur l’alimentation des souris et des lapins en affirmant qu’ils n’étaient pas pertinents pour les bovins, beaucoup plus gros, en raison des différences entre les systèmes digestifs des animaux. Il a également admis que les preuves d’une « infection » par inhalation faisaient toujours défaut.

« Reprenons maintenant les faits que nous avons obtenus jusqu’à présent et essayons, à l’aide de ceux-ci, de déterminer l’étiologie de l’anthrax. Il ne faut pas se cacher que pour construire une étiologie complète, il manque encore beaucoup de choses. Il ne faut surtout pas oublier que toutes les expérimentations animales ont été réalisées sur de petits rongeurs. Or, il est peu probable que les ruminants, qui sont les véritables hôtes du parasite qui nous intéresse, se comportent très différemment des rongeurs. »

« En outre, les expériences d’alimentation avec des bacilles et des spores chez les rongeurs, qui ont donné des résultats négatifs, ne sont pas du tout pertinentes pour les ruminants, dont l’ensemble du processus digestif est considérablement différent. Les tests d’inhalation avec des masses contenant des spores font encore défaut. »

L’article initial de Koch sur le charbon montre que non seulement il n’a pas prouvé son hypothèse selon laquelle la bactérie du charbon, lorsqu’elle est ingérée, provoque une maladie, mais qu’il a en fait réfuté son hypothèse par ses expériences sur les souris et les lapins, car il n’a pas pu montrer que l’ingestion de spores de charbon pouvait provoquer une maladie. La seule façon pour Koch de provoquer une maladie était de procéder à des injections artificielles et non naturelles de diverses manières dans des petits animaux et des rongeurs en utilisant différentes substances qui ne correspondaient pas à son hypothèse basée sur le phénomène naturel observé. La seule réussite que l’on peut attribuer à son article est la description du cycle pléomorphe d’une bactérie qui peut être modifié sous l’influence de l’environnement.

Quoi qu’il en soit, Koch et ses partisans ont annoncé qu’il avait réussi à prouver la cause de la maladie du charbon. Pourtant, malgré l’enthousiasme et les louanges dont son travail a fait l’objet, de nombreuses objections et critiques ont été formulées à l’encontre de son article sur l’anthrax et de l’idée selon laquelle les bactéries sont à l’origine des maladies. En fait, selon le professeur de philosophie K. Codell Carter, qui a traduit pour la première fois de nombreux articles de Koch en anglais, il est clair que Koch n’a pas prouvé de manière convaincante la causalité dans son article.

« De plus, en dépit de ce que Koch lui-même a affirmé plus tard et de ce qui est aujourd’hui largement admis, si on lit attentivement l’article de Koch, on trouve remarquablement peu de preuves directes de causalité, et les preuves que l’on trouve ne sont pas d’un type qui aurait persuadé ses contemporains. »

Carter a ajouté que Koch n’avait pas démontré que l’inoculation de bacilles isolés provoquait la maladie et qu’il n’avait pas établi que ses cultures de la bactérie étaient des cultures pures. Les travaux ont été réalisés avant que Koch ne mette au point sa technique d’ensemencement pour la croissance des colonies et ont donc été effectués sans que des cultures pures aient été isolées. Koch a simplement supposé, par un examen microscopique, que s’il ne voyait pas de contamination, ses cultures étaient pures. Carter a noté que les contemporains de Koch n’auraient certainement pas trouvé cet argument convaincant. À l’époque, tout le monde considérait qu’il était essentiel d’avoir des cultures pures, et cette exigence est devenue le principe central des postulats de Koch dans les années qui ont suivi. En fait, en 1881, Koch a déclaré : « La culture pure est le fondement de toute recherche sur les maladies infectieuses ». Cependant, lorsqu’il a publié son article sur le charbon, Koch a répondu à ses détracteurs en déclarant que « l’exigence selon laquelle les bacilles inoculés doivent être totalement retirés de toute substance associée susceptible de contenir des éléments dissous de la maladie » était « impossible… Personne ne peut prendre au sérieux une telle entreprise ». Ainsi, son travail de 1876 sur la maladie du charbon était dépourvu de cet élément essentiel. Comme il semblait plus intéressé par la description du cycle de vie du bacille que par la démonstration de la causalité à l’aide d’une culture pure, les critiques n’étaient toujours pas convaincus que Koch avait prouvé que les bacilles étaient la cause de l’anthrax.

Joli dessin de Koch.

Carter a fourni encore plus d’éléments contre les travaux de Koch de 1876 sur l’anthrax en tant que preuve de causalité dans un document séparé qu’il a écrit pour explorer la création des postulats de Koch. Il y affirme que Koch n’a fourni aucune preuve originale significative que les bacilles étaient nécessaires ou suffisants pour l’anthrax naturel, et que son travail était centré sur l’anthrax induit artificiellement.

« Koch n’a fourni aucune preuve originale significative que les bacilles étaient nécessaires ou suffisants2 pour la maladie du charbon naturelle. Sa discussion repose presque exclusivement sur l’anthrax induit artificiellement chez les animaux de laboratoire. Koch a mentionné qu’il avait souvent examiné des animaux morts de la maladie du charbon naturelle. Toutefois, parmi ces examens, il a seulement indiqué avoir trouvé des bacilles dans la rate d’un cheval atteint de la maladie du charbon — le seul cheval qu’il ait examiné. Koch a cité des chercheurs antérieurs qui avaient identifié des bacilles dans des cas naturels, mais il a également mentionné d’autres chercheurs qui ne les avaient pas trouvés. »

Carter a souligné que Koch savait que la présence d’anthrax chez un animal ne signifiait pas que l’animal tomberait malade, que l’ingestion d’anthrax ne produisait pas la maladie, que certaines procédures d’inoculation ne fonctionnaient pas et que divers facteurs étaient importants pour déterminer si un animal exposé tomberait malade ou non. Koch a ensuite mis au point des procédures d’inoculation qui tuaient toujours les animaux testés, montrant ainsi que les procédures d’inoculation étaient le facteur le plus important dans l’apparition de la maladie. Toutefois, il n’a pas affirmé qu’il s’agissait d’une preuve directe que la bactérie du charbon était à l’origine de la maladie.

« Tout d’abord, il savait que la simple présence de bacilles du charbon dans un animal ne garantissait pas qu’il deviendrait malade ; l’ingestion de bacilles du charbon n’induisait pas invariablement le charbon, certaines procédures d’inoculation n’étaient pas fiables et, même parmi les animaux sensibles exposés, la vulnérabilité dépendait de divers facteurs. Koch ne pouvait donc pas affirmer que les bacilles suffisaient à eux seuls à provoquer l’anthrax. Comme nous le verrons, dans des documents ultérieurs, Koch a adopté divers critères de causalité similaires à la stricte suffisance, mais plus faibles. Cependant, dans les premiers articles sur l’anthrax, on ne trouve aucun critère de ce type. Après quelques échecs, Koch a mis au point des procédures d’inoculation qui induisaient invariablement un anthrax mortel chez certains animaux de laboratoire. Mais en décrivant sa procédure, il s’est contenté d’observer qu’elle était importante parce qu’elle permettait de tester la viabilité des cultures de bacilles. Nulle part dans l’article de 1876, il n’a suggéré que ces inoculations, qui tuaient de manière fiable les animaux testés, apportaient la preuve directe que les bacilles étaient la cause de l’anthrax. »

Ainsi, Carter a déterminé que tout ce que Koch avait accompli dans son article de 1876 était de montrer que les bacilles ou les spores étaient nécessaires pour les cas artificiels de maladie. Son travail ne prouvait pas que la bactérie du charbon causait la maladie telle qu’elle était observée dans la nature. D’après le témoignage de Carter, il est clair que les premiers travaux de Koch sur l’anthrax n’ont pas résisté aux fameux postulats qu’il a établis quelques années plus tard et qui sont considérés comme nécessaires pour prouver qu’un microbe est à l’origine d’une maladie spécifique.

Ironiquement, la première tentative de Koch de prouver l’hypothèse des germes avec l’anthrax a conduit à une rivalité amère avec Louis Pasteur, la personne même à qui l’on attribue l’établissement de la version moderne de l’hypothèse. Selon Carter, Pasteur considérait les travaux de Koch comme non concluants, et il soulignera plus tard dans une réponse à Koch que plusieurs autres observateurs étaient, comme lui, parvenus à la même conclusion au sujet des premières preuves de Koch concernant la maladie du charbon. Pasteur estime également avoir été le premier à démontrer la causalité dans un article qu’il a publié en 1877.

« Quelques mois plus tard, au printemps 1877, Pasteur publie le premier d’une longue série d’articles sur le charbon. Après avoir insisté sur le fait que Davaine avait précédé Pollender dans l’observation des bactéries du charbon, Pasteur affirme que lui-même, en étudiant les maladies des vers à soie, a été le premier à identifier les spores et à reconnaître qu’elles restaient viables pendant de longues périodes. Pasteur mentionne favorablement l’article de Koch et reconnaît que ce dernier a été le premier à retracer le cycle de vie de l’organisme et à identifier ses spores. Il fait remarquer que les travaux de Koch n’ont pas persuadé les détracteurs que les bacilles sont la cause de la maladie du charbon, et déclare que son propre objectif est de fournir une démonstration concluante. »

Peut-être Pasteur a-t-il fait de l’ombre aux travaux de Koch après avoir pris connaissance de l’article de ce dernier sur la bactérie du charbon, et s’est-il senti poussé à participer à la course à la découverte et à la lutte contre de nouveaux microbes afin de revendiquer la priorité dans le processus de découverte. Quoi qu’il en soit, la première rencontre entre Robert Koch et Louis Pasteur fut apparemment cordiale lorsqu’ils se rencontrèrent à Londres à la demande de Lord Joseph Lister, qui avait invité Koch à assister au septième congrès médical international qui s’est tenu pendant l’été 1881.

« Pasteur assiste également au congrès médical de Londres, où il présente une communication sur ses résultats concernant l’atténuation de la maladie du charbon et la vaccination réussie des moutons, réalisée au début du printemps. Koch a présenté une démonstration en laboratoire de sa technique des plaques et de ses méthodes de coloration des bactéries. Pasteur assiste à cette séance de démonstration et déclare avec admiration : “C’est un grand progrès, Monsieur. Cet éloge était un grand triomphe pour Koch, qui avait 20 ans de moins que Pasteur. »

L’histoire raconte qu’au cours d’un discours de Pasteur, le traducteur de Koch a mal traduit une phrase du discours de Pasteur portant sur les travaux de Koch, transformant une phrase signifiant « une collection de travaux allemands » en une phrase signifiant « l’arrogance allemande ».

« Mais cette fois, c’est un problème de traduction qui aurait provoqué la réponse agressive et inattendue de Koch, selon un document conservé au musée de l’Institut Pasteur à Paris. Le problème est que les deux hommes ne parlent ni ne comprennent la langue de l’autre. Pasteur qualifie les travaux publiés par Koch de recueil allemand, ce qui signifie collection ou compilation d’ouvrages allemands. Le professeur Lichtheim, qui était assis à côté de Koch et convertissait rapidement le français de Pasteur en allemand, traduisit incorrectement “recueil allemand” par “orgueil allemand”, ce qui signifie “arrogance allemande”. Il n’est donc pas surprenant que Koch proteste avec colère contre cette insulte involontaire, tandis que Pasteur, ignorant que sa phrase inoffensive avait été transformée par erreur en une insulte cinglante, reste d’un calme extraordinaire. »

http://www.antimicrobe.org/h04c.files/history/Microbe%202007%20Pasteur-Koch.pdf

Cette erreur de traduction a poussé un Koch enflammé à attaquer les travaux de Pasteur sur le charbon, critiquant son « atténuation » de la bactérie du charbon pour la vaccination, tout en accusant Pasteur d’utiliser des cultures impures et de mener des études d’inoculation erronées. En fait, selon Carter, au cours de son argumentation, Koch a insinué que Pasteur falsifiait les résultats de ses expériences d’inoculation. Koch et le microbiologiste germano-suisse Edwin Klebs reprochent à Pasteur de ne pas apporter de nouvelles preuves, puisqu’il n’a fait que répéter les expériences menées par le botaniste Ernst Tiegel seize ans plus tôt. Dans sa réponse de 1882, Ueber die Milzbrandimfung (À propos de la vaccination contre l’anthrax), Koch a eu des mots très durs à l’égard des méthodes de Pasteur, affirmant que ses recherches n’avaient rien apporté à l’étiologie de la maladie : « Seules quelques-unes des croyances de Pasteur sur le charbon sont nouvelles, et elles sont fausses ». Selon Carter, Koch estimait que les expériences de Pasteur étaient « sans valeur et naïves » et il refusa de répéter une expérience de Pasteur qu’il qualifiait d’« expérience inutile ». Koch a accusé Pasteur de confondre les bacilles du charbon avec d’autres organismes similaires, et il a souligné que, contrairement à la revendication de priorité de Pasteur (chose pour laquelle Pasteur était tristement célèbre), ses propres travaux sur le charbon avaient précédé ceux de Pasteur d’un an.

« Pasteur pense avoir découvert l’étiologie du charbon. Cette étiologie ne pouvait être établie qu’en identifiant les formes durables des bacilles du charbon, les conditions de leur origine, leurs caractéristiques, leur relation avec le sol et l’eau. Bien que je ne sois pas intéressé par les querelles de priorité, ces questions sont tellement évidentes que je ne peux pas les ignorer. Je ne peux répondre aux affirmations de Pasteur qu’en me référant à ma publication de 1876 qui décrit la génération des spores du charbon et leur relation avec l’étiologie du charbon. Le premier travail de Pasteur sur le charbon a été publié un an plus tard, en 1877. Cela n’appelle pas d’autres commentaires. »

Tout en contestant les travaux de Pasteur sur la rage, Koch a critiqué les méthodes défectueuses utilisées par Pasteur pour l’étude de la rage et du charbon, ce qui, ironiquement, peut lui être reproché, car Koch n’a pas non plus utilisé de cultures pures ni d’animaux de laboratoire appropriés.

« Ainsi, en raison de l’absence d’examen microscopique, de l’utilisation de substances impures et de l’emploi d’animaux d’expérience inadaptés, la méthode de Pasteur doit être rejetée comme défectueuse. Elle ne peut aboutir à des résultats concluants. On ne peut pas reprocher à Pasteur lui-même l’interprétation qu’il a faite de ses résultats. Ses préjugés l’ont emporté et il a raconté des choses merveilleuses sur les maladies trouvées chez ses animaux d’expérience et sur les restes de leurs cadavres. Après tout, Pasteur n’est pas médecin et on ne peut pas attendre de lui qu’il porte des jugements solides sur les processus pathologiques et les symptômes des maladies. »

Koch a également critiqué Pasteur pour le secret de ses méthodes expérimentales, notant que Pasteur les a gardées cachées, s’assurant ainsi que son travail ne pouvait pas être reproduit et vérifié de manière indépendante par d’autres chercheurs.

« Pasteur mérite d’être critiqué non seulement pour ses méthodes défectueuses, mais aussi pour la manière dont il a rendu publiques ses recherches. Dans l’industrie, il peut être permis, voire nécessaire, de garder secrètes les procédures qui conduisent à une découverte. En revanche, dans le domaine scientifique, les usages sont différents. Quiconque veut être accepté dans la communauté scientifique doit publier ses méthodes, afin que chacun puisse vérifier l’exactitude de ses affirmations. Pasteur n’a pas respecté cette obligation. Même dans ses publications sur le choléra des poules, il a tenté de garder secrète sa méthode de réduction de la virulence. Seule la pression de [Gabriel Constant] Colin l’a incité à révéler ses méthodes. Il en est de même pour l’atténuation du virus du charbon. À ce jour, les publications de Pasteur sur la préparation des deux matières à inoculer sont si imparfaites qu’il est impossible de répéter ses expériences et de tester ses résultats. Ayant adopté une telle procédure, Pasteur ne peut se plaindre de la méfiance et des vives critiques qu’il rencontre dans les milieux scientifiques. La science rend publiques ses méthodes sans réserve. À cet égard, Toussaint et [Augusta] Chauveau, qui travaillent dans le même domaine, contrastent agréablement avec Pasteur. »

Koch s’en est pris au vaccin contre l’anthrax de Pasteur, déclarant que « tout ce que nous avons entendu, ce sont des données complètement inutiles » et que le simple fait d’indiquer le nombre d’animaux ayant résisté à l’inoculation par rapport au nombre d’animaux morts ne prouvait pas que les animaux survivants étaient par conséquent « immunisés ». Pasteur n’avait pas réussi à démontrer l’« immunité », et les rapports s’accumulaient sur le fait que son vaccin n’avait pas atteint l’objectif souhaité, alors que Pasteur « ignorait complètement les nombreux échecs qui lui étaient connus ».

« Selon Pasteur, en France, au début du mois de septembre, 400 000 ovins et 40 000 bovins avaient été inoculés. Pasteur estime les pertes à environ trois moutons pour mille et à environ 0,5 bovin pour mille. Bien sûr, je ne contesterai pas ces chiffres, mais il est nécessaire qu’ils soient accompagnés d’un commentaire. De ces chiffres, on sait seulement qu’un nombre relativement important d’animaux a résisté à l’inoculation. Mais Pasteur ne dit rien de notre préoccupation principale, à savoir si les inoculations ont rempli leur rôle et immunisé les animaux. La valeur des inoculations préventives est déterminée par le nombre d’animaux immunisés. Qu’aurait-on dit de Jenner s’il n’avait pu revendiquer aucun avantage pour l’inoculation, si ce n’est que sur des milliers d’enfants inoculés, seul tel ou tel pourcentage est mort ? Il est certain que rien ne ferait mieux accepter les inoculations contre le charbon que de savoir que des milliers d’animaux ont été protégés contre le charbon. Jusqu’à présent, Pasteur n’a pas été en mesure de le démontrer. Au contraire, les plaintes sur les échecs de l’inoculation s’accumulent et ses faiblesses deviennent de plus en plus évidentes. »

« D’autre part, il est très surprenant que Pasteur, qui a consciencieusement inclus les animaux inoculés avec un vaccin faible afin d’arriver au plus grand nombre d’inoculations avec le plus petit nombre de pertes, ait complètement ignoré les nombreux échecs qui lui étaient connus. »

Koch reproche à Pasteur d’ignorer les résultats défavorables à ses expériences et de ne retenir que ceux qui lui permettent de vanter ses « succès ».

« Ainsi, Pasteur suit la tactique de ne communiquer que les aspects favorables de ses expériences, et d’ignorer les résultats défavorables, même décisifs. Un tel comportement peut être approprié pour la publicité commerciale, mais en science, il doit être totalement rejeté. »

C’est comme Donkey Kong !!!

Il est intéressant de noter que dans son attaque contre les méthodes et les résultats défectueux obtenus par Pasteur, Koch a déclaré que, contrairement à son article de 1876, il avait essayé de reproduire la maladie de manière naturelle en donnant aux moutons des matériaux contenant du charbon. Cependant, il a fait part de certains problèmes liés à ses méthodes. Tout d’abord, les moutons ont reçu des morceaux de pommes de terre, qui ne font pas partie du régime alimentaire naturel des moutons, et les pommes de terre sont connues pour être toxiques pour les moutons, car elles contiennent de la solanine et de la chaconine, qui peuvent être toxiques lorsqu’elles sont consommées. La raison la plus probable pour laquelle Koch a utilisé des pommes de terre est qu’à l’époque, il s’en servait pour cultiver sa bactérie, mais cela posait des problèmes car les tranches étaient souvent envahies par des moisissures. Quoi qu’il en soit, il nourrissait un groupe de moutons avec la rate fraîche d’un cochon d’Inde récemment décédé, enveloppée dans des pommes de terre, et l’autre groupe de moutons était nourri avec des tranches cultivées avec les spores de la bactérie. Alors que les moutons nourris avec les rates ont survécu, les autres moutons nourris avec les pommes de terre cultivées ont succombé à la maladie. Mais c’est là que se pose le deuxième problème. C’est dans la rate que, selon Koch, se trouve la matière de l’anthrax. Dans un autre article datant de 1884, il affirmait que « les spores ne se forment jamais dans le corps » et qu’en prélevant une partie des organes, « on savait que c’étaient les bacilles seuls qui étaient introduits ». En d’autres termes, Koch supposait que la rate ne contenait pas de spores, mais uniquement des bacilles. Or, le bactériologiste italien Giuseppe Sanarelli a démontré que les spores de la maladie du charbon peuvent rester dormantes dans les tissus de l’hôte. Koch ne peut donc pas prétendre que les rates données aux moutons qui ont survécu étaient exemptes de spores dormantes. Ils auraient très bien pu être nourris de spores du charbon dans les matériaux de la rate et survivre, réfutant ainsi une fois de plus son hypothèse.

« J’ai donné à plusieurs moutons du fourrage contenant des bacilles du charbon, mais pas de spores. Quelques autres moutons ont été nourris avec des masses d’anthrax contenant des spores. J’ai nourri les moutons en plaçant soigneusement des morceaux de pommes de terre dans leur bouche. Ces morceaux étaient remplis de matière infectieuse. Ils ont été introduits de manière à ce qu’il n’y ait aucune possibilité de blesser la muqueuse. Un morceau de pomme de terre ne peut certainement pas être considéré comme un aliment piquant. Par ailleurs, les moutons n’étaient nourris que de foin tendre. Les conditions d’infection définies par Pasteur étaient donc totalement exclues. Comme substance exempte de spores, nous avons utilisé la rate fraîche d’un cobaye qui venait de mourir de la maladie du charbon. Comme substance contenant des spores, nous avons utilisé une culture de bacilles du charbon sur pomme de terre qui produisait des spores. Les moutons nourris avec des rates sans spores sont restés en bonne santé. En l’espace de quelques jours, les moutons nourris avec des cultures de bacilles contenant des spores sont tous morts de la maladie du charbon. »

Dans une autre expérience, Koch a tenté de montrer que les moutons qui mangeaient une petite quantité de spores succombaient à la maladie. Dans ce cas, dix moutons ont reçu des pommes de terre auxquelles étaient attachés des fils de soie contenant des spores d’anthrax. Deux moutons témoins n’ont reçu que des pommes de terre. Au cours de l’expérience, quatre des dix moutons nourris avec les fils de soie sont morts. Les deux témoins sont restés en bonne santé. Cependant, une fois de plus, certains problèmes se posent au-delà de l’utilisation de pommes de terre potentiellement toxiques. Tout d’abord, la taille de l’échantillon est extrêmement réduite, avec seulement dix moutons expérimentaux et deux témoins. Il aurait fallu au moins utiliser 10 moutons de contrôle. Deuxièmement, les moutons de contrôle n’ont pas été nourris avec des fils de soie. Pour que la situation soit exactement la même dans les deux groupes, il aurait fallu utiliser des fils de soie dépourvus de spores. Troisièmement, seuls quatre moutons sont morts, tandis que les six autres sont restés en bonne santé. Comment expliquer que 60 % des moutons nourris avec des spores d’anthrax soient restés indemnes de la maladie ?

« Il était donc nécessaire de déterminer si une infection naturelle pouvait également se produire en mangeant une petite quantité de spores de charbon mélangées à du fourrage sous forme de poussière ou de boue provenant d’un marécage ou d’un cours d’eau en crue. C’est pourquoi nous avons entrepris l’expérience suivante : chaque jour, dix moutons ont reçu des morceaux de pommes de terre auxquels étaient attachés des fils de soie contenant des spores de la maladie du charbon. Chaque fil mesurait à peine un centimètre de long. Un an auparavant, chaque fil avait été imprégné d’une petite quantité de spores d’anthrax et séché. Deux moutons, qui ont servi de témoins, ont été gardés dans la même stalle que les autres moutons et ont été soignés de la même manière. Ils n’ontcependant reçu aucun filcontenant des spores. Quatre des dix moutons sont morts. Ces décès sont survenus aux cinquième, sixième, onzième et dix-neuvième jours du test. Les tests d’alimentation ont alors été interrompus. Les deux animaux témoins sont restés en bonne santé. Dans ce test, les cas d’anthrax qui se sont produits sur plusieurs jours et les résultats de la dissection étaient parfaitement conformes à l’anthrax naturel. L’infection naturelle se produit généralement — par temps froid peut-être toujours — lorsque du fourrage contenant des spores d’anthrax pénètre dans l’intestin. Si les moutons mangent du fourrage contenant beaucoup de spores, ils meurent après quelques jours ; s’ils mangent moins de spores, ils meurent plus lentement. »

Bien que Koch ait pu penser que ses expériences reflétaient une voie d’exposition naturelle prouvant que l’ingestion de spores d’anthrax entraînait la maladie, d’autres chercheurs n’ont pas confirmé cette hypothèse. En fait, il est bien connu que « les bacilles du charbon ou les spores en grand nombre peuvent être donnés à des animaux de laboratoire sans produire le charbon, alors qu’ils sont très sensibles à l’inoculation cutanée ». En d’autres termes, les voies d’exposition naturelles aux spores n’entraînent pas de maladie, alors que les injections artificielles non naturelles en entraînent. Ce fait a été confirmé par Sanarelli en 1925, qui a déclaré que de grandes quantités de bacilles ou de spores du charbon peuvent être ingérées sans provoquer de maladie, et que même les injections de sang ne sont pas nocives. En 1922, Holman a essayé de donner des capsules de gélatine contenant des spores « virulentes » à des souris et à des cobayes, ce qui n’a pas eu d’effet nocif, bien que des spores « virulentes » aient été retrouvées dans les excréments :

« Sanarelli (1925) a constaté qu’un grand nombre de bacilles du charbon ou de spores peuvent être administrés par la bouche à des animaux de laboratoire sans les infecter, et que le sang d’un animal infecté peut être injecté par l’anus sans dommage. Des spores virulentes de charbon enfermées dans de petites capsules de gélatine peuvent être avalées par des souris et des cobayes sans dommage, bien que des spores virulentes puissent être retrouvées dans les fèces pendant une semaine (Holman, 1922). »

https://www.ncbi.nlm.nih.gov/books/NBK310481

Dans son article de 1925 intitulé The Pathogenesis of « Internal » or « Spontaneous » Anthrax (Pathogenèse de l’anthrax « interne » ou « spontané »), Sanarelli est allé jusqu’à dire que, même si les opinions de Koch sur le charbon avaient été généralement acceptées, d’autres études sur l’ingestion de spores de charbon contredisaient ses résultats et que personne ne pouvait reproduire la « mycose intestinale du charbon » de l’école de Koch.

« Les vues de Koch ont été très généralement acceptées, mais d’autres observations sur les effets de l’ingestion de bacilles ou de spores du charbon ont donné des résultats contradictoires, et l’auteur considère qu’aucun travailleur n’a réussi à reproduire expérimentalement la “mycose intestinale du charbon” de l’école de Koch.

On constate donc que l’hypothèse selon laquelle les animaux nourris avec des spores d’anthrax tomberaient malades et mourraient de la maladie a été réfutée à plusieurs reprises, non seulement par Koch, mais aussi par divers chercheurs indépendants. En fait, la manière dont un animal contracte l’anthrax dans la nature est toujours considérée comme une inconnue. Elle est considérée comme une théorie, c’est-à-dire une supposition non prouvée, plutôt qu’une théorie scientifique étayée par une hypothèse prouvée. Il existe différentes explications, mais elles varient toutes et sont purement spéculatives.

Si les éléments ci-dessus montrent que Koch n’a pas pu prouver son hypothèse sur les germes par des méthodes naturelles, nous pouvons encore démontrer les failles de ses preuves sur l’anthrax en appliquant ses propres postulats à son travail.

Dans son article de 1882 critiquant Pasteur, Koch a comparé et opposé ses propres méthodes à celles de Pasteur. Il affirme que, dès le départ, il faut examiner “toutes les parties du corps qui sont altérées par la maladie pour établir la présence des parasites, leur répartition dans les organes malades et leur relation avec les tissus du corps”. Ensuite, on peut “commencer à démontrer que les organismes sont pathogènes et qu’ils sont la cause de la maladie. À cette fin, il faut les cultiver purs et, après les avoir entièrement libérés de toutes les parties du corps malade, les inoculer à nouveau à des animaux, de préférence de la même espèce que ceux chez lesquels la maladie a été observée à l’origine”. En guise d’exemple, Koch a cité la tuberculose comme la maladie pour laquelle il avait pleinement satisfait à ses critères. Pourtant, comme le note Carter, il n’a pas suivi ces étapes pour identifier la cause de l’anthrax, et ses articles de 1876 et 1881 révèlent qu’il a suivi une stratégie sensiblement différente. La stratégie utilisée par Koch pour étudier l’anthrax n’a pas seulement réfuté son hypothèse, elle a également échoué à prouver que le microbe était la cause de la maladie, conformément aux critères qu’il s’était fixés.

Tuberculose

« Tous ceux qui côtoient des tuberculeux sont infectés, mais restent en bonne santé tant qu’ils se soignent et maintiennent le sol dans des conditions défavorables à la croissance de la graine. »

Sir William Osler

S’il est clair que Robert Koch n’a pas prouvé son hypothèse concernant l’anthrax et que les preuves qu’il a produites n’ont pas été à la hauteur de ses propres postulats, ce sont ses travaux sur la tuberculose, quelques années plus tard, qui ont finalement valu à Koch d’être considéré comme le “grand chasseur de microbes”. Selon Carter, c’est la découverte par Koch de la bactérie de la tuberculose qui “a probablement fait plus que toute autre réalisation pour établir la domination de la théorie des germes”. En fait, ses travaux sur la tuberculose ont valu à Koch le très convoité prix Nobel en 1905 pour “ses recherches et ses découvertes sur la tuberculose”. C’est dans le cadre de ces travaux que Koch a formulé ses célèbres postulats, qui constituent depuis lors l’étalon-or pour prouver que les microbes sont à l’origine des maladies. Comme j’ai déjà écrit sur les preuves de la tuberculose de Koch, je ne vais pas tout reprendre ici. Cependant, je souhaite examiner son travail pour voir si les expériences reflètent une hypothèse basée sur un phénomène naturel observé et s’il a pu satisfaire ses propres postulats.

Pour “découvrir” la bactérie de la tuberculose au début des années 1880, Robert Koch a inventé des procédures de coloration spéciales afin de pouvoir facilement visualiser la bactérie dans les organes des hôtes malades. Au début de son article de 1882 intitulé “L’étiologie de la tuberculose, Koch a déclaré que le but de son étude était de “démontrer l’existence d’une structure parasitaire étrangère dans l’organisme, qui peut éventuellement être désignée comme l’agent causal”. Cependant, Koch savait que la corrélation n’est pas synonyme de causalité et que, par conséquent, la “corrélation entre la présence d’affections tuberculeuses et de bacilles” ne signifiait pas nécessairement que ces phénomènes étaient liés par un lien de causalité. Cependant, Koch estimait qu’ » un haut degré de probabilité de cette relation causale peut être déduit de l’observation que les bacilles sont généralement plus fréquents lorsque le processus de la tuberculose se développe ou progresse, et qu’ils disparaissent lorsque la maladie devient silencieuse ». Contrairement à l’opinion de Koch, il s’avère, comme l’a noté le Dr Herbert Snow, que la bactérie est régulièrement absente lorsque la maladie se développe, et qu’elle n’est pas rarement absente chez les personnes à un stade très avancé de la maladie.

« Le germe ne fait pas son apparition dans les expectorations des malades avant que la maladie n’ait duré plusieurs mois. Le Dr H. J. Loomis (Medical Record, 29 juillet 1905) donne la date moyenne de sa détection à trois mois et un tiers après le début de la maladie, tel que déterminé par les signes physiques. La longue expérience du Dr Muthu au Mendip Sanatorium lui permet d’affirmer qu’il n’est pas rare qu’elle soit absente de l’expectoration des patients à un stade très avancé de la maladie et présentant des “lésions pulmonaires étendues”. » (Tuberculose pulmonaire et traitement au sanatorium, 1910.)

« Le professeur Middendorp nie l’existence du bacille dans les nodules tuberculeux de formation récente, avant l’apparition des processus dégénératifs. Spina, Charrin et Kuskow n’ont absolument pas réussi à le détecter dans la tuberculose miliaire aiguë, où, si la théorie causale de Koch était vraie, il devrait être particulièrement abondant. »

Curieusement, Koch a même noté qu’il avait lui-même trouvé des cas de tuberculose où la bactérie n’était pas présente, ce qui semble contredire son affirmation d’un « haut degré de probabilité de la relation de cause à effet ».

« Afin de me faire une opinion sur la présence de bacilles tuberculeux dans les expectorations de phtisie3, j’ai examiné à plusieurs reprises les expectorations d’une grande série de malades et j’ai constaté que, dans certains cas, il n’y avait pas de bacilles et que, cependant, dans environ la moitié des cas, il y avait des bacilles extraordinairement nombreux, dont certains étaient sporogènes. »

Selon Koch, pour prouver que le bacille de la tuberculose est la véritable cause de la maladie, il faudrait l’isoler, le débarrasser de tous les contaminants et le cultiver dans un état de pureté. Cette culture pure devrait ensuite être introduite dans un animal sain et provoquer exactement la même maladie.

« Pour prouver que la tuberculose est provoquée par la pénétration des bacilles et qu’il s’agit d’une maladie parasitaire définie provoquée par la croissance et la reproduction de ces mêmes bacilles, les bacilles doivent être isolés du corps et cultivés si longtemps en culture pure qu’ils soient débarrassés de toute production malade de l’organisme animal qui pourrait encore adhérer aux bacilles. Ensuite, les bacilles isolés doivent transmettre la maladie à d’autres animaux et provoquer le même tableau pathologique que celui qui peut être obtenu par l’inoculation à des animaux sains de matières tuberculeuses se développant naturellement. »

Koch pensait que la source « la plus essentielle » d’« infection » était « l’expectoration des malades » et qu’il s’agissait de la principale source de transmission de la maladie, affirmant que les patients atteints de tuberculose laryngée ou pulmonaire qui expectoraient de grandes quantités de bacilles étaient particulièrement « infectieux ». Ainsi, si la voie hypothétique de l’« infection » naturelle est l’expulsion de grandes quantités de bacilles par la toux, il serait logique d’essayer d’« infecter » des hôtes sains de la même manière par la voie de l’aérosolisation. Cependant, afin de démontrer que les bacilles sont à l’origine de la maladie, Koch s’est tourné vers les cochons d’Inde, un animal dont il a admis qu’il n’avait jamais vu de cas de tuberculose naturelle après avoir examiné des centaines de cochons d’Inde achetés. Il n’a constaté la maladie qu’après avoir gardé les cobayes en captivité pendant des mois, et la maladie observée ne ressemblait qu’occasionnellement à celle observée chez l’Homme.

« Sur des centaines de cochons d’Inde achetés et parfois disséqués et examinés, je n’ai jamais trouvé un seul cas de tuberculose. La tuberculose spontanée ne se développe qu’occasionnellement et jamais avant un délai de trois ou quatre mois après que les autres animaux de la pièce ont été infectés par la tuberculose. Chez les animaux qui sont tombés malades à la suite d’une tuberculose spontanée, les glandes bronchiques deviennent très enflées et pleines de pus et, dans la plupart des cas, les poumons présentent une grande masse chique avec une décomposition étendue au centre, de sorte qu’elle ressemble parfois aux processus similaires dans le poumon humain… »

Pour « infecter » les cobayes, plutôt que de tenter une exposition naturelle par aérosolisation de la bactérie, Koch leur a injecté la bactérie cultivée dans l’abdomen, près de la glande inguinale. Il est évident que l’injection d’une bactérie cultivée dans l’abdomen d’un animal n’est pas la voie d’exposition naturelle supposée. Il est intéressant de noter que Koch a constaté que les animaux auxquels il avait inoculé la bactérie de manière expérimentale ont développé une maladie complètement différente. Les animaux injectés expérimentalement ont succombé à la maladie beaucoup plus rapidement et présentaient un tableau pathologique différent, ce qui, selon Koch, permettait de faire plus facilement la différence entre les cas de tuberculose induits artificiellement et les cas de tuberculose spontanée observés chez les animaux.

« Les animaux auxquels on a inoculé la tuberculose présentent une image complètement différente. L’inoculation des animaux a lieu dans l’abdomen, près de la glande inguinale. Celle-ci commence par gonfler et donne une indication précoce et indubitable du succès de l’inoculation. Étant donné qu’une plus grande quantité de matériel infectieux est présente au début, l’infection progresse beaucoup plus rapidement que l’infection spontanée, et dans les coupes de tissus de ces animaux, la rate et le foie présentent des changements plus importants dus à la tuberculose que les poumons. Il n’est donc pas du tout difficile de différencier la tuberculose induite artificiellement de la tuberculose spontanée chez les animaux de laboratoire. »

Koch a indiqué qu’il avait injecté les animaux de différentes manières : sous la peau, dans la cavité péritonéale, dans la chambre antérieure de l’œil ou directement dans la circulation sanguine.

« Les résultats d’un certain nombre d’expériences d’inoculation de cultures de bacilles à un grand nombre d’animaux, inoculés de différentes manières, ont tous abouti aux mêmes résultats. De simples injections sous-cutanées, ou dans la cavité péritonéale, ou dans la chambre antérieure de l’œil, ou directement dans le flux sanguin, ont toutes produit la tuberculose, à une seule exception près. »

Il a mentionné que, pour que la maladie se déclare avec le plus de succès possible, les animaux doivent recevoir des injections qui pénètrent le tissu sous-cutané, la cavité péritonéale et la chambre oculaire de l’œil. Si la blessure n’est que superficielle, elle n’entraîne pas régulièrement la maladie.

« Si l’on veut rendre un animal tuberculeux avec certitude, le matériel infectieux doit être introduit dans le tissu sous-cutané, dans la cavité péritonéale, dans la chambre oculaire, bref, dans un endroit où les bacilles ont la possibilité de se propager dans une position protégée et où ils peuvent se focaliser. Les infections provenant de plaies cutanées superficielles ne pénétrant pas dans le tissu sous-cutané, ou de la cornée, ne réussissent qu’exceptionnellement. »

La nécessité d’une pénétration profonde pour réussir à « infecter » et à provoquer une maladie est la façon dont Koch a rationalisé la raison pour laquelle les gens pouvaient régulièrement se couper les mains avec des matériaux « infectieux » et rester absolument exempts de maladie. Il estimait qu’« il serait difficilement compréhensible que la tuberculose ne soit pas beaucoup plus fréquente qu’elle ne l’est en réalité, étant donné que pratiquement tout le monde, en particulier dans les endroits densément peuplés, est plus ou moins en contact avec la tuberculose ». Koch a noté que, contrairement à l’anthrax, la bactérie de la tuberculose « ne trouve les conditions de son existence que dans le corps de l’animal » et non « à l’extérieur de celui-ci dans les conditions habituelles et naturelles ». On peut donc dire que la bactérie de la tuberculose n’est pas un envahisseur pathogène extérieur, mais plutôt un microbe qui n’existe qu’à l’intérieur de l’organisme vivant.

Il est clair, à la lecture de l’article de Koch sur la tuberculose, qu’il n’a jamais tenté de recréer les conditions supposées, à partir du phénomène naturel observé, pour qu’un hôte sain devienne « infecté ». Comme Pasteur avant lui, Koch s’est plutôt attaché à créer une maladie artificielle ressemblant à ce que l’on appelait la tuberculose, en procédant à diverses injections non naturelles de bactéries cultivées, d’une manière que les animaux n’auraient jamais connue dans la nature. La création d’une maladie artificielle par injection ne dit rien sur ce qui se passe dans la nature et ne prouve absolument pas que ce qui est injecté est à l’origine de la maladie par rapport à la procédure invasive et au traumatisme infligé aux animaux.

Si certains considèrent les travaux de Koch sur la tuberculose comme « l’une des déclarations les plus définitives de l’histoire de la médecine », ceux-ci ne sont pas acceptés par tous. En fait, comme beaucoup critiquaient ses découvertes, Koch a décidé en 1883 de répondre à ses détracteurs dans un document intitulé Kritische Besprechung der gegen die Bedeutung der Tuberkelbazillen gerichteten Publikationen (Analyse critique des publications sur le rôle de la tuberculose). Koch commence par déplorer que son travail n’ait pas été reconnu par les « représentants renommés de l’anatomie pathologique ». Il supposait qu’ils liraient son travail, mais admettait que « cette supposition, cependant, était erronée. Jusqu’à présent, du moins, rien n’a été annoncé et il faut s’attendre à de telles annonces dans un avenir proche ». Koch estimait que ses détracteurs s’accrochaient à de vieilles traditions et « s’agrippaient à des pailles pour se sauver des flots entrants » de son travail. Il était irrité par la satisfaction qu’ils éprouvaient à trouver des cas où les bacilles étaient observés chez des personnes en bonne santé ou apparaissaient dans d’autres maladies, contredisant ainsi son premier postulat.

« Avec quelle joie a-t-on appris que des bacilles tuberculeux avaient également été trouvés dans le contenu intestinal de personnes saines ou dans un seul cas de bronchectasie. »

Dans un cas, Koch a tenté d’affirmer que la découverte par Cramer de la bactérie de la tuberculose chez 20 personnes en bonne santé était un cas d’erreur d’identité, tout en soulignant à nouveau que cette découverte avait été saluée par de nombreuses personnes.

« Il est facile de voir à quel point les prétendues découvertes de Crämer étaient loin d’ébranler la nouvelle doctrine de la tuberculose, et pourtant la nouvelle que le bacille tuberculeux avait été trouvé chez 20 personnes en bonne santé a été accueillie de toutes parts comme une parole rédemptrice. »

Koch reconnaît que le Dr Rollin Gregg lui a envoyé un article exprimant sa conviction « que la phtisie n’a pour cause qu’une perte d’albumine dans le sang », Koch déclarant que le Dr Gregg lui a dit que « des fils de fibrine sont censés apparaître dans chaque tubercule et j’ai manifestement pris ces fils pour des bactéries ». Faisant référence aux conclusions de Max Schottelius selon lesquelles le tableau clinique de la tuberculose varie d’une espèce animale à l’autre, Koch a fait remarquer qu’il en allait de même pour l’anthrax, le tableau clinique étant très différent chez l’Homme et chez l’animal, ce qui empêche d’appliquer à l’Homme les résultats de l’expérimentation animale, car ils ne reflètent pas la maladie telle qu’elle est observée chez l’Homme.

« Je voudrais également rappeler la même situation en ce qui concerne l’anthrax. L’évolution clinique et anatomique de l’anthrax est tellement différente chez l’Homme que, sans tenir compte de la même cause, à savoir le bacille du charbon, il faudrait en faire des tableaux cliniques complètement différents, et qu’en outre, les formes d’anthrax chez l’Homme diffèrent considérablement de celles des animaux et les unes des autres. »

Tout en essayant de défendre le fait que les gens pouvaient manger de la viande contaminée par la bactérie de la tuberculose sans effets néfastes, Koch a jeté une ombre supplémentaire sur ses propres découvertes concernant l’anthrax, en notant : « Car je connais, par ma propre expérience, de nombreux cas dans lesquels de la viande contaminée par l’anthrax a été consommée sans aucun dommage ». Koch s’est ensuite opposé au médecin allemand Peter Dettweiler, qui considérait les bacilles comme un effet secondaire de la maladie plutôt que comme la cause de celle-ci. Dettweiler estimait que les expériences d’injection de Koch ne prouvaient rien puisque les animaux n’avaient jamais contracté la maladie typique de la tuberculose. Koch a déclaré qu’il pensait que si l’on cherchait, on pourrait trouver un animal qui, en inhalant la bactérie, contracterait la même maladie que celle observée chez l’Homme. Cependant, Koch ne l’a jamais démontré lui-même.

« Il considère également les bacilles tuberculeux comme un effet secondaire de la tuberculose et non comme sa cause, bien qu’il ait trouvé des bacilles chez 87 phtisiques presque sans exception. Selon lui, les résultats de la vaccination obtenus avec les bacilles ne peuvent rien prouver, car chez les animaux, on n’obtient qu’une tuberculose miliaire et jamais le tableau typique de la phtisie. »

« Je ne doute pas que si l’on voulait le rechercher, on finirait par trouver des espèces animales qui, après avoir inhalé de si petites quantités de substance tuberculeuse qu’elles ne présentent qu’un ou quelques foyers d’infection dans les poumons, présenteraient également le tableau typique de la phtisie humaine. »

Au lieu de cela, Koch a commencé à injecter de diverses manières sa bactérie cultivée à des animaux afin de prétendre que c’était la bactérie qui était à l’origine de la maladie. Or, Koch savait pertinemment que l’injection d’autres substances à des animaux, comme le verre, le métal, le bois, etc., entraînerait également la tuberculose. En d’autres termes, les bacilles ne sont pas nécessaires à l’apparition de la maladie. Il insiste également sur la différence entre « tuberculose vaccinale et tuberculose spontanée », soulignant une fois de plus que la maladie artificielle n’est pas le reflet de la maladie « naturelle ».

« Lors des essais d’infection, destinés à vérifier l’efficacité des cultures, je n’ai jamais laissé les animaux en vie pendant 86 jours, mais je les ai tués au plus tard à la fin de la quatrième semaine. Car, comme on le sait, les lapins, qu’ils soient vaccinés avec du verre, du bois, du métal, etc. ou pas du tout, s’ils sont laissés suffisamment longtemps dans des clapiers infectés, peuvent finir par devenir tuberculeux. J’insiste sur cette distinction entre la tuberculose vaccinale et la tuberculose spontanée. »

Le fait que l’injection de matériaux autres que la bactérie de la tuberculose dans les animaux puisse provoquer la même maladie a été noté par le Dr Rollin Gregg dans son livre de 1889 intitulé Consumption : Its Cause and Nature (La tuberculose pulmonaire : sa cause et sa nature). Il y présente des extraits du travail du professeur Henry Formad sur des centaines d’animaux qu’il divise en deux classes : les scrofuleux4 et les non-scrofuleux. Le lapin et le cochon d’Inde, couramment utilisés par Koch, appartiennent à la classe des animaux scrofuleux. Chez ces animaux, toute substance injectée sous la peau provoque la tuberculose. L’injection de la bactérie sous la peau chez des animaux non scrofuleux (tels que les chats, les chiens et d’autres animaux plus grands) n’entraînera pas la maladie, mais si les injections sont faites dans la chambre antérieure de l’œil, les animaux non scrofuleux développeront la maladie. Cependant, si d’autres types de matières sont introduits dans les mêmes parties de l’œil, même du sable ordinaire, la même maladie se produira. Comme l’a souligné le Dr Gregg, ces faits annihilent l’affirmation selon laquelle le bacille de la tuberculose est la cause spécifique de la maladie, car toute substance injectée de la bonne manière dans l’animal concerné entraînera la tuberculose.

« Le 18 octobre 1882, le professeur H. F. Formad, de l’université de Pennsylvanie, a lu une communication, sur invitation, devant la Philadelphia County Medical Society, sur “Le bacille de la tuberculose et certains points anatomiques qui suggèrent la réfutation de sa relation étiologique avec la tuberculose”, publiée dans le Philadelphia Medical Times du 18 novembre 1882. Après avoir indiqué qu’il avait examiné “au microscope les tissus d’environ cinq cents animaux” pour le National Board of Health, “ainsi que ceux d’un nombre similaire ou encore plus important d’animaux divers utilisés par les membres” de ses “classes de pathologie expérimentale dans le laboratoire de l’université au cours des cinq dernières années”, il divise tous les animaux en deux classes, les scrofuleux et les non-scrofuleux, de la manière suivante :

La classe des scrofuleux comprend incontestablement le lapin et le cochon d’Inde apprivoisés, ainsi que tous les animaux enfermés, tandis que la classe des non-scrofuleux comprend le chat, le chien et les animaux en liberté.

Il dit ensuite que si les animaux scrofuleux sont inoculés, ou si on leur introduit sous la peau une matière quelconque, qu’elle soit tuberculeuse, diphtérique ou autre, même du “verre en poudre chimiquement propre”, et qu’ils survivent aux premiers résultats de l’expérience, un grand nombre d’entre eux meurent de la tuberculose. Mais l’inoculation d’animaux non scrofuleux de la même manière, c’est-à-dire sous la peau, même avec du pus tuberculeux pur, ne produira pas de tuberculose. Cette classe exige l’introduction de la matière inoculante dans le péritoine ou dans la chambre antérieure de l’œil, qu’il s’agisse de pus tuberculeux ou de ce qu’on appelle les bacilles de la tuberculose, afin de produire des tubercules chez ces animaux. Et là encore, si l’on introduit d’autres types de matières dans les mêmes parties, même du sable ordinaire, les résultats sont les mêmes que si l’on utilisait de la matière tuberculeuse. Comme on le verra, cela annihile toute prétention à une cause spécifique des tubercules. Ses affirmations sont si positives et sans équivoque qu’elles sont abondamment citées, et même l’ensemble de la conférence pourrait être cité avec avantage, tant elle est importante et directement applicable à notre sujet. »

Le Dr Gregg a souligné les failles des méthodes de Koch, notant qu’il n’a jamais eu besoin d’utiliser de cultures de sa bactérie pour produire la maladie chez les animaux. Koch savait qu’il lui suffisait d’injecter les animaux non scrofuleux dans l’œil et les animaux scrofuleux où il le souhaitait pour créer la maladie.

« Koch a incontestablement produit la tuberculose dans le péritoine de ses chats et de ses chiens ». Et il « aurait tout aussi bien pu utiliser du sable pour l’inoculation et conserver ses précieuses cultures du bacille de la tuberculose pour les inoculer dans d’autres parties du corps des chiens, des chats, des rats, etc. qui ne sont pas atteints de la maladie de Crohn. »

« Pourquoi le Dr Koch a-t-il inoculé ces derniers animaux uniquement dans le péritoine et la chambre antérieure de l’œil, alors qu’il a inoculé les animaux scrofuleux (lapins et cochons d’Inde) dans n’importe quelle partie du corps ? C’est un mystère. Essayons de le résoudre. »

Le Dr Gregg a poursuivi en citant d’autres déclarations accablantes du professeur Formad concernant ses travaux sur la diphtérie. Le professeur Formad a souligné, comme l’a également fait Koch, que l’inoculation à des lapins de matières étrangères non tuberculeuses et parfaitement inoffensives, telles que des morceaux de verre, de métal, de bois, etc. entraînait la mort par tuberculose. Le professeur Formad a déclaré que le Dr Wood et lui-même avaient vu plus de 100 lapins mourir de la tuberculose sans que la bactérie leur ait été injectée et sans qu’ils aient eu l’intention de provoquer la maladie. Leurs résultats ont été confirmés par les travaux du Dr O. C. Robinson.

« Les expériences sur la diphtérie menées par le professeur H. C. Wood et moi-même ont montré que les lapins qui ne succombaient pas à la maladie au bout de quelques jours mouraient presque tous de la tuberculose au bout de quatre à six semaines ou plus. Afin de voir si la matière diphtérique agissait spécifiquement dans la production de la tuberculose ou si cette dernière était simplement le résultat d’un processus inflammatoire, nous avons expérimenté en inoculant aux lapins des matières étrangères non tuberculeuses et parfaitement inoffensives, telles que des morceaux de verre, de métal, de bois, etc. Le résultat a été, dans la majorité des cas, des masses chiques et suppurantes au point d’inoculation, suivies dans le courant d’un mois ou plus par la mort due à la tuberculose. »

« Aujourd’hui, je peux témoigner avec certitude que le Dr Wood et moi-même avons vu mourir de la maladie tuberculeuse plus de cent lapins sur cinq ou six cents opérés, sans qu’un seul de ces animaux ait été sciemment inoculé avec une matière tuberculeuse quelconque, et sans que nous ayons eu l’intention d’étudier la tuberculose chez eux. Tous les lapins et cobayes soumis à des blessures sur une partie quelconque du corps au cours des diverses expériences et survivant aux effets immédiats ou aigus de celles-ci, n’ont eu, à quelques exceptions près, qu’un seul destin, celui de mourir de tuberculose, à condition qu’ils aient vécu assez longtemps après une interférence traumatique pour développer la lésion en question. »

« Ces faits ont également été particulièrement bien mis en évidence par les résultats d’une série soigneusement menée de cent expériences spéciales sur la tuberculose, exécutées par le Dr O. C. Robinson, dans le laboratoire de pathologie de l’université de Pennsylvanie. »

« Chez les animaux non scrofuleux, c’est-à-dire autres que les lapins et les cobayes, ni Robinson, ni Wood, ni moi-même, ni aucun autre expérimentateur n’avons jamais réussi à produire la tuberculose par inoculation, sauf dans le péritoine ou la chambre antérieure de l’œil. »

Le professeur Formad a fait remarquer que personne, y compris Koch, n’avait jamais produit la tuberculose chez des animaux qui n’étaient pas prédisposés à la maladie par le biais d’injections dans la peau. Koch changeait sa méthode d’injection en sachant comment obtenir le résultat qu’il souhaitait en fonction de l’animal sur lequel il expérimentait.

« Personne, y compris Koch, n’a jamais produit la tuberculose chez des animaux qui n’y étaient pas prédisposés, par inoculation dans la peau, par exemple. Les comptes rendus des expériences de Koch le prouvent et montrent que lorsqu’il voulait produire la tuberculose chez le lapin ou le cobaye au moyen de son bacille, il inoculait indistinctement dans n’importe quelle partie du corps ; mais s’il voulait démontrer les effets de son parasite chez des animaux non scrofuleux, il inoculait promptement dans la chambre antérieure de l’œil ou, de préférence, dans le péritoine. Après ce qui a été expliqué à propos de l’inflammation des membranes séreuses, il est évident que ces expériences ne prouvent pas que le bacille soit la cause de la tuberculose. »

Le Dr Gregg a résumé les points soulevés par le professeur Formad, en déclarant que la capacité de produire la tuberculose avec des injections de substances non tuberculeuses prouvait que le bacille n’était pas la cause de la maladie, et que les médecins devaient cesser de perdre leur temps à poursuivre la tuberculose en tant que maladie contagieuse.

« Et pourtant, l’insertion de “morceaux de verre, de métal, de bois, etc.” dans les mêmes parties produirait la tuberculose tout aussi facilement que le pus tuberculeux ou le bacille de la tuberculose ; tandis que la simple insertion des mêmes matériaux non tuberculeux sous la peau des animaux scrofuleux produisait identiquement les mêmes résultats que la matière tuberculeuse sur cette classe. Peut-on prouver plus positivement et plus absolument le caractère non spécifique de la matière tuberculeuse ou du bacille de la tuberculose en tant qu’agent infectieux ? Si le bois, le verre, etc., produisent exactement les mêmes résultats que le soi-disant parasite des tubercules, lorsqu’ils sont utilisés de la même manière, les médecins feraient mieux de consacrer leur temps à d’autres choses que de le gaspiller à essayer de prouver que la tuberculose est une maladie contagieuse spécifique. »

Ironiquement, Koch lui-même a confirmé la nature non contagieuse de la tuberculose, déclarant en 1884 que des tentatives « ont été faites à plusieurs reprises pour prouver la nature contagieuse de la phtisie, mais elles doivent être considérées comme des échecs, car de telles opinions n’ont jamais été acceptées par les scientifiques ». Il admet que « dans l’ensemble, les médecins considèrent la phtisie comme une maladie non contagieuse, résultant d’anomalies constitutionnelles ».

Dans son article de 1884 intitulé The Bacillus Tuberculosis and the Etiology of Tuberculosis-Is Consumption Contagious (Le bacille de la tuberculose et l’étiologie de la tuberculose — la tuberculose pulmonaire est-elle contagieuse ?), le professeur Formad énumère les nombreux chercheurs qui ont obtenu les mêmes résultats en produisant la tuberculose avec d’autres substances que la bactérie de la tuberculose :

Les observateurs suivants font tous référence à des expériences plus ou moins nombreuses, dans lesquelles la tuberculose a résulté de l’inoculation de substances inoffensives ou de matières spécifiques autres que tuberculeuses :

Comme le montrent clairement les déclarations du Dr Gregg et du professeur Formad, les travaux de Koch sur la bactérie de la tuberculose étaient essentiellement un écran de fumée destiné à étayer la « théorie » des germes. Peu importe que Koch ait utilisé une culture pure de son bacille de la tuberculose ou des débris de verre, de métal, de sable, etc. puisque c’est le fait même d’injecter des substances étrangères de la bonne manière dans les animaux qui a provoqué la maladie. S’il avait concentré ses travaux sur la sciure de bois, Koch aurait pu démontrer de manière convaincante qu’elle était à l’origine de la tuberculose grâce à ses injections expérimentales. Comme ses expériences ne reflétaient pas la voie naturelle d’« infection » qu’il supposait, Robert Koch a été induit en erreur par les résultats pseudo-scientifiques qu’il a obtenus grâce à ses méthodes non naturelles qui ont créé des maladies artificielles chez les animaux.

Comme Koch n’a pas tenté d’étayer son hypothèse par des preuves scientifiques valables reflétant un phénomène naturel observé, on peut dire que son hypothèse, au mieux, n’a pas été prouvée. Toutefois, lorsque nous examinons si les preuves qu’il a apportées concernant la tuberculose satisfont aux postulats mêmes qu’il a établis, nous pouvons fermer la porte à l’hypothèse selon laquelle le bacille de la tuberculose est la cause de la maladie, car elle n’a pas satisfait aux critères de Koch dès le départ. Le bacille a été trouvé chez des hôtes sains (même par Koch lui-même), absent chez des hôtes malades et trouvé dans des cas d’autres maladies, échouant ainsi au tout premier postulat. Nous savons aujourd’hui que la bactérie est présente chez environ un quart de la population mondiale et que le « risque » de tomber malade au cours de la vie n’est que de 5 à 10 %. La bactérie se trouve donc le plus souvent chez des personnes en bonne santé. Bien que Koch ait réussi à obtenir une culture pure, les résultats obtenus par l’injection non naturelle du bacille dans des animaux, recréant la maladie et montrant qu’il en était la cause principale, ont été réfutés à plusieurs reprises par de nombreux autres chercheurs qui ont obtenu les mêmes résultats sans utiliser le bacille. Ces résultats réduisent à néant les preuves utilisées par Koch pour étayer les troisième et quatrième postulats. En fin de compte, le travail « monumental » de Koch sur la tuberculose, qui lui a valu le prix Nobel, n’était pas si monumental que cela et, comme il l’a admis dans les commentaires de la réimpression de son article de 1882, son travail sur les cobayes n’a pas prouvé de manière concluante que la bactérie était à l’origine de la maladie chez l’Homme.

« Koch a également eu la chance que la souche du bacille tuberculeux pathogène pour l’Homme puisse être transférée aussi facilement à des cobayes. Sans un animal de laboratoire présentant des symptômes caractéristiques lors de l’inoculation de matériel tuberculeux, son travail aurait été beaucoup plus difficile. Il aurait pu cultiver l’organisme avec succès, mais il aurait été beaucoup plus difficile de prouver que cet organisme était l’agent causal de la tuberculose. Il convient de noter que, dans cet article, il n’apporte pas la preuve définitive que l’organisme qu’il a isolé en culture pure est réellement la cause de la tuberculose humaine. Cette preuve ne pourrait être apportée que par des inoculations chez l’Homme. Comme cela n’est pas possible, nous ne pouvons que déduire que l’organisme isolé est à l’origine de la maladie humaine. Un tel dilemme se pose toujours à l’investigateur des maladies humaines. Il doit apprendre à vivre avec. »

Choléra

« La seule possibilité d’apporter une preuve directe que les bacilles virgules causent le choléra est l’expérimentation animale. Il faut montrer que le choléra peut être généré expérimentalement par des bacilles virgules. »

Robert Koch
Koch, R. (1987f). Conférence sur le choléra [1884]. Dans Essais de Robert Koch. Praeger.

Lorsque Robert Koch s’est mis à la recherche du microbe qu’il pourrait présenter comme la cause des symptômes de la maladie connue sous le nom de choléra, il a déclaré que la seule possibilité de fournir une preuve directe était de procéder à des expériences sur des animaux qui recréaient la maladie. John Snow avait déjà émis l’hypothèse que l’eau contaminée par les eaux usées et les matières en décomposition était à l’origine des épidémies de choléra. Il serait donc logique de conclure que la consommation d’eau contenant des cultures pures de l’agent supposé responsable serait, au minimum, le moyen de prouver qu’il est la cause de la maladie à laquelle il est associé. Il est intéressant de noter que, dans le cas du choléra, Koch a presque réussi à faire quelque chose de similaire dans ses expériences sur les animaux. Il a en effet tenté d’« infecter » divers animaux en leur donnant des substances cholériques pures et impures. Il a également eu recours à des injections sous-cutanées et intraveineuses, ainsi qu’à des injections dans le duodénum de selles à l’eau de riz et de cultures pures de bacilles virgules. Il a détaillé un grand nombre des méthodes qu’il a utilisées pour tenter de rendre les animaux malades dans son article Erste Konferenz zur Erörterung der Cholerafrage am 26. Juli 1884 in Berlin (Première conférence pour discuter de la question du choléra, le 26 juillet 1884 à Berlin).

Dans cet article, Koch a noté que la seule façon de fournir des preuves directes de l’effet cholérique du bacille virgule était de procéder à des expériences sur les animaux, ce qui, selon lui, « si l’on suit les informations données par les auteurs, est simple et devrait également pouvoir être réalisé sans difficulté ». Cependant, les preuves qu’il a apportées ont en fait montré qu’il y avait pas mal de difficultés. Pour commencer, M. Koch a admis qu’il n’existait « aucun exemple fiable d’animaux contractant spontanément le choléra en période de choléra ». Par conséquent, la recherche d’un animal de laboratoire capable de contracter la maladie relevait essentiellement de la conjecture. Koch a donc décidé de commencer à tenter de recréer expérimentalement la maladie à l’aide de 50 souris, en essayant de les « infecter » de toutes les manières possibles. Il a nourri les souris avec les excréments de victimes du choléra ainsi qu’avec le contenu des intestins de cadavres. Il leur a donné aussi bien des matières « fraîches » que des matières en décomposition. Cependant, malgré les tentatives répétées de rendre les souris malades en leur donnant le contenu des victimes du choléra, elles sont restées en bonne santé. Koch a essayé d’« infecter » des singes, des chats, des poulets, des chiens et divers autres animaux, sans succès, même en leur donnant des cultures pures du bacille virgule.

« J’ai emmené 50 souris de Berlin et j’ai effectué toutes les expériences possibles sur les infections. Tout d’abord, elles ont été nourries avec les matières fécales de patients atteints de choléra et le contenu intestinal de cadavres de cholériques. Nous avons respecté au plus près les procédures expérimentales et les avons nourris non seulement avec du matériel frais, mais aussi après la décomposition des fluides. Bien que les expériences aient été répétées à plusieurs reprises avec du matériel provenant de nouveaux cas de choléra, nos souris sont restées en bonne santé. Des expériences ont ensuite été menées sur des singes, des chats, des poulets, des chiens et divers autres animaux que nous pouvions nous procurer, mais nous n’avons jamais réussi à obtenir quelque chose de semblable au processus du choléra chez les animaux. Nous avons également réalisé des expériences avec des cultures de bacilles virgules. Nous les avons également nourris à tous les stades de développement possibles. »

Les expériences d’alimentation n’ayant rien donné de semblable au processus du choléra chez les animaux, Koch a décidé d’essayer des méthodes plus invasives qui consistaient à ouvrir l’abdomen des animaux et à injecter les liquides directement dans les intestins grêles. Il a même essayé d’utiliser un long cathéter pour injecter des cultures pures à des singes aussi haut que possible dans l’intestin. Cependant, même en utilisant ces voies d’exposition invasives et non naturelles, aucun des animaux n’est tombé malade.

« Il a fallu en conclure que l’échec des expériences d’alimentation pouvait être dû à ce comportement des bacilles virgules. C’est pourquoi l’expérience a été modifiée de manière à ce que les substances soient administrées directement dans l’intestin des animaux. L’abdomen a été ouvert et le liquide injecté directement dans l’intestin grêle à l’aide d’une seringue Pravaz. Les animaux ont très bien supporté cette procédure, mais ils ne sont pas tombés malades. »

« Nous avons également essayé d’injecter le choléra aux singes le plus haut possible dans l’intestin à l’aide d’un long cathéter. Cela a également très bien fonctionné, mais les animaux sont restés en bonne santé. »

Une seule expérience avait donné à Koch l’espoir de produire la maladie chez les animaux, et elle consistait à injecter le bacille virgule directement dans la circulation sanguine des lapins et dans la cavité abdominale des souris. Les lapins sont tombés malades, mais ils ont fini par guérir. Les souris sont mortes dans les 24 à 48 heures. Cependant, pour obtenir cet effet « pathogène », Koch a admis qu’ils avaient dû utiliser des quantités assez importantes, ce qui ne correspondait pas aux observations faites lors d’expériences antérieures sur d’autres maladies, où les quantités les plus faibles étaient appliquées pour obtenir un effet. Voulant savoir si l’effet qu’il produisait était observé dans la nature, les indigènes ont assuré à Koch qu’il n’avait jamais été observé dans les populations animales résidant dans les régions où la maladie se déclarait chez l’Homme. Ainsi, malgré sa capacité à créer une maladie artificielle chez les lapins et les souris dans ce cas particulier, Koch a finalement conclu qu’un véritable processus de choléra ne pouvait pas être induit artificiellement chez les animaux et que cette preuve devait être écartée.

« La seule expérience dans laquelle les bacilles virgules ont eu un effet pathogène, et qui m’a donc donné au départ l’espoir d’un résultat, a consisté à injecter des cultures pures directement dans le sang de lapins ou dans la cavité abdominale de souris. »

« Les lapins sont apparus très malades après l’injection, mais se sont rétablis après quelques jours. Les souris, en revanche, sont mortes 24 à 48 heures après l’injection et les bacilles virgules ont pu être détectés dans leur sang. Cependant, il faut administrer aux animaux des quantités assez importantes ; ce n’est pas comme dans d’autres expériences d’infection, où l’on applique les plus petites quantités et où l’on obtient tout de même un effet. Afin d’obtenir la certitude qu’il est possible d’infecter des animaux avec le choléra, je me suis renseigné partout en Inde pour savoir si des maladies similaires avaient déjà été observées chez les animaux. Au Bengale, on m’a assuré que rien de tel ne s’était jamais produit. Dans cette province, la population est extrêmement dense et de nombreux animaux cohabitent avec les habitants. On pourrait s’attendre à ce que dans ce pays, où le choléra est partout et constamment présent, les animaux transportent assez souvent l’agent infectieux du choléra sous une forme aussi efficace que celle de l’Homme dans leur tube digestif, mais on n’a jamais observé que les animaux avaient des accidents semblables à ceux du choléra. Je pense donc également que tous les animaux dont nous disposons pour de telles expériences, ainsi que ceux qui sont habituellement en contact avec l’Homme, sont tous immunisés contre le choléra et qu’il est impossible d’induire artificiellement chez eux un véritable processus cholérique. Nous devons donc nous passer de cette preuve. »

Avec son incapacité à reproduire le choléra chez les animaux, ce qui, selon Koch dans une dépêche du 2 février 1884, aurait été souhaitable mais s’est avéré impossible, il a abandonné le critère essentiel qu’il considérait quatre mois auparavant comme le seul moyen de prouver directement que le bacille virgule était la véritable cause du choléra.

« Dans sa cinquième dépêche du 7 janvier 1884, Koch annonce qu’il a réussi à isoler le bacille en culture pure. Les résultats de l’autopsie étaient les mêmes qu’en Égypte, et s’il était possible de confirmer que le bacille se trouvait exclusivement chez les patients atteints de choléra, il ne serait guère possible de douter de sa relation de cause à effet avec la maladie, même s’il n’était pas possible de reproduire une maladie similaire chez les animaux. Koch renonce ici à l’un des éléments de preuve qu’il avait lui-même stipulés près de quatre mois plus tôt dans sa première dépêche. »

Par conséquent, la seule façon pour Koch d’affirmer que le bacille de la virgule était la cause du choléra était de trouver le bacille chez les patients atteints de choléra. En d’autres termes, Koch s’est appuyé sur une corrélation équivalente à une causalité, ce qu’il avait déjà souligné par le passé comme n’étant pas suffisant pour conclure à une causalité, car il est bien connu qu’une corrélation n’équivaut pas à une causalité. Des découvertes ultérieures ont prouvé qu’il s’agissait d’une corrélation très faible, comme l’a noté Henry Raymond Rogers, M.D., en 1895. Non seulement le bacille virgule a été trouvé régulièrement chez des personnes en bonne santé, mais il a également été trouvé dans des cas d’autres maladies diarrhéiques. Koch lui-même en était conscient, puisqu’il a déclaré en 1893 que « l’absence ou plutôt la non-détection de bactéries cholériques dans un cas suspect de choléra » était due au manque de compétence des enquêteurs et que ce n’était pas parce qu’on avait trouvé des bactéries cholériques dans les dépôts solides de personnes apparemment en bonne santé qu’il ne s’agissait pas de « véritables cas de choléra ». Ainsi, le bacille n’a pas répondu au premier postulat de Koch, puisqu’il a été trouvé dans d’autres maladies et également chez des personnes non malades.

Robert Koch et sa théorie germinale du choléra

Dunkerque, N. Y., juin 1895.

Robert Koch a cherché à expliquer la cause de certaines maladies en partant de l’hypothèse de l’action de germes pathogènes, invisibles à l’œil humain. Lors de l’examen microscopique des selles des malades atteints de choléra, il a trouvé différentes formes et sortes de germes, dont un en forme de virgule, qu’il a cru être la cause de cette maladie. Grâce au processus de « culture » et d’« expérimentation » sur les animaux inférieurs, il affirme avoir démontré que ce germe est la cause réelle de la maladie. Il était tellement convaincu que cet objet en forme de virgule nouvellement découvert était la cause du choléra que, pendant plusieurs années, il a continué à affirmer avec la plus grande assurance que la présence de ces bacilles en forme de virgule dans les déjections d’une personne soupçonnée d’être atteinte de cette maladie constituait une preuve positive qu’il s’agissait d’un cas de choléra asiatique pur.

Mais cette théorie du bacille en forme de virgule du choléra s’est avérée un échec. Ces germes invisibles en forme de virgule se révèlent aujourd’hui universels et inoffensifs. On les trouve dans les sécrétions de la bouche et de la gorge des personnes en bonne santé, ainsi que dans les diarrhées courantes de l’été partout dans le monde ; ils pullulent dans les intestins des personnes en bonne santé et on les observe également dans les écoulements fécaux durcis. Le Dr Koch affirme aujourd’hui que ces bacilles sont universellement présents. Il nous dit même que : « L’eau, quelle que soit sa provenance, contient fréquemment, pour ne pas dire invariablement, des organismes en forme de virgule. »

Les docteurs Pettenkofer de Munich et Emmerich de Berlin, médecins de grande renommée et experts de cette maladie, ont bu chacun un centimètre cube de « bouillon de culture » contenant ces bacilles, sans éprouver un seul symptôme caractéristique du choléra, bien que la consommation ait été suivie dans chaque cas de selles liquides grouillantes de ces germes.

Le Dr Koch s’est tenu au courant des faits susmentionnés, ainsi que d’autres tout aussi significatifs, et s’il avait accepté les preuves qui, année après année, lui ont été imposées, sa théorie pernicieuse du germe du choléra, avec ses conséquences les plus désastreuses pour l’humanité, aurait été inconnue à ce jour.

Henry Raymond Rogers, M.D.
https://jamanetwork.com/journals/jama/article-abstract/453342

Koch ne pouvait pas prouver son hypothèse par l’expérimentation et il l’avait en fait réfutée à plusieurs reprises en étant incapable de reproduire la maladie par des voies d’exposition naturelles. Lors de la « Conférence pour la discussion de la question du choléra » qui s’est tenue en juillet 1884 à Berlin et au cours de laquelle Koch a présenté ses preuves, Rudolf Virchow, considéré comme le père de la pathologie moderne, a conseillé la prudence en soulignant l’absence de preuves absolues de l’hypothèse de Koch. Or, non seulement les preuves manquaient, mais elles étaient complètement réfutées. Comme le souligne le Dr Rogers, Koch n’a pas été le seul à réfuter son hypothèse. D’autres chercheurs, tels que Max von Pettenkofer, le Dr Rudolph Emmerich, le Dr Emmanuel Edward Klein et Ilya Metchnikoff, ont tous fait des expériences sur eux-mêmes avec des cultures pures de bacilles virgules et ont obtenu des résultats négatifs, réfutant ainsi davantage l’hypothèse. Ferrau et Haffkine ont inoculé à plus d’un demi-million d’Hommes des cultures vivantes du vibrion cholérique sans provoquer un seul cas, ce qui a apparemment conduit à l’adage « on peut manger le choléra, on peut boire le choléra, mais on ne peut pas l’attraper ». Un article sur l’histoire du choléra affirme même que Koch a fait une expérience sur lui-même en buvant une culture pure, avec des résultats négatifs. Je n’ai toutefois pas pu vérifier cette affirmation, et l’auteur a peut-être confondu Koch et Pettenkofer. Quoi qu’il en soit, il est clair que Robert Koch a échoué de manière spectaculaire à prouver son hypothèse, et qu’il n’a pu satisfaire qu’un seul de ses quatre postulats logiques (produire une culture pure) qui sont considérés comme nécessaires pour prouver qu’un microbe est à l’origine d’une maladie. Comme l’a admis le professeur Dr Albert Johne en 1885, « le lien étiologique entre la virgule de Koch et le choléra asiatique reste encore à prouver par une expérience directe ». Il est facile de constater que, de toutes les manières possibles, Koch n’a pas réussi à prouver son hypothèse.

Qu’il s’agisse de l’anthrax, de la tuberculose ou du choléra, Robert Koch a involontairement réfuté toute hypothèse pouvant être établie à partir d’un phénomène naturel observé sur la manière dont ces maladies étaient censées se propager dans la nature. Comme Koch n’était pas en mesure de recréer la maladie par des voies d’exposition naturelles, il s’est contenté de créer une maladie artificielle chez les animaux par le biais de diverses procédures grotesques et invasives qui impliquaient de torturer et d’injecter des substances à des animaux de laboratoire de différentes manières. Bien qu’il n’ait pas réussi à fournir de preuves scientifiques valables à l’appui de son hypothèse, Koch a été salué comme le « grand chasseur de microbes » et récompensé généreusement pour ses efforts. Il a été célébré pour les techniques pionnières qu’il a introduites, permettant la culture et l’identification pures des bactéries, et ses postulats logiques ont été adoptés comme essentiels pour prouver que n’importe quel microbe était la cause d’une maladie particulière.

Malgré la logique pure qu’exigeaient ses postulats pour identifier un agent causal, Koch a fini par les abandonner lorsqu’il est apparu clairement qu’il était incapable de prouver ses hypothèses en s’en tenant à ses propres critères logiques. Koch devait admettre qu’il s’était trompé et risquait de perdre la célébrité, la fortune et le prestige qui accompagnaient son nouveau statut de chasseur de microbes. Robert Koch a donc tourné le dos à la méthode scientifique et abandonné ses propres règles logiques, jetant les bases nécessaires à l’essor de la pseudoscience avec la création de scénarios irréfutables5 qui ont été utilisés comme moyens de sauvetage pour sauver l’hypothèse réfutée des germes. Les personnes en bonne santé pouvaient être considérées comme malades. Les « agents pathogènes » n’avaient pas besoin d’être obtenus à partir d’une culture pure. Il n’était pas nécessaire de recréer expérimentalement la même maladie. Suivant l’exemple de Koch, des preuves défiant la logique ont pu être présentées comme des « preuves » valables qu’un agent pathogène supposé était la véritable cause d’une maladie donnée, alors que les preuves montraient le contraire. Cela a permis d’élever frauduleusement l’hypothèse réfutée des germes au rang de « théorie », afin qu’elle puisse s’imposer comme le paradigme dominant.

Quoi qu’il en soit, cette enquête en deux parties sur les preuves utilisées pour affirmer que l’hypothèse des germes a été prouvée par Pasteur et Koch devrait montrer clairement que rien n’est plus éloigné de la vérité. L’hypothèse des germes, telle qu’elle a été élaborée sur la base d’un phénomène naturel observé, n’a pas pu être prouvée par des expériences reflétant la voie hypothétique de l’exposition naturelle. Pasteur et Koch ont dû recourir à des méthodes contre nature et grotesques pour tenter de rendre les animaux malades. Ils ont tous deux été incapables de satisfaire aux quatre postulats logiques essentiels attribués à Robert Koch, qui sont censés prouver que tout microbe peut réellement causer une maladie. Ils ont dû contourner et enfreindre les règles afin de faire concorder leurs preuves. Pourtant, dans de nombreux cas, des chercheurs indépendants ont présenté des preuves qui contredisaient complètement ce que les deux hommes avaient avancé. Ainsi, l’hypothèse des germes n’a jamais été prouvée par des preuves issues de la méthode scientifique et conformes à la logique des postulats de Koch. L’hypothèse des germes a été réfutée involontairement par Pasteur et Koch, ainsi que par les divers chercheurs indépendants qui l’ont mise à l’épreuve. Elle n’aurait jamais dû être élevée au rang de théorie scientifique. Au contraire, elle devrait être reléguée dans la corbeille à papier avec toutes les autres hypothèses réfutées.


1 Support matériel de la contagion — NDT.

2 NDT Pour les conditions nécessaires et suffisantes permettant de démontrer un lien de causalité entre deux phénomènes, voir :
https://nouveau-monde.ca/lenterrement-de-la-theorie-virale/#causalite

3 Tuberculose pulmonaire — NDT.

4 Susceptibles de subir des lésions torpides (c.-à-d. non évolutives) de la peau, des ganglions lymphatiques ou des os — NDT.

5 Et donc non scientifiques, puisque toute théorie scientifique doit être par essence réfutable — NDT.




Le transhumanisme comme aboutissement du libéralisme ultime

[Publication initiale : revue-elements.com]

Par Pierre Le Vigan

Le transhumanisme est devenu un sujet central de notre époque. Que représente-t-il ? Que compte-t-il faire de nos vies si on le valide ? Pour comprendre la nouveauté du transhumanisme, il ne faut évidemment pas l’opposer à un prétendu immobilisme de l’homme des temps anciens. L’homme a toujours cherché à améliorer ses conditions de vie. Il a toujours cherché à acquérir plus de puissance, à multiplier son énergie, à inventer des outils pour habiter le monde à sa façon. Nous ne nous contentons jamais du monde tel que nous en avons hérité. Le simple fait de construire un pont est déjà une transformation du monde. Si le transhumanisme n’était que cela — l’intervention sur le monde en fonction de nos objectifs, la création d’outils pour que l’homme soit plus efficace dans ses entreprises, de la selle de cheval à l’automobile et à l’avion en passant par le gouvernail d’étambot — le transhumanisme ne serait pas une nouveauté.

Le problème commence quand nous voulons, non pas seulement améliorer la condition de vie de l’homme, et donner plus d’ampleur à nos projets, mais changer la nature même de l’homme. Natacha Polony remarque que la recherche de création d’un homme nouveau caractérise les totalitarismes.

« Les totalitarismes, par delà leurs innombrables différences, se caractérisent par une dimension eschatologique et la volonté de forger un homme nouveau. C’est exactement ce qui se passe avec le transhumanisme. Cette idéologie repose sur l’idée que l’homme est imparfait, et que le croisement des technologies numériques, génétiques, informatiques et cognitives va permettre de faire advenir une humanité débarrassée de ses scories. »

(entretien, Usbek et Rica, 5 octobre 2018).

Si les totalitarismes du XXe siècle ne disposaient pas (ou peu) de moyens permettant de changer réellement la nature humaine, un fait nouveau est intervenu. C’est l’intelligence artificielle et notamment la culture de l’algorithme. C’est ce qui est né avec l’informatique et dont la puissance a été multipliée par internet. C’est l’interconnectivité de tous les réseaux techniques. Le développement de la numérisation des hommes et du monde a coïncidé avec le triomphe planétaire du libéralisme décomplexé, postérieur au compromis fordiste (un partage des revenus entre salaire et profit relativement favorable au monde du travail, et un État protecteur dit État providence). Or, le libéralisme, c’est la libération des énergies individuelles, de la puissance privée au détriment du commun. Le Hollandais Bernard Mandeville en résumait la vision :

« Le travail des pauvres est la mine des riches. »

(La fable des abeilles ou les fripons devenus honnêtes gens, 1714)

Plus généralement, les vices privés font les vertus publiques. « Qui pourrait détailler toutes les fraudes qui se commettaient dans cette ruche ? Celui qui achetait des immondices pour engraisser son pré, les trouvait falsifiés d’un quart de pierres et de mortier inutiles et encore, quoique dupe, il n’aurait pas eu bonne grâce d’en murmurer, puisqu’à son tour il mêlait parmi son beurre une moitié de sel. » (…) Ainsi, « Chaque ordre était ainsi rempli de vices, mais la Nation même jouissait d’une heureuse prospérité. » Et l’État ? « Les fourberies de l’État conservaient le tout ». L’État doit donc être le garant des crapuleries privées. Conclusion de Mandeville : « Le vice est aussi nécessaire dans un État florissant que la faim est nécessaire pour nous obliger à manger. » Ce n’est pas très différent de la théorie des « premiers de cordée » dont Macron fait son crédo, quand ceux-ci, loin de prendre des risques, se font garantir leurs profits par l’État ou par les institutions publiques. « Les béquilles du capital », avait dit Anicet Le Pors. Ce qui est à l’œuvre est ainsi la logique de Candide selon Voltaire. « Les malheurs particuliers font le bien général ; de sorte que plus il y a de malheurs particuliers et plus tout est bien. » On lit là, bien sûr, une critique acerbe (et qui force le trait !) de Leibniz et de sa théorie du monde existant comme « le meilleur des mondes possibles ».

L’enterrement du fordisme

Le « fordisme » a été enterré, au tournant des années 70, avec la désindustrialisation et l’ouverture des frontières aux produits et aux hommes venus de partout. C’est la France comme un hôtel, et trop souvent un hôtel de passe. « Tout pays doit se penser comme un hôtel » (J. Attali, Les crises, 30 octobre 2017). Après le fordisme, le Capital a gagné dans le rapport de force face au travail et dans le partage du revenu national. L’argent va à l’argent, et est de plus en plus déconnecté de la richesse réellement produite. Pour autant, le pays s’appauvrit, car il n’y a de vraie richesse que produite par le travail productif, et non par la recherche d’opportunités financières. Mais l’exploitation se présente de moins en moins dans sa brutalité foncière. Elle se protège d’un voile de bonnes intentions, et de la « moraline » dont parlait déjà Nietzsche. Elle adopte généralement la forme du contrat, celui-ci fut-il totalement inégalitaire.

C’est pourquoi on ne peut donner raison à Michel Foucault quand il écrit : « Le marché et le contrat fonctionnent exactement à l’inverse l’un de l’autre » (Naissance de la biopolitique. Cours au Collège de France 1978-1979). Au contraire de ce que dit Michel Foucault, le marché et le contrat se complètent. Le marché prend la forme juridique du contrat. Il est « lavé » de sa dimension de rapport de force par la pseudo-« neutralité » juridique du contrat.

La fin d’un monde commun

Loin d’être contraire à la logique de l’économie libérale, l’extension du domaine du contrat (c’est un contrat écrit car plus grand-chose ne repose sur la parole donnée, qui renvoie à l’honneur) l’a complété. Tout ce qui est devient l’objet d’un contrat. Et cela ouvre la voie à la contractualisation des rapports avec soi-même. Une transition de genre, c’est décider, pendant un temps déterminé, et de manière réversible, et payée par la collectivité, de devenir ce que je ne suis pas, et d’obliger les autres à me considérer comme ce que je veux être. Que cela soit ou non une escroquerie anthropologique n’est pas le problème, l’État — l’État néo-totalitaire qui est le nôtre — est le garant de la réalité juridique qui m’oblige à la reconnaissance de cette réalité transitoire auto-décidée par le sujet concerné mais qui s’impose à moi, et à toute la société. Il n’y a, à l’horizon de cette auto-définition de soi, plus de monde commun.

Le transhumanisme est ce qui surgit au bout de la logique contractualiste du libéralisme. Transhumanisme comme libéralisme reposent sur une religion de la science et de la technique. Ce ne sont plus les institutions qui doivent donner du sens à la société (comme chez Hegel pour qui les institutions sont des médiations que l’homme se donne à lui-même pour se réaliser, pour être plus lui-même, et plus hautement lui-même), c’est un mouvement permanent d’amplification des droits de l’homme. Tout ce qui est alerte sur les limites, attention portée à la nécessaire mesure, refus de l’hubris (démesure) est marginalisé, dénoncé, ringardisé. Les avertissements de Bertrand de Jouvenel, Jacques Ellul, de Nicholas Georgescu-Roegen sont ignorés.

Face au rapport Meadows de 1972 (Dennis Meadows a alors 30 ans) Les limites de la croissance, l’économiste et philosophe libéral Friedrich Hayek refuse que l’optimisme technologique soit critiqué.

« L’immense publicité donnée récemment par les médias à un rapport qui se prononçait, au nom de la science, sur les limites de la croissance, et le silence de ces mêmes médias sur la critique dévastatrice que ce rapport a reçue de la part des experts compétents, doivent forcément inspirer une certaine appréhension quant à l’exploitation dont le prestige de la science peut être l’objet. »

(« La falsification de la science », The pretence of knowledge, 1974)

Bien entendu, le droit d’inventaire sur un rapport d’étude est mille fois légitime. Mais ce qui est au cœur de la réaction des libéraux, c’est la démonie du culte du progrès scientifique. C’est la religion de la mondialisation heureuse, forcément heureuse. Car plus le monde est unifié, mieux il est censé se porter. Telle est la religion des ennemis de la différence. « Un siècle de barbarie commence, et les sciences seront à son service. », avait dit Nietzsche (La volonté de puissance, 154).

De même que l’on dira plus tard qu’il n’y a « pas de choix démocratique contre les traités européens » (Jean-Claude Juncker), il n’y a pas pour Hayek de science qui puisse préconiser des limites à l’extension infinie du champ du libéralisme, de la croissance et du marché. La technologie, fille de la science, est mise au service de la « course au progrès », ce dernier conçu comme l’emprise de plus en plus grande de l’économie sur nos vies. Inutile d’insister sur la fait qu’il ne s’agit pas d’un progrès de la méditation, de la connaissance de nos racines, ou de notre goût pour le beau. Avec la construction d’un grand marché national puis mondial avec l’aide de l’État et non pas spontanément, une société de contrôle — une société de surveillance généralisée (Guillaume Travers) — est mise en place par l’État, appuyé sur de grands groupes monopolistiques. Objectif : que nul n’échappe au filet de la normalisation et à son impératif de transparence.

Un totalitarisme rampant

Herbert Marcuse notait : « L’originalité de notre société réside dans l’utilisation de la technologie, plutôt que de la terreur, pour obtenir une cohésion des forces sociales dans un mouvement double, un fonctionnalisme écrasant et une amélioration croissante du standard de vie (…) Devant les aspects totalitaires de cette société, il n’est plus possible de parler de “neutralité” de la technologie. Il n’est plus possible d’isoler la technologie de l’usage auquel elle est destinée ; la société technologique est un système de domination qui fonctionne au niveau même des conceptions et des constructions des techniques. » (éd. américaine 1964, L’homme unidimensionnel, Minuit, 1968). Sauf que l’on ne constate plus du tout « l’amélioration constante du standard de vie ». À l’exception des gérants des multinationales et des « cabinets de conseils » qui constituent un démembrement de l’État et permettent une externalisation apparente des décisions. Avec ses « conseils », chèrement payés, de sociétés extérieures au service public, c’est un système de management par agences qui s’est mis en place, système dont la paternité revient essentiellement au professeur et technocrate national-socialiste Reinhard Höhn, un système qui est à peu près le contraire de la conception de l’État qui était celle de Carl Schmitt.

C’est une mise en réseau de l’insertion obligatoire dans le système qui se produit : « Par le truchement de la technologie, la culture, la politique et l’économie s’amalgament dans un système omniprésent qui dévore ou qui repousse toutes les alternatives. », dit encore Marcuse. C’est justement le caractère global de ce filet, de ce réseau d’entraves (appelons cela Le Grand Empêchement, tel que je l’ai évoqué dans le livre éponyme–éd. Perspectives Libres/Cercle Aristote, ou encore la « grande camisole de force du mondialisme ») qui caractérise ce nouveau totalitarisme.

« Le totalitarisme, poursuit Herbert Marcuse, n’est pas seulement une uniformisation politique terroriste, c’est aussi une uniformisation économico-technique non terroriste qui fonctionne en manipulant les besoins au nom d’un faux intérêt général. Une opposition efficace au système ne peut pas se produire dans ces conditions. Le totalitarisme n’est pas seulement le fait d’une forme spécifique de gouvernement ou de parti, il découle plutôt d’un système spécifique de production et de distribution. » (op. cit.). Dans cette logique d’extension du domaine de l’économie marchande (qui prend la place de toute une économie de réciprocité, informelle), les États jouent un rôle premier : de même qu’ils ont imposé le marché national, ils imposent le grand marché mondial, ils poussent au mélange des peuples et à leur leur indifférenciation, à la déterritorialisation, à la transparence de vies de plus en plus pauvres en âme. Ils poussent encore à l’individualisme croissant, à la précarisation des liens, et au transhumanisme et aux identités à options qui ne sont qu’une forme de la marchandisation. Pierre Bergé disait à ce sujet : « Nous ne pouvons pas faire de distinction dans les droits, que ce soit la PMA, la GPA (gestation pour autrui, NDLR) ou l’adoption. Moi, je suis pour toutes les libertés. Louer son ventre pour faire un enfant ou louer ses bras pour travailler à l’usine, quelle différence ? C’est faire un distinguo qui est choquant. » (17 décembre 2012).

Le transhumanisme pour une société toujours plus liquide et plus contrôlable, tel est le projet de l’oligarchie mondialiste au pouvoir en Occident. Dans le même temps que les États sont de plus en plus intrusifs à l’intérieur des sociétés, ils sont, en Occident, de plus en plus concurrencés par d’autres structures au plan international. Ils cessent d’être les seuls acteurs du droit international, marquant ainsi la fin de l’ordre westphalien, né en 1648, à l’issue de la guerre de Trente Ans. Un double drame est le nôtre : nous assistons à la fin des États dignes de ce nom (toujours en Occident), et à la fin des possibilités de se parler et de négocier. En effet, si les traités de Westphalie mettaient fin aux guerres de religion, il nous faut savoir que nous sommes revenus aux guerres de religion, qui sont maintenant des guerres idéologiques, comme en témoigne l’actuelle hystérie anti-russe, partagée par la majorité de la « classe politique », c’est-à-dire des mercenaires du système.

États vidés de ce qui devrait leur appartenir en propre, la souveraineté et l’identité, États faillis mis en coupe réglée par les oligarchies parasitaires antinationales et anti-européennes, telle la superstructure dite Union européenne qui est de plus en plus la même chose que l’OTAN, c’est-à-dire une organisation de destruction de l’Europe réelle qui nous fait agir systématiquement à l’encontre de nos intérêts, tel est le tableau de l’Europe. Un indice éclatant du démembrement de nos États est que pèsent souvent plus lourds que les États un certain nombre d’institutions : les ONG, les institutions internationales, qu’elles soient directement financières (FMI, Banque mondiale, BERD…) ou ne le soient qu’indirectement (GIEC, OMC, OMS…), les organismes mondialistes et immigrationnistes, multinationales, fonds de pension internationaux, collecteurs de fonds tels Blackrock, etc. Contrairement à nos États, toutes ces structures ne sont aucunement en faillite.

L’erreur de Michel Foucault

Loin d’être supprimé par le marché, comme le supposait Michel Foucault, le droit devient bel et bien un enjeu du marché. C’est un levier dans des rapports de force, et les EUA y jouent à merveille, comme de nombreuses entreprises françaises ont pu le constater à leurs dépens. Mais le droit exprime un rapport de force acceptable car officiellement « neutre » : telle est l’imposture.

Intrusifs à l’intérieur, persécuteurs des patriotes mais gangrenés par la culture de l’excuse face aux gredins, les États sont de moins en forts au plan du régalien (sécurité, monnaie, défense, etc.). Ils se sont même volontairement dessaisis de leurs outils. La raison en est simple : nos dirigeants ne sont que les fondés de pouvoir des sections locales de l’internationale du Capital. Le cas de la monnaie est particulièrement significatif. La fin de la convertibilité du dollar en or (1971), c’est-à-dire l’effondrement des accords de Bretton Woods de 1944 a fragilisé l’ensemble des pays tandis que les EUA entrent dans une ère de complète irresponsabilité monétaire et économique, c’est-à-dire le dollar comme liberté inconditionnée pour eux, comme contrainte exogène pour le reste du monde. Quant à l’euro fort, comme il le fut longtemps, il a, pour la France, favorisé les exportations de capitaux, les importations de marchandises et la désindustrialisation de notre pays. Quant à l’immigration, elle a ralenti la robotisation. Beau bilan.

Il y a désormais dans l’économie mondiale les manipulateurs et les manipulés, et ce à une échelle bien supérieure à ce qui existait auparavant. Les banques vont prendre le pouvoir monétaire réel à la place des États (qui les renfloueront avec l’argent des contribuables en 2008). En France, la loi du 3 janvier 1973 (détaillée dans le livre de P-Y Rougeyron) est un tournant, et plus exactement un moment dans un tournant libéral mondialiste. L’État français ne peut plus se financer à court terme auprès de la Banque de France. Au moment où ses besoins de financement explosent. Comment va-t-il se financer ? Par l’accès aux marchés financiers internationaux. C’est un changement de logique. Un changement que les libéraux du Parti « socialiste » alors au pouvoir vont accélérer à partir de 1983-84.

Avec le libéralisme, un État faible et dépendant des marchés financiers

Conséquence : une augmentation du poids de la dette, tandis qu’auparavant, les Bons du Trésor, c’est-à-dire des obligations d’État, étaient accessibles aux particuliers et à taux fixes, et permettaient à la fois de proposer des placements sûrs aux particuliers et de financer les besoins à long terme de l’économie. Si cette loi du 3 janvier 1973 n’est pas à l’origine de la dette — celle-ci venant avant tout de la chute de notre dynamisme industriel, du développement de l’assistanat du à l’immigration familiale de masse, des autres coûts de cette immigration — elle marque néanmoins une inflexion nette vers la financiarisation, et le triomphe des théories monétaristes de Milton Friedman (Vincent Duchoussay, « L’État livré aux financiers ? », La vie des idées, 1er juillet 2014). Au final, l’État et sa banque centrale cessent d’avoir le monopole de la création monétaire. (ceci ouvre du reste vers une question que l’on ne peut ici que signaler : faut-il « rendre le monopole de la création monétaire aux banques centrales ? » Cf. l’article éponyme, Revue Banque, 12 septembre 2012).

En 1973, cette même année charnière (le premier choc pétrolier se produit, et pas du fait d’un simple mécanisme économique mais dans le cadre de grandes manœuvres géopolitiques), le libéral Hayek prône la fin des monnaies nationales au profit de monnaies privées. Mais ce n’est pas le seul dégât que l’on constate. Le libéralisme induit un système économique de sélection naturelle qui favorise le mépris des conséquences environnementales des actions économiques et implique donc un court-termisme à la place de la prise en compte du long terme.

Il s’opère ainsi une forme de sélection, mais une sélection des pires. Theodore John Kaczynski avait bien vu ce processus :

« Cela s’explique par la théorie des systèmes autopropagateurs : les organisations (ou autres systèmes autopropagateurs) qui permettent le moins au respect de l’environnement d’interférer avec leur quête de pouvoir immédiat tendent à acquérir plus de pouvoir que celles qui limitent leur quête de pouvoir par souci des conséquences environnementales sur le long terme — 10 ans ou 50 ans, par exemple. Ainsi, à travers un processus de sélection naturelle, le monde subit la domination d’organisations qui utilisent au maximum les ressources disponibles afin d’augmenter leur propre pouvoir, sans se soucier des conséquences sur le long terme ».

(Révolution anti-technologie : pourquoi et comment ? 2016, éditions Libre, 2021)

Le libéralisme contre la solidarité nationale et la justice sociale

En outre, en tant que le libéralisme est une forme du capitalisme, il prend comme critère l’intérêt des actionnaires et non l’intérêt de la nation. Il prend encore moins en compte ce qui pourrait être une préférence de civilisation, dont il faut affirmer la nécessité dans la mesure même où la mondialisation met en cause la diversité. Dans la logique du libéralisme, l’intérêt individuel prime toujours sur les intérêts collectifs, et sur les objectifs de justice sociale et de solidarité nationale. Ultras du libéralisme, « les libertariens défendent le libre marché et exigent la limitation de l’intervention de l’État en matière de politique sociale. C’est pourquoi ils s’opposent au recours à une fiscalité redistributive comme moyen de mettre en pratique les théories libérales de l’égalité. […] La fiscalité redistributive est intrinsèquement injuste et […] constitue une violation du droit des gens. », résume Will Kymlicka à propos des positions libertariennes (in Les théories de la justice. Une introduction, La Découverte, 2003). C’est aussi la thèse que défend Ayn Rand, célèbre libertarienne américaine. Dans cette perspective, au-delà de toute notion d’équité et de solidarité nationale, les libéraux ne cachent pas qu’il faut selon eux tourner la page des aspirations démocratiques. Peter Thiel affirme en 2009 : « Je ne crois plus que la liberté et la démocratie soient compatibles. […] Je reste attaché, depuis mon adolescence, à l’idée que la liberté humaine authentique est une condition sine qua non du bien absolu. Je suis opposé aux taxes confiscatoires, aux collectifs totalitaires et à l’idéologie de l’inévitabilité de la mort » (« L’éducation d’un libertarien », 2009, cité in Le Monde, 1er juin 2015). Cela a le mérite d’être clair, tout comme il est clair que, depuis qu’a triomphé le libéralisme libertaire, les atteintes aux libertés n’ont jamais été si violentes : identité numérique, interdiction d’hommages, de colloques, de manifestations pacifiques, etc.

Avec ce libéralisme-libertaire, à la fois rigoriste pour ses adversaires et permissif pour tous les délires sociétalistes, on se retrouve dans le droit fil du libéralisme poussé dans sa logique, qui est le refus des limites de la condition humaine. Comme l’extension du domaine de la marchandisation n’est pas naturelle, l’État du monde libéral met en place, avec les GAFAM et avec les multinationales, des outils de contrôle visant à tracer tous les mouvements des hommes, les pratiques humaines, jusqu’à laisser une trace, par le scan des articles, de toutes les calories ingurgitées chaque jour par chacun. Le tout au nom d’une soi-disant bienveillante « écologie de l’alimentation ». Big Brother se veut aussi big mother. Les « démons du bien » veillent, pour mieux régenter nos vies.

Le libéralisme trahit les libertés

Walter Lippmann, dans La cité libre (1937), ouvrage qui précéda le colloque Lippmann de 1938 (grand colloque libéral), plaidait pour les grandes organisations et la fin de « la vie de village ». C’était déjà l’apologie de la mégamachine. Nous y sommes en plein. Par la monnaie numérique et la suppression programmée de l’argent en espèces « sonnantes et trébuchantes », la société de contrôle vise à rendre transparents tous les échanges interhumains. Le libéralisme est ainsi à la fois l’antichambre du transhumanisme et le contraire des libertés individuelles, mais aussi collectives ou encore communautaires.

Jean Vioulac remarque : « Le néolibéralisme est ainsi coupable d’avoir aliéné et asservi le concept même de liberté, en promouvant en son nom une doctrine de la soumission volontaire ». Ce néolibéralisme — ou libéralisme décomplexé et pleinement lui-même — est la forme actuelle du règne du Capital. Il ne conçoit la liberté que dans le registre de l’ordre marchand et sur un plan individuel. « Le libéralisme n’est pas l’idéologie de la liberté, mais l’idéologie qui met la liberté au service du seul individu. », note Alain de Benoist (Philitt, 28 mars 2019). Si le libéralisme est centré sur l’individu, il lui refuse en même temps le droit de s’ancrer dans des collectifs, et de s’assurer de continuités culturelles. Le libéralisme est bien l’idéologie et la pratique du déracinement. Il est temps de recourir à autre chose. On pense à l’enracinement dynamique tel qu’il a pu être pensé par Élisée Reclus. L’enracinement et la projection créatrice vers un futur. Il est tout simplement temps de cultiver l’art d’habiter la terre.

PLV

L’auteur vient de publier Nietzsche, un Européen face au nihilisme (ISBN 978-2-491020-06-4) 14,99 € ainsi que, tout récemment, Les Démons de la déconstruction. Derrida, Lévinas, Sartre. Suivi de « Se sauver de la déconstruction avec Heidegger » (ISBN 978-2-491020-09-5)19,99 . Éd. La Barque d’Or, disponible sur amazon.fr. Ces deux ouvrages sont actuellement en promotion.




SPIEF 24 – L’ordre mondial multipolaire converge vers Saint-Pétersbourg pour passer les tests PCR et discuter du développement durable

[Source : off-guardian.org]

Par Riley Waggaman

C’est en train de se produire. Encore une fois. Cela arrive chaque année, malheureusement.

Je fais bien sûr référence au Forum économique international de Saint-Pétersbourg, qui réunit chaque année les esprits les plus antimondialistes du monde.

Comme le veut la tradition, vous ne serez pas autorisé à entrer sur le site sans un test PCR négatif. Le SPIEF1 a publié une vidéo utile si vous avez des questions sur votre statut viral :

RAPPEL : Votre carte d’identité numérique SPIEF ne sera pas activée tant que vous n’aurez pas obtenu un résultat négatif au test de dépistage du virus !

Vous devrez également acheter un billet.
Les billets coûtent 19 860 dollars.

RAPPEL : LES CALL-GIRLS NE SONT PAS INCLUSES DANS LE PRIX DU BILLET. LES CALL_GIRLS SONT VENDUES SÉPARÉMENT !

Source : riamo.ru

Examinons maintenant ce qui sera discuté lors de cette nouba multipolaire des personnes concernées par les valeurs traditionnelles.

L’un des principaux points à l’ordre du jour est la « transition vers une économie mondiale multipolaire », c’est-à-dire la création d’un « système mondial de régulation du carbone » qui ouvrira la voie à un « développement durable » à long terme :

Les stratégies de développement des chaînes de production et d’approvisionnement sont en cours d’élaboration en tenant compte des objectifs mondiaux de l’Accord de Paris et des plans nationaux de réduction des émissions et d’adaptation au changement climatique. La concordance des approches et le rythme de la réglementation du carbone entre les États membres de l’EAEU2, de l’OCS et des BRICS permettront de construire un système mondial de réglementation du carbone basé sur une transition énergétique équitable, incluant les technologies de transition, et de respecter les principes du système commercial multilatéral et de la neutralité technologique. Pour l’EAEU, la convergence des approches en matière de régulation climatique est une priorité à long terme. (…) Les mécanismes de tarification du carbone basés sur le marché aideront-ils à atteindre les objectifs climatiques dans les pays de l’OCS, de l’EAEU et des BRICS, et quel est le juste prix du carbone ?

Combien devrait coûter un morceau de carbone des BRICS ? Cinq roubles numériques ? Peut-être dix ? Si vous venez à Saint-Pétersbourg, vous pourrez discuter de ce sujet important avec certains des plus grands connaisseurs du carbone au monde, notamment Ruslan Edelgeriyev, représentant présidentiel spécial de la Russie pour les questions climatiques, et Tatiana Zavyalova, première vice-présidente de Sberbank pour l’ESG3.

Un autre groupe discutera du « financement de la transition » et d’autres activités durables qui prouvent, au-delà de tout doute raisonnable, que « les pays des BRICS soutiennent activement le mouvement de réduction des émissions dans les secteurs traditionnellement à forte intensité de carbone » :

Une option possible pour atteindre les objectifs climatiques est de promouvoir les pratiques de financement de la transition qui aident à diriger les flux de trésorerie vers des projets de modernisation des industries et des entreprises à fortes émissions de gaz à effet de serre. Aujourd’hui, les pays des BRICS soutiennent activement le mouvement de réduction des émissions dans les secteurs traditionnellement à forte intensité de carbone : en septembre 2021, la Russie a adopté la Taxonomie des projets d’adaptation (transition), tandis que la Chine dispose déjà de sept taxonomies régionales de projets de transition. Les approches générales ont été proposées sur la base de l’initiative de la Chine et lors du G20.

Davos s’enfuit, terrorisé !

À propos : quelle est la région russe qui a sauvé le plus d’ours polaires ? Découvrez-le au SPIEF 24 !

Les experts discuteront également des raisons pour lesquelles il n’y a pas lieu de craindre le « développement rapide » des technologies biométriques en Russie :

Le marché mondial des technologies biométriques se développe rapidement, et la Russie figure parmi ses leaders. De plus en plus de services utilisant la biométrie apparaissent dans le pays, et il devient plus facile et plus accessible pour les Russes de recevoir des services gouvernementaux et commerciaux. Mais les gens se méfient de cette nouvelle technologie. Certains craignent les escrocs, d’autres les fuites. Pour d’autres encore, elle est synonyme de contrôle total par l’État. Ces stéréotypes freinent son développement. Mais qu’est-ce que la biométrie ? Avons-nous besoin de cette technologie et y a-t-il des raisons de la craindre ?

source : forumspb.com

Arrêtez les stéréotypes blessants ! LAISSEZ LA BIOMÉTRIE TRANQUILLE, ESPÈCE DE BIGOT.

La « transformation numérique » de la Russie fera l’objet d’une attention particulière au SPIEF 24. En effet, les acteurs concernés devront travailler ensemble s’ils espèrent numériser la quasi-totalité des services « socialement importants » d’ici à 2030 :

Source : forumspb.com

Des spécialistes de l’ensemble des pays du Sud s’engageront également dans des conversations intellectuellement stimulantes sur des mots à la mode dépourvus de sens et copier-coller des communiqués de presse de Davos :

Source : forumspb.com

En fin de compte, la conférence vise à contribuer à l’instauration d’un ordre mondial extrêmement durable fondé sur les crédits carbone, les étiquettes biométriques pour le bétail et les prostituées hors de prix.

…mais est-ce que SPIEF a des chiots ??

Échec et mat.

Riley Waggaman est un écrivain et journaliste américain qui vit en Russie depuis près de dix ans. Il a contribué à de nombreux sites web, dont Anti-Empire, Russian Faith, Brownstone Institute, Unlimited Hangout et Geopolitics & Empire. Il a travaillé pour Press TV, Russia Insider et RT avant de se lancer en solo. Vous pouvez vous abonner à son Substack ici, ou le suivre sur Twitter ou Telegram.





Laura Aboli expose l’agenda mondialiste vers le transhumanisme


À propos de Laura Aboli

La carrière entrepreneuriale de Laura Aboli a débuté en 2000 lorsqu’elle a cofondé World-Check, une base de données de personnes politiquement exposées (PPE) et d’individus et d’organisations à haut risque, qui est rapidement devenue la norme de facto pour l’identification et la gestion des risques financiers, réglementaires et de réputation au sein des institutions financières et juridiques du monde entier. Suite au succès de World-Check, elle a cofondé Wealth-X en 2010, qui est devenu le principal fournisseur de renseignements sur les personnes très fortunées.

Après s’être retirée de ces deux entreprises en 2014, elle a poursuivi sa passion de toujours pour la décoration d’intérieur en créant une société de promotion immobilière et de design qu’elle continue de diriger. Née dans une famille d’artistes, Laura est passionnée par l’art, la sculpture, la musique et la danse. Son esprit critique et curieux l’a amenée à s’intéresser aux domaines de la métaphysique, de la spiritualité, de la santé et de la psychologie. Son expérience et sa volonté d’aider les autres l’ont amenée à se lancer dans l’arène publique afin de partager ce qu’elle considère comme des leçons de vie importantes dans son propre parcours. En mai 2020, poussée par la façon dont les événements entourant la pandémie mondiale affectaient les moyens de subsistance, les droits civils et la santé mentale des gens, Laura a fondé le Mouvement international démocratique uni pour la sensibilisation et la liberté (UDIMAF), une organisation dédiée à la création d’un monde meilleur par la sensibilisation, l’inspiration et la poursuite incessante de la vérité.




Âmes descendues sur Terre

[Source : Le Jardin Des Livres]

Les grandes découvertes sur le cycle des incarnations et des vies passées du Dr Linda Backman. Basée sur des données provenant de plus de 10 000 dossiers de régressions par hypnose dans les vies passées de ses patients, le Dr Linda Backman montre dans ce livre que si certains d’entre nous sont bien des âmes « terrestres », d’autres en revanche sont des âmes « interplanétaires ». Cela veut dire que ces personnes ont vécu dans d’autres mondes, voire dans d’autres galaxies dans leurs vies passées. L’auteur montre clairement que la mort n’existe pas, parce que notre âme, à sa création, est littéralement programmée pour suivre un cycle d’incarnations constantes afin de progresser « par sauts », autrement dit « de vie en vie » quel que soit le monde d’accueil. Mais le plus stupéfiant avec le travail exemplaire du Dr Backman est qu’elle nous donne des informations hallucinantes sur la vie dans certains de ces autres mondes, qu’ils soient connus ou non de notre galaxie. S’il était logique de penser que la « vie intelligente » n’existait que sur Terre, avec le livre audacieux du Dr Backman nous avons désormais des preuves crédibles de la présence d’âmes interplanétaires évoluées venues s’incarner dans des corps humains. Elle montre également que si les âmes en général disposent du libre arbitre, les grandes lignes de leur destin sont écrites dans ce qu’on pourrait nommer le Livre de l’Âme. Ses recherches confirment tous les travaux publiés par le Dr Michael Newton, auteur des « Journées dans l’au-delà ».




« Il y a quelqu’un dans ma tête, mais ce n’est pas moi »

[Source : fr.sott.net]

Par François Héliodore — 15 juil. 2012

Piotr Ouspenski disait en 1947 qu’un fait d’une importance prodigieuse avait échappé à la psychologie occidentale, à savoir que l’homme ne se rappelait pas lui-même, qu’il vivait, agissait et raisonnait dans un profond sommeil, dans un sommeil non pas métaphorique, mais absolument réel. Depuis les développements récents en neurosciences et en sciences cognitives, la psychologie occidentale vient de rattraper son retard, et le tableau qu’elle dresse s’accorde parfaitement avec l’ésotérisme chrétien ravivé par Gurdjieff et Mouravieff. L’homme est effectivement une machine gouvernée par les influences extérieures.

Pour le psychologue Daniel Kahneman, notre mode de réflexion est composé de deux systèmes. Le premier, la pensée rapide (le Thinking fast) ou système 1 (l’inconscient adaptatif de Timothy Wilson), est inconscient, intuitif, ne demande pas trop d’effort, est incontrôlable et non-intentionnel. Ce système n’est pas sujet au doute. Il simplifie les événements, supprime les ambiguïtés, saute sur les conclusions et utilise un système d’association d’idées pour produire un rapide croquis d’une situation donnée, ainsi que pour construire une histoire la plus cohérente possible. Le système 1 reconnaît instantanément des modèles de situation et permet « de produire des solutions adéquates » :

« La recherche sur l’inconscient adaptatif suggère que la plupart de ce que nous voulons voir est invisible. L’esprit est un outil merveilleusement sophistiqué et efficace, bien plus que le plus puissant des ordinateurs jamais construit. Une source importante de cette énorme puissance est sa capacité à accomplir des analyses non-conscientes rapides à partir d’une grande quantité d’informations entrantes et de réagir à ces informations de manières efficaces. Même quand notre esprit conscient est occupé à autre chose, nous pouvons interpréter, évaluer et sélectionner des informations qui servent nos objectifs. »

Timothy D. Wilson, Strangers to Ourselves: Discovering the Adaptive Unconscious

Cet étranger à l’intérieur de nous-même, pour reprendre le titre de l’ouvrage de Wilson, contrôle la majorité de ce que vous faites, bien que vous n’ayez aucune conscience de cela. L’inconscient adaptatif, ou le système 1, fournit les impressions qui bien souvent fondent vos croyances, et est la source de vos impulsions qui deviennent vos choix et vos actions. Il offre une représentation de ce qui se passe autour de vous et à l’intérieur de vous, liant le présent avec le passé récent et avec les attentes du futur. Il est la source de vos jugements rapides et intuitifs.

© Daniel Kahneman

Le système 1 intervient dans les prises de décision, les émotions, la motivation, les buts, le contrôle, la métacognition, le libre arbitre, les intentions, ainsi que pour donner du sens à soi-même et aux autres. Après un tour d’horizon des facultés du nouvel inconscient, la question qui se pose est : que reste-t-il de conscient chez un humain ? Pas grand-chose. Loin de servir seulement à analyser rapidement son environnement et à accomplir les gestes de tous les jours, le nouvel inconscient permet à des personnes d’accomplir des tâches et adopter des comportements complexes, et d’accomplir d’autres processus mentaux supérieurs indépendamment de l’esprit conscient. En d’autres mots, une personne peut vivre une existence entière en auto-pilote. Certains scientifiques estiment que nous sommes conscients d’environ 5 pour cent de nos fonctions cognitives. Les 95 pour cent restants se déroulent en dehors de la conscience et exercent un rôle fondamental dans nos vies. Pour faire une description imagée, la conscience représente une balle de golf posée sur la partie immergée de l’immense iceberg qu’est l’inconscient.

Le système 1 a aussi la fâcheuse tendance à croire tout ce qu’on lui dit. Vous vous demandez encore comment les gens peuvent croire qu’un mec mort depuis 10 ans a pu se faire tuer par des commandos américains au Pakistan avant d’être balancé à la mer, ou qu’un banlieusard qui aimait les filles et les voitures a pu résister pendant une dizaine d’heures à des commandos surarmés dans un appartement de 38 m² avant de passer à travers plus de 300 balles, avec un final tonitruant où il s’est jeté du balcon en tirant avec deux armes automatiques, et où il est mort non des tirs des policiers, mais de sa chute du balcon au rez-de-chaussée (1re version qu’on nous a sortie). Vous vous demandez comment les gens peuvent gober ça ? Demandez au système 1.

Ce nouvel inconscient n’a rien à voir avec celui de Freud rempli de pulsions, d’érotisme, d’hallucinations et qui est irrationnel et primitif. Dans la nouvelle vision de l’inconscient, les processus mentaux sont pensés comme inconscients, car ce sont des portions de l’esprit qui sont inaccessibles à la conscience à cause de l’architecture du cerveau, plutôt qu’en raison de mécanismes tels que le refoulement ou les pulsions. Pour en finir avec Freud, la psychanalyse freudienne fonctionne, c’est certain, mais comme le souligne Michel Onfray, seulement pour Freud. C’est une bonne description du paysage intérieur d’un individu pathologique. Les visées universelles de la psychanalyse ne sont que les projections psychopathiques de son fondateur, qui projette sa propre pathologie sur le reste de l’humanité.

Le deuxième système ou système 2, que Kahneman appelle pensée lente (Thinking slow), l’esprit conscient, utilise davantage la réflexion, le raisonnement, demande beaucoup plus d’efforts et est extrêmement fainéant. Évidemment la plupart des gens s’imaginent utiliser le système 2 bien plus rationnel. Erreur. C’est en réalité le système 1, celui de la pensée rapide, qui régit nos décisions. Il y a beaucoup trop de choses à analyser pour que le système 2 puisse tout prendre en charge. Ce système est bien plus difficile à faire fonctionner.

Pour faire simple, si l’on vous demande de multiplier 2 par 2, c’est le système 1 qui va se charger de vous fournir la réponse en quelques dixièmes de seconde. S’il s’agit de multiplier 17 par 24, vous allez prendre votre temps, et là, c’est le système 2 qui prend le relais.

Inconscient adaptatif ou système 1 Conscience ou système 2
* Systèmes multiples * Système unique
* Détecte les schémas en ligne * Vérifie après les faits
* S’occupe de l’ici-maintenant * Prend de la distance
* Automatique (rapide, non intentionnel, sans effort) * Contrôlé (lent, intentionnel, beaucoup d’efforts)
* Rigide * Flexible
* Précoce * Plus lent à se développer
* Sensible à l’information négative * Sensible à l’information positive

Pour revenir au fait que l’inconscient adaptatif croit tout ce qui lui est présenté, si vous ne faites pas l’effort de penser avec votre système 2 pour séparer le bon grain de l’ivraie, la vérité du mensonge, si vous ne pensez pas avec un marteau — c’est-à-dire aborder l’objet d’étude sous tous les angles possibles en martelant vos préjugés et vos croyances et en étant critique de vos propres processus de pensées — votre système 1 avalera tous les mensonges et la propagande déversés à longueur de journée par les mass medias. Vous croirez tout et n’importe quoi, jusqu’au jour où vous vous mettrez au travail pour découvrir la vérité.

L’idée que nous ne contrôlons pratiquement rien de nos faits et gestes est assez effrayante. En réalité, c’est la définition exacte de la psychose, un sentiment de détachement de la réalité et le fait que vous ne contrôlez rien de vous-même.

Le dénominateur commun qui ressort de ces nouvelles recherches est que l’homme se ment constamment à lui-même et ment constamment à ceux qui l’entourent. En d’autres termes, une personne est souvent totalement ignorante de ses motivations et crée des fictions pour expliquer ses motivations, ses émotions et son histoire. Les histoires que vous vous racontez, votre narration pour expliquer vos agissements, sont aussi « précises et proches de la réalité » qu’un reportage de TF1 sur la guerre contre le terrorisme.

Prenons l’exemple de la mémoire. Quand nous nous remémorons un souvenir, nous pensons que nous regardons une image exacte du passé, comme une photographie, mais en réalité, nous ne voyons qu’une petite partie de cette image, le reste étant comblé par l’inconscient. Le système 1 a la fâcheuse tendance à combler les lacunes. Il prend les données incomplètes véhiculées par les sens, remplit « les trous » et le transmet à l’esprit conscient. Dans de nombreuses expériences réalisées par des psychologues, ceux-ci ont réussi à implanter de faux souvenirs à des personnes. Dans une de ces études, on a demandé à des sujets qui avaient été à Disneyland de lire et de réfléchir au sujet d’une fausse publicité pour un parc d’attractions. Dedans, on demandait aux sujets d’imaginer leur sentiment quand ils avaient vu Bugs Bunny, lui avaient serré la main, et pris une photographie avec lui. Plus tard, quand les chercheurs ont donné aux sujets un questionnaire sur leurs souvenirs personnels concernant leur visite à Disneyland, 62 pour cent d’entre eux se sont souvenus avoir rencontré Bugs Bunny. Seulement, ce n’était pas possible, car Bugs Bunny est une propriété de Warner Bros, non de Disney :

« Dans une autre étude, Loftus (2003) a montré comment de faux souvenirs pouvaient être implantés à partir de la vision. Des étudiants ayant tous effectué un séjour à Disneyland dans leur enfance ont été exposés à une publicité décrivant une visite dans ce parc. Sur la photo présentée, on pouvait voir Bugs Bunny à côté d’un enfant qui lui serrait la main. Les participants ont ensuite été interrogés sur leurs souvenirs d’enfance. 35 pour cent de ces sujets indiquèrent se souvenir de leur rencontre avec Bugs Bunny à Disneyland et de lui avoir serré la main. Quand ces sujets ont été invités à décrire avec précision cette rencontre, 62 % se souvenaient lui avoir secoué la main 46 pour cent de l’avoir embrassé. Quelques personnes se rappelaient lui avoir touché les oreilles ou la queue. Une personne s’était même souvenue qu’il tenait une carotte (quelle mémoire !). Tout cela serait parfait sans l’existence d’un petit détail : Bugs Bunny est la propriété de Warner Bros et n’a donc jamais mis les pattes chez Disney… la publicité était fausse et les souvenirs des participants également. »

Source : Neotrouve

Nous croyons que quand nous choisissions une voiture, une maison, que nous tombons amoureux ou que nous nous faisons de nouveaux amis, nous faisons ces choix consciemment. En réalité, rien n’est plus éloigné de la vérité. Dans la majorité des cas, nous sommes incapables d’expliquer pourquoi, dans une situation donnée, nous avons eu telle ou telle émotion. Pourtant, quand on demande à une personne d’expliquer sa réaction émotionnelle, après quelque temps de réflexion, elle n’aura aucun problème à en expliquer les raisons. Comment cela est-il possible ? Nous faisons simplement du storytelling. Quand nous nous posons à nous-mêmes ou à nos proches des questions du genre « pourquoi as-tu de l’aversion pour untel ? » ou « pourquoi aimes-tu cette maison ? », nous pensons que nous connaissons les réponses. Les recherches suggèrent que non. Nous nous engageons dans une sorte d’introspection pour trouver la vérité sur nos envies et nos aversions. Bien que nous soyons capables d’identifier nos sentiments, nous ne pouvons jamais identifier les origines inconscientes de ceux-ci. Nous créons alors des explications fausses ou partiellement vraies, que nous croyons. Le cerveau fait alors un tour de passe-passe assez surprenant : il cherche dans notre base de données mentale pour en extraire l’explication la plus plausible. Croire que vous comprenez vos motivations et vos désirs, vos « j’aime » et « j’aime pas », est appelé l’illusion de l’introspection. Les psychologues montrent que l’introspection n’est la plupart du temps qu’une fabrication et que vous n’avez aucun accès direct à la compréhension des origines de vos états mentaux. Le philosophe Daniel Dennett propose comme piste possible que lorsque vous vous expliquez vos émotions ou vos comportements, vous le fassiez comme si vous étiez en train d’écouter quelqu’un d’autre parler à votre place.

Autre piste possible : écrire une autobiographie ou se lancer dans la rédaction d’un journal intime peuvent s’avérer être des activités plus efficaces pour apprendre à se connaître soi-même ou à guérir de traumatismes ou d’expériences émotionnelles :

Dans son livre Writing to Heal : A Guided Journal for Recovering from Trauma and Emotional Upheaval, Pennebaker propose aux gens troublés par une situation stressante ou des souvenirs douloureux cet exercice tout simple :

  • Écrivez 20 minutes par jour pendant quatre jours.
  • Relatez un conflit ou une crise grave, quelque chose de personnel et d’important qui vous a touché directement ; vous pouvez traiter du même sujet quatre fois ou en changer d’un jour sur l’autre.
  • Écrivez d’une traite sans vous soucier des fautes de grammaire ou d’orthographe.
  • Écrivez pour vous seulement.
  • Si un sujet vous bouleverse, arrêtez d’écrire.

L’inconscient est passé maître dans l’art d’utiliser des données limitées afin de construire une version de la réalité qui apparaît complète et cohérente à son partenaire, l’esprit conscient. Les perceptions visuelles, la mémoire ainsi que les émotions sont une construction de données incomplètes, mélangées et conflictuelles. Nous utilisons cette même méthode pour construire notre image de nous-mêmes. Le système 1 mélange faits et rêveries, en exagérant nos points forts et en minimisant ou occultant nos faiblesses, créant ainsi une sorte de séries de tableaux de Picasso où certaines parties sont disproportionnées (les parties de nous-mêmes que nous aimons) et où les autres sont réduites à l’invisibilité. Naïvement, l’esprit conscient admirera cet autoportrait en croyant que celui-ci est une représentation exacte de la réalité. Pour reprendre la terminologie de Gurdjieff, l’homme se crée des tampons lui empêchant de voir la différence entre ce qu’il pense être et ce qu’il est réellement. L’homme n’est rien de plus qu’une machine qui pense en boucles programmées et ment à son esprit conscient qui vit alors dans ces mensonges. Autrement dit, nous rêvons et dormons en pensant que nous sommes éveillés, ou, comme le dit Gurdjieff, des magiciens :

« Un conte oriental parle d’un très riche magicien qui avait de nombreux troupeaux de moutons. Ce magicien était très avare. Il ne voulait pas prendre de bergers, et il ne voulait pas non plus mettre de clôture autour des prés où paissaient ses moutons. Les moutons s’égaraient dans la forêt, tombaient dans des ravins, se perdaient, et surtout s’enfuyaient à l’approche du magicien, parce qu’ils savaient que celui-ci en voulait à leur chair et à leurs peaux. Et les moutons n’aimaient pas cela.

À la fin, le magicien trouva le remède. Il hypnotisa ses moutons et leur suggéra tout d’abord qu’ils étaient immortels et que d’être écorchés ne pouvait leur faire aucun mal, que ce traitement était au contraire excellent pour eux et même agréable ; ensuite le magicien leur suggéra qu’il était un bon pasteur, qui aimait beaucoup son troupeau, qu’il était prêt à tous les sacrifices pour lui ; enfin, il leur suggéra que si la moindre chose devait leur arriver, cela ne pouvait en aucun cas leur arriver dès maintenant, dès aujourd’hui, et que par conséquent ils n’avaient pas à se tracasser. Après quoi le magicien mit dans la tête de ses moutons qu’ils n’étaient pas du tout des moutons ; à quelques-uns d’entre eux, il suggéra qu’ils étaient des lions, à d’autres qu’ils étaient des aigles, à d’autres encore qu’ils étaient des hommes ou qu’ils étaient des magiciens.

Cela fait, ses moutons ne lui causèrent plus ni ennuis, ni tracas. Ils ne s’enfuyaient plus jamais, attendant au contraire avec sérénité l’instant où le magicien les tondrait ou les égorgerait. »

P. D. Ouspenski, Fragments d’un enseignement inconnu

Nous sommes constamment sous l’effet du biais d’autocomplaisance, c.-à-d. nous attribuons nos réussites à nos qualités personnelles tout en nous expliquant nos échecs en en rejetant la responsabilité sur les autres/le monde :

« Quand vous comparez vos compétences, vos accomplissements, vos amitiés avec ceux des autres, vous tendez à accentuer le positif et à éliminer le négatif. Vous êtes un menteur par défaut, et c’est à vous-même que vous mentez le plus. Si vous échouez, vous oubliez. Si vous réussissez, vous le dites à tout le monde. »

David McRaney, You are not so smart

Un autre point important à considérer est que, en raison des deux systèmes, nous pouvons penser deux choses complètement différentes sur un même sujet. L’Implicit Association Test est un test qui évalue les préjugés raciaux. On mesure le temps qu’un sujet prend pour associer des visages à des mots positifs ou négatifs. Si, par exemple, quelqu’un associe plus facilement des mots négatifs à des visages issus des minorités plutôt qu’à des Blancs, cela signifie qu’il aura tendance à avoir des préjugés.

Il ressort de ce test que la majorité des sujets blancs interrogés qui affirmaient ne pas avoir de préjugés envers la population noire avaient en fait d’énormes biais inconscients envers celle-ci (le test devant être réalisé le plus vite possible, il fait intervenir le système 1). Cette étude révèle que nous pouvons être deux personnes en même temps : l’une, inconsciente, éprouve des sentiments négatifs envers les minorités à cause du conditionnement culturel forcé qui stéréotype les minorités comme étant négatives ; tandis que l’autre, l’esprit conscient, abhorre les préjugés. Le système 1 peut aimer une personne tandis que le système 2 la haït. Une personne peut se dire spirituelle tout en ayant un inconscient athée, et ainsi de suite.

Jeanne de Salzmann le disait déjà au siècle dernier :

« Vous verrez que vous êtes deux. Un qui n’est pas, mais qui prend la place et joue le rôle de l’autre. Et un qui est, mais si faible, si intangible, que sitôt apparu, il disparaît immédiatement. Il ne peut supporter le mensonge. Le moindre mensonge le fait s’évanouir au loin. Il ne combat pas, il ne résiste pas, il est battu d’avance. Apprenez à regarder jusqu’à voir la différence entre vos deux natures, jusqu’à voir les mensonges, la tromperie en vous. Quand vous verrez vos deux natures, ce jour-là, en vous, la vérité naîtra. »

« L’homme est une machine. Tout ce qu’il fait, toutes ses actions, toutes ses paroles, ses pensées, ses sentiments, ses convictions, ses opinions, ses habitudes sont les résultats des influences extérieures, des impressions extérieures. De par lui-même un homme ne peut pas produire une seule pensée, une seule action. Tout ce qu’il dit, fait, pense, sent — tout cela arrive. L’homme ne peut rien découvrir, il ne peut rien inventer. Tout cela arrive. »

P. D. Ouspenski, Fragments d’un enseignement inconnu

Dans le jargon psychologique moderne, on appelle cela l’effet d’amorçage : les pensées et le comportement d’une personne sont influencés par des stimuli auxquels elle ne prête aucune attention, ou qui lui sont complètement inconscients. Dans une expérience menée par le psychologue John Bargh, on a demandé à des étudiants d’assembler des phrases de quatre mots à partir de séries de cinq mots :

« John Bargh et ses collègues de l’Université Yale ont montré que la démarche d’un individu jeune peut être subtilement modifiée et “vieillie”, à condition de lui faire lire ou écouter des mots évoquant la vieillesse. Dans cette expérience, de jeunes étudiants effectuaient une première tâche consistant à reconstituer des phrases dont les mots étaient placés dans le désordre. Certains participants devaient manipuler des mots évoquant la vieillesse (vieux, seul, dépendant, prudent, grincheux, etc.). Lorsqu’ils avaient terminé, on mesurait la vitesse à laquelle ils quittaient le laboratoire, et on observait avec soin leur démarche. Il est ainsi apparu que les individus ayant manipulé des mots liés au concept de vieillesse ont marché plus lentement et en adoptant une posture plus courbée… Corps et démarche s’ajustent à son état d’esprit. »

Une autre étude montre qu’on peut influencer l’achat de bouteilles de vin allemandes ou françaises exposées dans un supermarché, en faisant simplement passer en fond musical des chansons de ces deux pays. Les jours où la musique française était jouée, plus de 70 % des bouteilles vendues venaient de l’Hexagone. Le même taux fut atteint pour la musique allemande.

Réfléchissez un moment. Si une personne est influencée par des stimuli aussi triviaux et banals qu’un fond musical lors de ses achats ou qu’une série de mots pour dicter sa vitesse de marche, que pouvons-nous attribuer à des choix conscients ? Nos amis, nos choix vestimentaires, nos goûts, nos pensées, nos partenaires romantiques sont-ils des choix conscients de notre part, ou réagissons-nous simplement à des influences extérieures et créons-nous une fiction pour nous expliquer à nous-mêmes ces choix ? Notons que des recherches en neuropsychologie démontrent les parallèles entre l’effet d’amorçage et l’hypnose. Dans les deux cas, la volonté est contrôlée par des forces extérieures.

Ces recherches remettent en cause d’autres concepts bien ancrés dans la psyché humaine, c.-à-d. la croyance que nous avons un libre arbitre. Roy Baumeister, psychologue à l’université de Floride résume la question :

« Au centre de la question du libre arbitre est le débat à propos des causes psychologiques des actions. Une personne est-elle une entité autonome qui choisit consciemment ses actes parmi une multitude d’options possibles ? Ou n’est-elle qu’un lien dans une chaîne causale, de sorte que ses actions ne sont que le produit inévitable de causes légitimes découlant de faits antérieurs, et jamais personne n’aurait pu agir différemment d’elle ? »

De même que nous sommes incapables d’identifier les causes de nos émotions, nous ne connaissons pas les causes qui provoquent nos actions. Daniel Wegner, professeur de psychologie à Harvard, soutient que le libre arbitre est une illusion. Quand nous faisons l’expérience d’une pensée suivie d’une action, nous présumons que la pensée a causé l’action. Cependant, Wegner fait intervenir une troisième variable, une intention inconsciente, qui pourrait produire à la fois la pensée consciente et l’action. Par exemple, voir une personne obèse peut être la cause de pensées sur la nécessité de consommer des aliments bénéfiques pour la santé. Au lieu d’acheter un sandwich, la personne optera pour une entrecôte. De ce fait, ce n’est pas la pensée consciente qui est la cause du comportement, malgré l’illusion qu’elle l’est. Toujours en suivant Wegner, le rôle causal des pensées conscientes a été surestimé : il semblerait que ce serait une explication après coup qui émanerait de l’inconscient. Wegner commente :

« Imaginez pendant une minute que vous êtes un robot. Imaginez que toutes vos actions émanent d’un ensemble complexe de mécanismes. Imaginez aussi que ces mécanismes donnent naissance à des pensées au sujet de ce que nous allons faire dans le futur. En d’autres termes, tous les pièges sont présents pour nous permettre de faire l’expérience d’une causalité mentale apparente. »

Ran R. Hassin, James S. Uleman et John A. Bargh, The New Unconscious

Ce que veut dire Wegner est que ce mécanisme complexe qu’est le système 1 a déjà prévu de faire une action avant que l’esprit conscient ne pense à cette action. Des chercheurs ont découvert, lors d’une expérience où les sujets devaient appuyer sur un bouton, qu’un signal était déclenché dans le cerveau 7 secondes (oui, 7 secondes) avant que les sujets ne prennent conscience de leur choix :

« En 2007, le Pr John-Dylan Haynes a mené une expérience qui a changé sa conception de l’existence. Ce neuroscientifique rattaché au centre Bernstein de neurosciences computationnelles (BCCN) de Berlin a placé des volontaires dans un caisson d’IRM devant un écran où défilaient des lettres au hasard. Il leur a demandé d’appuyer sur un bouton soit avec l’index droit, soit avec le gauche quand ils en ressentaient le besoin et de retenir la lettre affichée au moment où ils ont décidé d’appuyer sur le bouton. L’imagerie par résonance magnétique fonctionnelle révélait leur activité cérébrale en temps réel. Les résultats ont été surprenants. “Notre premier réflexe a été de nous dire : il faut vérifier si cela tient la route, raconte Haynes. Nous avons procédé à plus de tests de validité que je n’en ai vu dans aucune autre étude.”

Les sujets prenaient la décision consciente d’appuyer sur le bouton environ une seconde avant de le faire, mais l’équipe de Haynes a découvert que leur activité cérébrale semblait anticiper cette décision avec sept secondes d’avance. Autrement dit, c’était comme si, bien avant que les sujets soient conscients de faire un choix, leur cerveau avait déjà pris une décision. »

Source

Nos décisions sont prédéterminées inconsciemment bien avant que la conscience n’entre en jeu. Pour reprendre Gurdjieff, le plus gros mensonge que l’homme se dit à lui-même est qu’il se dit doté de libre arbitre. En réalité, la majorité des actions humaines sont mécaniques et influencées par le temps, les besoins, l’humeur — en résumé, par les influences extérieures.

Ce tableau de la machine humaine peint par la psychologie moderne montre la terreur de la situation, comme l’a dénommée Gurdjieff dans ses Récits de Belzébuth : des milliards d’humains qui s’illusionnent eux-mêmes en pensant être conscients, en croyant prendre des décisions, en croyant pouvoir faire des choix.

Sur ce, je vous laisse avec une très jolie chanson de Pink Floyd dont les paroles ont inspiré le titre de cet article :

Bibliographie :




Les éoliennes provoquent des maladies vibroacoustiques

Capsule d’information concernant les infrasons qu’émettent les éoliennes, avec le Dr Mariana Alves-Pereira, professeur associé à l’Université Lusofona à Lisbonne au Portugal. Dr Pereira a un baccalauréat en physique et une maîtrise en génie biomédical ; elle a obtenu son doctorat en sciences environnementales.


Altération de l’endothélium et troubles de la microcirculation chez les humains et les animaux exposés aux infrasons en raison d’une mécanotransduction irrégulière

Journal of Biosciences and Medicines, 2023, 11, 30-56
https://www.scirp.org/journal/jbm
ISSN en ligne : 2327-509X
ISSN imprimé : 2327-5081

Par Ursula Maria Bellut-Staeck
Scientifique indépendante, Berlin, Allemagne

Comment citer cet article : Bellut-Staeck,
U.M. (2023) Impairment of the Endothelium and Disorder of Microcirculation in Humans and Animals Exposed to Infrasound due to Irregular Mechano-Transduction. Journal of Biosciences and Medicines, 11, 30-56.
https://doi.org/10.4236/jbm.2023.116003

Reçu : 24 avril 2023
Accepté : 10 juin 2023
Publié : 13 juin 2023

Copyright © 2023 par les auteurs et Scientific Research Publishing Inc.
Ce travail est placé sous la licence Creative Commons Attribution International
Licence (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/

Résumé

La microcirculation des mammifères est un système synchronisé complexe et autorégulé en fonction de la demande actuelle en nutriments et en oxygène. Le bon déroulement des fonctions vitales telles que la croissance, la régulation de la pression sanguine, la séquence inflammatoire et l’embryogenèse est lié à l’intégrité de l’endothélium. La vasomotion sensible en est particulièrement dépendante. Les réseaux de signalisation par mécano-transduction jouent un rôle essentiel dans les processus cellulaires vitaux et constituent le mécanisme physiologique décisif pour une libération adéquate de NO, principal responsable de l’autorégulation des vaisseaux. Une perturbation de l’intégrité endothéliale, provenant par exemple d’un stress oxydatif chronique et/ou d’un stress mécanique (oscillatoire), entraîne une perturbation de la vasomotion ainsi qu’un déséquilibre des systèmes d’oxydoréduction, reconnu comme la cause principale du développement de maladies inflammatoires chroniques telles que l’athérosclérose et des maladies secondaires correspondantes, éventuellement le cancer. Le cytosquelette endothélial, qui correspond à un « modèle de tenségrité » viscoélastique, offre la possibilité d’une mécanotransduction grâce à sa construction spéciale. L’augmentation rapide des connaissances sur les forces mécaniques dans la détection et la régulation cellulaires au cours des dernières années (qui a culminé avec le prix Nobel pour le décodage des canaux ioniques détectant la pression/vibration) nous a conduits à l’hypothèse suivante : le facteur de stress externe « bruit » produit dans certaines conditions un champ de stress oscillatoire dans le lit d’écoulement physiologiquement laminaire des capillaires, qui peut conduire à des mécano-transductions irrégulières. Les résultats indiquent une dépendance stricte de la fréquence dans la mécano-transduction avec la détermination de seuils pour une transmission 1:1. Les connaissances récemment acquises sur la mécano-transduction endothéliale jettent un nouvel éclairage sur l’importance des basses fréquences. Cela pourrait indiquer la manière physiopathologique longtemps recherchée par laquelle les infrasons peuvent exercer un effet de stress au niveau cellulaire. Les citoyens exposés au bruit, qui vivent à proximité d’infrastructures telles qu’une installation de biogaz, des pompes à chaleur, des centrales thermiques de type bloc et de grandes éoliennes industrielles (IWT), présentent dans le monde entier une symptomatologie associée à des troubles de la microcirculation. Des effets sur les insectes ou les poissons sont également concevables, puisque les canaux piézo-électriques sont reconnus comme des structures conservées de tous les organismes multicellulaires. Un plan expérimental est proposé pour démontrer l’influence pathologique directe d’infrasons de force, de fréquence, de profil d’effet/temps et de durée définis sur la vasomotion sensible.

Mots clés

Mécano-transduction, Cytosquelette endothélial, Infrasons, Stress oscillatoire, Vasomotion

1. Introduction

1.1. Structure, composants et régulation du système de microcirculation chez les mammifères

Les cellules endothéliales plates tapissent tous les vaisseaux du mammifère (y compris les vaisseaux lymphatiques), qui est son plus grand organe. Responsables de l’ensemble du transport du métabolisme de l’énergie et des substrats ainsi que de nombreuses fonctions vitales, elles ont une très grande surface (environ six terrains de football chez l’adulte) [1]. La cellule endothéliale correspond dans sa structure à une cellule somatique et est spécifiée pour ses diverses tâches, le vaisseau respectif (vaisseau capillaire, artère) ainsi que le type de tissu (zone splanchnique, rein, cerveau) étant responsables de sa spécification ultérieure [2]. Elle diffère par sa forme, son expression et sa surface, ainsi que par sa dotation en récepteurs du système adrénergique. Selon leur ultrastructure, les cellules endothéliales se différencient, en fonction de leur sous-structure spécifique à l’organe, en différents types d’endothélium continu, fenêtré et discontinu. Le système circulatoire est constitué d’une combinaison de vaisseaux, connectés en série et en parallèle, dans lesquels, conformément à la loi d’Ohm, la résistance totale diminue avec chaque connexion parallèle supplémentaire [2]. En régulant la résistance via les artérioles en amont, nous trouvons physiologiquement des flux laminaires avec une vitesse uniforme, strictement liée à la taille du vaisseau, dans le réseau capillaire. Il s’agit d’une condition préalable essentielle aux diverses tâches vitales de la microcirculation [2] [3]. En revanche, nous constatons un stress oscillatoire chronique, un facteur causal important de l’athérosclérose, au niveau des branches vasculaires et des courbes les plus fortes des vaisseaux de taille moyenne et de grande taille. L’une des principales tâches de la microcirculation est d’adapter le flux sanguin vasculaire aux besoins actuels [1] [4]. La densité fonctionnelle des vaisseaux (DFP) dans le muscle au repos est d’environ 25 % de la densité totale des vaisseaux (DTV). Inversement, cela signifie également que le débit sanguin peut être augmenté d’un multiple [5]. La capacité de compensation du réseau capillaire est donc plusieurs fois supérieure à celle de la « macrocirculation ». Sous l’effet d’une contrainte physique, ce que l’on appelle le recrutement capillaire, selon Moore et Fraser 2015 [6], commence par abaisser la résistance vasculaire des artérioles en amont, ce qui entraîne une augmentation significative de la surface d’échange des nutriments et une diminution de la distance entre deux capillaires avec, par conséquent, une distance de diffusion réduite pour l’oxygène et les nutriments. La régulation du flux sanguin local (appelée fonction vasomotrice) est extrêmement complexe et « orchestrée » [4]. Elle est contrôlée par des facteurs intrinsèques et extrinsèques (par exemple, le système nerveux autonome et les hormones vasoactives, telles que l’adrénaline, la vasopressine, l’angiotensine et la sérotonine) qui modulent l’activité intrinsèque [1], en fonction également de la taille des vaisseaux et de la distribution des récepteurs adrénergiques dans un organe donné.

L’une des bases de la régulation intrinsèque est constituée par l’effet Bayliss [7]. Le débit sanguin est maintenu constant : si le débit sanguin augmente, il y a vasoconstriction, si le débit sanguin diminue, il y a vasodilatation. Une deuxième base est constituée par les facteurs métaboliques selon la théorie classique, dans laquelle l’hypoxie locale entraîne une libération accrue de substances actives vasodilatatrices (par exemple, NO, ATP, prostaglandines), ce qui provoque une augmentation du flux sanguin local. L’accumulation de métabolites tels que le lactate, les ions hydrogène, le potassium et l’adénosine maintient cet effet [1]. L’une des conditions préalables les plus importantes et les plus responsables de la biodisponibilité du NO est la réponse classique à la contrainte de cisaillement laminaire due aux forces mécaniques, selon Chien 2007 [8]. Le NO est déclenché de manière classique par le flux sanguin qui provoque un changement mécanique au niveau de la membrane des cellules endothéliales et est formé à partir de son précurseur, la L-arginine, par l’intermédiaire de la NO-synthétase (NOS). Le NO est un médiateur de la relaxation vasculaire par l’activation de la guanylyl cyclase soluble (sGC) qui catalyse la conversion de la guanosine triphosphate (GTP) en 3′-5′-guanosine monophosphate cyclique (GMPc).

Ce dernier est extraordinairement typique de la microcirculation, mais c’est l’un des phénomènes les moins bien expliqués : la vasomotion.

La vasomotion a été observée pour la première fois dans l’exemple classique d’une veine de chauve-souris et décrite comme une contractilité rythmique qui accélère le flux sanguin vers l’avant grâce à des pulsations fines et synchronisées [9]. Les causes et le contrôle de ce phénomène n’ont pas encore été entièrement élucidés. Selon l’état actuel des connaissances, la vasomotion dépend de l’intégrité de l’endothélium et sert apparemment à optimiser l’apport en nutriments [10]. La vasomotion peut être directement observée in vivo en microscopie vidéo SDF. Citation de Aalkjaer C. Mulvany MJ 2020) [10] au cap. 1.3 page 7 :

« Peut-être que la seule caractéristique liée à la vasomotion sur laquelle tout le monde s’accorde est qu’une oscillation du potentiel de membrane des cellules musculaires lisses est à l’origine de l’oscillation du tonus individuel des cellules musculaires lisses et de la synchronisation des cellules musculaires lisses […]. Cela suggère fortement que le [Ca2+] dans les cellules musculaires lisses oscille également de manière synchronisée — et c’est effectivement le cas. […]».

L’article original [10] contient des informations plus approfondies.

L’étendue de l’implication endothéliale dans les syndromes cliniques est immense, tout comme le sont les facteurs potentiels qui peuvent influencer la microcirculation de manière positive ou négative. Les influences potentielles les plus importantes proviennent de fonctions vitales telles que l’apport d’oxygène et de nutriments, la croissance, l’embryogenèse, la coagulation sanguine, la régulation immunitaire, etc. Les principales causes de dysfonctionnement sont celles qui peuvent perturber l’intégrité de l’endothélium, en particulier un excès de stress oxydatif et oscillatoire.

1.2. Homéostasie du système redox

La libération adéquate de NO, avec la bonne quantité, au bon endroit et au bon moment, est cruciale pour la régulation synchronisée du flux sanguin et le maintien de la santé vasculaire [11]. En tant qu’antioxydant puissant, il joue un rôle décisif dans l’homéostasie de l’ensemble du métabolisme redox avec l’interruption de la peroxydation des lipides et donc la diminution des radicaux libres d’oxygène (ROS) agressifs ([11] [12] Tableau 1). En tant que radical libre (à l’état gazeux), il peut se diffuser librement à travers les membranes. Les effets vasculaires du NO sont présentés comme protecteurs, régulateurs ou délétères [11] [13]. La façon dont la réaction se déroule réellement dépend, selon Laurindo F. et al [11], de plusieurs facteurs. Selon ces auteurs, les propriétés défavorables sont généralement associées à une production excessive de NO, les effets protecteurs du NO sont attribués à une production régulière et adéquate de NO dans une situation spécifique. Non seulement le NO, mais aussi ses trois isoenzymes de la NO-Synthétase endothéliale sont impliqués dans les voies de signalisation redox. En fonction du type d’isoenzyme et des conditions environnantes, elles ont également des effets protecteurs ou délétères, comme le montre le tableau 1.

Par conséquent, la dépendance d’un approvisionnement adéquat en NO aux forces physiques conduit à une sensibilité aux facteurs de stress externes qui pourraient conduire à une mécano-transduction irrégulière, conduisant éventuellement à un approvisionnement en NO accru et inadéquat. Pour plus de détails sur ce thème, voir les articles [11] [12] [13] [14].

Tableau 1. Les différents effets possibles de l’oxyde nitrique : protecteur, régulateur et délétère :
Effets protecteurs : Effets régulateurs : Effets délétères :
– Antioxydant
– Inhibe l’adhésion des leucocytes et des plaquettes
– Protège contre la toxicité et la peroxydation
– Tonus vasculaire
– Adhésion cellulaire
– Perméabilité vasculaire
– Neurotransmission
– Bronchodilatation
– Régulation de l’inflammation
– Régulation de la fonction rénale
– Inhibe la fonction enzymatique
– Induit des dommages à l’ADN
– Induit la peroxydation des lipides
– Augmente la sensibilité aux radiations, aux substances alkylantes et aux métaux toxiques
– L’épuisement des réserves d’antioxydants
D’après la source originale [13] FIG 1 dans WINK AA. MITCHELL J (1998) CHEMICAL BIOLOGY OF NITRIC OXIDE: INSIGHTS INTO REGULATORY, CYTOTOXIC, AND CYTOPROTECTIVE MECHANISMS OF NITRIC OXIDE, Radiation Biology Branch, National Cancer Institute, Bethesda, MD, USA tiré du livre Free Radical Biology & Medicine, Vol. 25, Nos. 4/5, pp. 434-456, 1998. Publié par Elsevier Science Inc. 0891-5849/98 $0.00 1.00 référence FIG 1 Page 435.

Dans le domaine de la microcirculation, d’autres substances vasodilatatrices jouent un rôle décisif. Les segments vasculaires des artérioles réagissent aux auto-acides endothéliaux tels que l’angiotensine, la sérotonine, les eicosanoïdes [2] et aux agonistes tels que l’acétylcholine, la bradykinine ou la substance P, ainsi qu’aux variations de pression transmurale. Ils ne le font pas en tant qu’entités isolées, mais de manière coordonnée. Ce phénomène est attribué au facteur d’hyperpolarisation dérivé de l’endothélium (EDHF) [11]. L’EDHF a un effet à longue distance, car sa formation déclenchée localement peut également déclencher une réponse vasculaire rectifiée en amont et en aval. L’activation de l’écoulement de potassium dépendante du calcium par l’EDHF est suivie d’une hyperpolarisation avec transmission du transfert d’électrons à l’intérieur de la paroi vasculaire via les jonctions lacunaires et sans perte de temps [15]. La réaction de transmission est comparable à un banc de poissons, très rapide et synchronisé [5]. Les possibilités de la stimulation microtactile par rapport au déclenchement par l’acétylcholine ont été testées et confirmées expérimentalement [5].

1.3. Homéostasie de l’inflammation et de la fibrose

Toutes les séries de réactions séquentielles dépendent de l’intégrité de l’endothélium et impliquent le cytosquelette endothélial. Comme il s’agit d’une fonction endothéliale vitale, le processus complexe de l’inflammation peut être perturbé à n’importe quel niveau selon Suthahar [16]. Compte tenu de sa grande pertinence par rapport au sujet de notre travail, nous présentons une description plus détaillée pour montrer à quel point l’ensemble du processus est sensible, par exemple en cas de stress mécanique : une réponse inflammatoire est essentielle en tant que mécanisme de défense physiologique contre, par exemple, les bactéries, les virus et les blessures. Le point de non-retour est la diapédèse des leucocytes. L’évolution ultérieure conduit, dans le cas favorable, à une restitutio ad integrum [restauration à terminer], dans le cas défavorable, à une inflammation chronique avec fibrose, défaut de cicatrisation et éventuellement lésions organiques.

Ley et al. (2007) [17] et Serhan et al. (2007) [18], ainsi que les travaux connexes de Nussbaum et Spe-rando (2011) [19] et [1] [20], constituent des ouvrages importants sur l’état de la science. Selon Ley [17], le processus ordonné dans toutes ses phases est crucial pour son résultat. Nous présentons ici le déroulement non perturbé :

Les leucocytes circulants se déplacent passivement dans le flux sanguin. Dans les veinules postcapillaires, les modifications locales de l’hémodynamique à proximité des sites d’inflammation entraînent une réduction du débit sanguin. Cela augmente la probabilité que les leucocytes entrent en contact avec l’endothélium. L’endothélium est activé pendant quelques heures et exprime des molécules d’adhésion qui conduisent à la fixation des leucocytes. Le « slow-rolling » [roulement lent] des leucocytes est également rendu possible par une autre E-sélectine endothéliale inductible, qui repose sur une activation partielle des intégrines sur les leucocytes [17] (voir Figure 1). Le cytosquelette d’actine est également activement impliqué dans ce processus. D’autres chimiokines, provenant en partie de l’endothélium et en partie de l’espace extracellulaire, activent la liaison étroite et le passage amiboïde des leucocytes dans l’espace extracellulaire. Des changements sélectifs de la perméabilité (fonction de gardien de la cellule endothéliale) permettent à des composants cellulaires tels que les neutrophiles et les monocytes de passer de l’espace intravasculaire à l’espace extracellulaire. De plus amples détails sur les séquences de la diapédèse des leucocytes sont présentés dans des ouvrages de référence [1] [19]. Il existe une interaction intense entre les médiateurs sécrétés par l’endothélium (cytokines) et l’ECR [1] [16]. Les signaux anti-inflammatoires tels que la corticostérone atténuent la gravité et limitent la durée de la phase précoce [16].

Figure 1. Description originale : Vue d’ensemble schématique de la cascade de recrutement des leucocytes à l’aide de l’exemple d’un neutrophile quittant une veinule postcapillaire. La capture et l’enroulement sont médiés par l’interaction des sélectines avec la PSGL-1 à la surface du neutrophile. Pendant le roulement, le neutrophile est activé par les chimiokines présentes sur l’endothélium enflammé, ce qui entraîne une adhésion ferme par la liaison des intégrines neutrophiles (LFA-1 et Mac-1) aux molécules d’adhésion endothéliales (par exemple, ICAM-1 et -2). Une fois l’adhésion ferme obtenue, le neutrophile s’étend et commence à ramper le long de la paroi endothéliale à la recherche d’un site approprié pour la transmigration. États de la diapédèse des leucocytes : Capture et roulement, roulement lent, adhésion ferme, reptation, transmigration Source originale [19] Nussbaum, C., Sperando, M. (2011) : Recrutement de cellules immunitaires innées chez le fœtus et le nouveau-né. J Reproduction. Immunol 2011 ; 90 (1) : 74-81. (IF 2, 966). Page 2 FIG 1. Avec autorisation.

En résumé, le processus d’inflammation est une interaction complexe entre un processus temporel et spatial d’influence mutuelle et d’activation entre des facteurs de l’espace intra- et extravasculaire. Au centre du processus se trouve la fonction adéquate de gardien d’un endothélium en état d’intégrité. Après la diapédèse des leucocytes, un processus ordonné dépend de l’absence de stress oscillatoire et oxydatif accru, afin de conduire à une restitutio ad integrum. Dans l’autre cas, un défaut de cicatrisation peut se produire en raison d’un changement d’équilibre dans le sens d’une inflammation chronique et d’une fibrose. En médecine clinique, le passage à une inflammation chronique et la prévention de celle-ci jouent un rôle important [15].

Les ouvrages de référence de Buckley et al. (2014) [21] et de Serhan et al. (2007) [18] décrivent les séquences qui suivent la diapédèse des leucocytes : Des « points de contrôle » et des « signaux d’arrêt » appropriés empêchent la poursuite de l’entrée des leucocytes. Les lipoxines, les résolvines et les prostaglandines agissent dans le cadre d’un processus actif de pro-résolution. Cela ouvre la voie à la migration et à la différenciation des monocytes vers la phagocytose, à la normalisation du gradient de chimiokines (qui permet aux leucocytes de subir l’apoptose) et à la sortie du tissu par les vaisseaux lymphatiques de drainage. La défaillance de ces mécanismes de régulation peut conduire à un état d’inflammation chronique, provoquant des lésions tissulaires continues et une fibrose progressive. Un exemple classique est l’insuffisance cardiaque chronique par « remodelage » du cœur [16].

Au niveau du cœur, les myofibroblastes immunocompétents et les facteurs de l’ECR modulent activement le développement d’une fibrose d’abord périvasculaire puis progressive. Les points de départ peuvent être le développement d’une myocardite sous une forme chronique, un état après un infarctus du myocarde et/ou une pression mécanique chronique sur le cœur (hypertension systémique ou pulmonaire). La conséquence est l’augmentation de la distance de diffusion, la diminution de la densité capillaire, une altération du système électroconducteur avec arythmie cardiaque, une perturbation de l’angiogenèse, conduisant à nouveau à une détérioration du substrat et de l’approvisionnement en oxygène avec un processus d’autorenforcement : un cercle vicieux [16].

1.4. Forces hémodynamiques

Les forces physiques physiologiques agissent constamment sur l’organisme, par exemple la gravidité, la pression, la contrainte de cisaillement, la vibration. Les principales sont les forces tangentielles (par exemple, la contrainte de cisaillement laminaire) ou les forces d’étirement (par exemple, la distension pulsatile) du sang selon Fernandes, C.D. et al. (2018) [3] et Mazzag et al. (2014) [22]. Comme décrit ci-dessus, les facteurs de stress oscillatoires internes sont physiologiquement limités par la taille des vaisseaux, qui est un facteur critique pour le maintien des fonctions vitales [3]. La régulation de plusieurs processus cellulaires vitaux via des réseaux de mécanotransduction et de signalisation, notamment la croissance, la différenciation, la migration, l’angiogenèse et l’apoptose, est essentielle [1] [3]. Au cours de la morphogenèse, la contrainte de cisaillement dirige la formation de l’arbre vasculaire selon Hahn et Schwartz (2009) [23]. Les variations de la contrainte de cisaillement déterminent des changements vasomoteurs instantanés qui sont régulés « battement par battement » [3] afin de maintenir une contrainte laminaire constante et d’optimiser la fonction de distribution du flux de l’artère conductrice. En même temps, il est important de s’appuyer sur une libération suffisante de NO [3]. La figure 2 donne un aperçu des différents effets de la contrainte de cisaillement.

1.5. Structure de tenségrité du cytosquelette endothélial

La structure viscoélastique de la « tenségrité » endothéliale constitue la base de la mécanotransduction des forces. Le terme « tenségrité » a été inventé par R. Buckminster Fuller (1975) [24], architecte du dôme géodésique, où la compression discontinue et la tension continue ont été utilisées pour atteindre la plus grande stabilité possible combinée à la légèreté. Des points d’ancrage supplémentaires sont utilisés pour transférer les forces mécaniques aux différents éléments de compression et de tension [25]. Les équivalents au niveau de la cellule endothéliale sont les trois réseaux intercommunicants de filaments protéiques et leurs points d’ancrage.

Les filaments d’actine, en tant que partie élastique, servent à maintenir la forme de la cellule en formant un anneau sous la membrane cellulaire [25] avec un réseau de communication vers les capteurs de flux (mécanosenseurs) et les points d’adhésion focale de la membrane (FAS) — les « points d’ancrage dans le modèle de tenségrité » — ainsi que les jonctions lacunaires intercellulaires (CCAP) [25]. Selon Dudek et al [26], plus de 80 protéines liant l’actine jouent un rôle essentiel dans la génération des forces de traction. L’article original [25] donne un aperçu plus approfondi de ce sujet complexe. En réponse à des stimuli contractiles, les filaments d’actine et de myosine forment des unités parallèles organisées et liées à la membrane, appelées « fibres de stress », qui stimulent le glissement de la myosine le long des filaments d’actine.

Figure 2. Description originale : Différents effets du cisaillement laminaire et oscillatoire sur la fonction cellulaire et l’athérosclérose. Les lignes pointillées représentent le cytosquelette des cellules endothéliales. Les forces de cisaillement laminaires et oscillatoires sont reconnues dans les cellules endothéliales par des mécanosenseurs et les mécanosignaux initient des cascades de signalisation qui régulent la production de facteurs vasoactifs et l’équilibre entre ces facteurs. Alors que le cisaillement laminaire stimule la production de facteurs athéroprotecteurs, le cisaillement oscillatoire stimule la production de facteurs athérogènes et l’équilibre de ces facteurs détermine la tendance des vaisseaux à rester sains ou à développer des plaques athérogènes. PGI2, prostacycline ; TM, thrombomoduline ; TGFb, Transforming Growth Factor beta; PDGF, Platelet-Derived Growth Factor; ET-1, Endothelin-1 ; BMP4, Bone Morphogenetic Protein 4. Adapté de Jo H, Song H, Mow-bray A. Role of NADPH oxidases in disturbed flow- and BMP4-induced inflammation and atherosclerosis. Antioxid Redox Signal 2006; 8: 1609-19. Vue d’ensemble des différents effets de la contrainte de cisaillement laminaire et oscillatoire sur la fonction cellulaire et l’athérosclérose. Source originale [3] Fernandes CD, Araujo Thaı’s S, Laurindo FRM, Tanaka LY. Hemodynamic Forces in the Endothelium. Mechanotransduction to Implications on Development of Atherosclerosis. In: ENDOTHÉLIUM ET MALADIES CARDIOVASCULAIRES. Vascular Biology and Clinical Syndromes. Édité par PROTASIO L. DA LUZ.PETER LIBBY ANTONIO C. P. CHAGAS. FRANCISCO R. M. LAURINDO. Éditeur : Mica Haley. Sao Paolo. (2018) ISBN 978-0-12-812348-5 Cap. 7 FIG 7.3, p 90. Avec l’autorisation de l’auteur.

Cela conduit à une augmentation de la tension intracellulaire et donc à une contraction cellulaire selon Wang et al. (2009) [27] et Lee et al. (2003) [28]. La fermeture et l’ouverture des lacunes paracellulaires en réponse à l’inflammation, à l’ischémie et aux substances envahissantes (fonction de gardien) sont essentielles selon Patrick Belvitch et al. (2018) [29]. Les filaments d’actine constituent également ce que l’on appelle les microvillosités. Ceux-ci contiennent un faisceau central de filaments d’actine, également ancrés au cytosquelette. Les microvillosités sont présentes dans divers organes (par exemple l’intestin) où elles ont des propriétés de résorption.

Les microtubules constituent l’élément de compression avec des tiges creuses résistantes à la pression, composées d’α— et de β-tubuline [25]. Ils sont reliés à l’ECR par des intégrines (protéines transmembranaires) et soutiennent la structure cellulaire en communiquant avec les filaments d’actine et les filaments intermédiaires, ainsi que la formation des fuseaux pour la mitose.

1.6. Transmission de la force mécanique par mécanotransduction « biophysique

L’observation que de nombreux processus se déroulent manifestement beaucoup plus rapidement que ne le permet la voie mécano-chimique via l’expression des gènes et la synthèse des protéines (à savoir au minimum quelques secondes), a conduit à une recherche intensive sur la structure de « dix grilles » et à la définition de la « voie biophysique ». Celle-ci repose sur des liens physiques directs entre des mécanosenseurs spécifiques de la surface endothéliale et des éléments du cytosquelette. Elle permet aux cellules de transférer des stimuli mécaniques sur de longues distances et, ce qui est très important, une excitation spatialement hétérogène pour transformer l’information en une réaction souhaitée [27]. Un travail crucial avec une pertinence importante pour notre travail est la recherche sur la dynamique et la distribution de la transmission en réponse à un « flux bruyant » de Bori Mazzag et al. 2010 [30] et Maz-zag B, Gouget C, Hwan Y, Barakat AI 2014 [22]. Par écoulement « bruyant », les auteurs entendent un « écoulement oscillant ou turbulent dans des conditions de fluctuations aléatoires des propriétés d’écoulement de la pression et de la vitesse », Citation Mazzag, Barakat 2010 page 912 [30].

Les prédécesseurs dans l’exploration de la « voie biophysique » au début des années 2000 ont été Wang et al [8] et Davies et al (2005) [31]. Des travaux importants ont été réalisés dans ce contexte par Helmke et al [32], Hsu, H. J., Lee, C.F, Locke, A. et al (2010) [33] ; Hwang, Y., Gouget, C. L. M et Barakat, A. I. (2012) [34].

Pour mieux comprendre la dynamique de la transmission de la force par les filaments du cytosquelette, un certain nombre de modèles mathématiques ont été développés. Les auteurs Mazzag et Barakat en présentent un aperçu (possibilités et limites) dans [22].

Le modèle de réseau temporel, tel que présenté dans (2010) [30] et (2014) [22], est basé sur une structure viscoélastique d’un modèle de tenségrité, afin de développer une compréhension de la transmission des flux « bruyants » et de définir quelles structures de transmission sont sensibles aux flux « bruyants ». Ce modèle est illustré à la figure 3.

Les résultats montrent que l’amplitude des oscillations dans le flux « bruyant » suscite une réponse plus forte que sa durée. Une autre implication importante est que les FAS (Focal adhesion points – points d’ancrage égaux aux ECR), en raison de leur grande sensibilité au bruit, sont des candidats de choix pour jouer le rôle de « détecteurs de bruit » cellulaires [30].

Une évaluation sommaire suit dans Mazzag 2014 [22] avec d’autres développements de modèles, par exemple pour la distribution spatiale des forces mécaniques pendant la transmission comme le Spatial temporal network Model ; selon les auteurs [22], il y a eu d’importantes contributions des articles originaux de [34] et Mazzag et Barakat (2011) ainsi que Mazzag et al. (2003).

Figure 3. Description originale : Représentation schématique d’une CE composée d’un méca-anosenseur (MS), d’éléments du cytosquelette (fibres de stress d’actine (a) ou microtubules (M)), d’un noyau (N), de protéines d’adhésion cellule-cellule (CCAP) et d’un site d’adhésion focale (FAS). L’encadré montre une représentation du TPMM (ou corps de Kelvin) et les paramètres viscoélastiques pour le FAS. Les exposants « 32 » sur les paramètres indiquent que cet élément est le deuxième élément de la troisième branche (voir le texte). (b) Représentation en réseau des composants de la CE dans le panneau A. Chaque composant cellulaire correspond à un TPMM, couplé à d’autres composants selon le diagramme indiqué. La fibre de stress d’actine et la CCAP connectées en série sont appelées branche 1, la fibre de stress d’actine/microtubule en série avec le noyau est la branche 2, et la fibre de stress d’actine en série avec le FAS est la branche 3. (a) Représentation schématique d’une cellule endothéliale composée d’un capteur de flux (FS), d’éléments du cytosquelette filament d’actine (a) ou microtubules (b) et des connexions (N), (CCAP), (FAS). (b) Représentation mathématique. Source originale [22] [30] : Modèle de réseau temporel FIG 1 Bori Mazzag, Cecile L. M. Gouget, Yongyun Hwang et Abdul I. Barakat (2014) [22] Cap. 5. Page 98 [30] Mechanical Force Transmission via the Cytoskeleton in Vascular Endothelial Cells. Dans Endothelial Cytoskeleton. Éditeurs Juan A. Rosado et Pedro C. Redondo Département de physiologie, Université d’Estrémadure Cáceres, Espagne. Avec l’autorisation de l’auteur.

En résumé, les résultats fournissent la forte dépendance de fréquence de la transmission de force avec la définition d’une valeur seuil pour les filaments d’actine (plus sensible) et les microtubules.

Une autre question pour les auteurs était le comportement de saturation lorsque le signal persiste et une explication, comme quoi les fréquences naturelles, générées par les organes de l’organisme lui-même, ne conduisent pas à une longue propagation de la transmission. Nous citons les auteurs Mazzag et Barakat 2014 p. 107 [22] :

Dans le cas d’un forçage oscillatoire, la contrainte liée à la déformation, comme dans le cas d’un forçage constant, présente un transitoire initial avant de finir par saturer en une réponse stable périodique dans le temps. Il est important de noter que l’amplitude de saturation de la contrainte liée à la déformation au niveau du noyau dépend fortement de la fréquence du forçage. Les figures 3D et E illustrent l’amplitude de saturation de la contrainte liée à la déformation au niveau du noyau en fonction de la fréquence de forçage pour le forçage transversal et axial, respectivement. Dans les directions axiale et transversale, un stimulus mécanique à basse fréquence (<0,1 Hz) est transmis au noyau sans diminution de son amplitude, alors qu’un stimulus mécanique à haute fréquence subit une diminution significative de son amplitude. Cela implique que les fibres de stress individuelles agissent comme des filtres passe-bas du forçage mécanique. Il est intéressant de noter que le mouvement transversal présente une largeur de filtre beaucoup plus importante que le mouvement axial : la largeur de filtre pour le mouvement transversal s’étend jusqu’à f ~ 1000 Hz alors que celui pour le mouvement axial ne s’étend que jusqu’à f ~ 1 Hz” […] (Remarques : citation en lettres italiques).

Deuxième citation importante, page 101 [22] :

Comme nous l’avons déjà décrit, il a été rapporté que le flux oscillatoire induit un dysfonctionnement des CE et qu’il est en corrélation avec le développement de lésions athérosclérotiques précoces. Par conséquent, nous avons également étudié la réponse des réseaux simples décrits dans le paragraphe précédent à un flux oscillatoire. Les résultats ont révélé que la déformation maximale (définie comme la plus grande déformation au cours d’une période après que le comportement asymptotique temps-périodique est atteint) de chacune des structures du réseau (mécanocapteur, fibres de stress d’actine, microtubules et noyau) est fortement dépendante de la fréquence. À des fréquences oscillatoires suffisamment basses, les déformations maximales correspondent à celles d’un forçage constant ; toutefois, au-delà d’une fréquence seuil, les déformations maximales chutent de manière significative. L’analyse a démontré que cette fréquence seuil se situe entre 10-5 et 10-4 Hz pour les microtubules et entre 10-3 et 10-2 Hz pour les fibres de stress d’actine, ce qui suggère que les fibres de stress peuvent transmettre efficacement la force sur une gamme de fréquences plus large. […] » [Remarques : lettres en italique de ma part]

Les recherches expérimentales de Na et al. (2008) [35] ont comparé la vitesse de la mécanotransduction via la voie biophysique et via la voie mécanochimique (facteur de croissance et expression génétique). Les auteurs ont utilisé des expositions physiques comparables pour les infrasons (0,3 Hz), une durée de 30 s, une pression sonore de 1,8 Pa (études avec 1,8 Pa jusqu’à environ 20 Pa). Les résultats les plus importants ont été la confirmation que la vitesse était 40 fois plus rapide que par des moyens mécaniques et chimiques (confirmant les résultats ci-dessus), à savoir 300 ms (millisecondes). En outre, les résultats ont montré que « l’activation de Src induite par le stress dépend de l’activation de l’intégrine, de la rigidité du substrat, de la précontrainte et de l’intégrité de la F-Actine » [35], citation de Na et al. page 1. Remarques : en italique (de ma part) [35].

1.7. Les mécanocapteurs de la cellule endothéliale

Selon [3], le cytosquelette lui-même est un mécanocapteur. Du côté du vaisseau (luminal), les mécanocapteurs sont surtout le glycocalyx, les intégrines, les jonctions cellule-cellule (CCAP), les cavéoles, les radeaux lipidiques, les récepteurs couplés aux protéines G et les canaux ioniques. Ils sont activés en fonction de leur localisation par la contrainte de cisaillement [3] (Figure 4). Selon l’auteur [3], les mécanosenseurs endothéliaux sont modifiés dans leur microenvironnement par la contrainte de cisaillement et peuvent activer des voies de signalisation intracellulaires dans cette nouvelle formation. La fluidité des microdomaines de la membrane plasmique est modifiée [3]. Cela conduit, selon [3], à un réarrangement spatial de diverses protéines et donc à l’activation de voies de signalisation. La transmission des forces s’effectue via les trois réseaux de communication du cytosquelette vers la région basale du cytosquelette (par exemple, les intégrines) [3] [22] [30].

L’un des plus importants mécanocapteurs est le glycocalyx ([1] [3] Figure 4). Chez les patients gravement malades, l’étendue des dommages subis par le glycocalyx (ce que l’on appelle le shedding) est en corrélation avec la gravité de la maladie et la mortalité [1] [36] [37].

Figure 4. Description originale : Mécanosenseurs des cellules endothéliales. Localisation des mécanosenseurs tels que le cytosquelette, les intégrines, les jonctions cellule-cellule, les cavéoles, les radeaux lipidiques, le glycocalyx de la surface cellulaire, les récepteurs couplés aux protéines G (GPCR) et les canaux ioniques. Alors que les mécanosenseurs de la région apicale (lumenal) sont activés directement par la contrainte de cisaillement (comme les protéines G), le cytosquelette (représenté par les fibres d’actine, F-actine) est responsable de la transmission des forces aux mécanosenseurs de la région basale des cellules endothéliales (comme les intégrines). L’activation de la protéine G se produit en raison de changements locaux dans la fluidité de la membrane plasmique, donc directement en raison de la contrainte de cisaillement et indépendamment d’un agoniste, provoquant l’hydrolyse du GTP en GDP. En revanche, la structure des intégrines mécanosensibles passe d’inactive à active lorsqu’elles sont soumises à une contrainte de cisaillement, probablement en raison de la transmission de la force mécanique au cytosquelette. En conformation active, les intégrines ont une plus grande affinité pour les protéines de la matrice extracellulaire. Mécano-senseurs de la cellule endothéliale (état 2019) Source originale [3] Fernandes CD, Araujo Thaı’s S, Laurindo FRM, Tanaka LY. Hemodynamic Forces in the Endothelium. Mechanotransduction to Implications of Development of Atherosclerosis. In: ENDOTHÉLIUM ET MALADIES CARDIOVASCULAIRES. Vascular Biology and Clinical Syndromes. Édité par PROTASIO L. DA LUZ. PETER LIBBY ANTONIO C. P. CHAGAS. FRANCISCO R. M. LAURINDO. Éditeur : Mica Haley. Sao Paolo (2018) ISBN 978-0-12-812348-5. Cap. 7 FIG 7.2, p. 89. Avec l’autorisation de l’auteur.

Comme ceux identifiés à ce jour, les mécanocapteurs sont présentés dans la figure 4 (état 2019).

1.8. Canaux PIEZO-1

D’autres mécanocapteurs endothéliaux récemment définis, les canaux PIEZO-1, ont été clairement établis comme un système sensoriel des organes internes par les récepteurs de pression et de vibration dans tous les vaisseaux. Ardem Patapoutian a reçu le prix Nobel de médecine en 2021 en raison de l’importance de cette découverte. Selon Rode et al. (2017) [38], Piezo-1 est responsable des canaux cationiques sensibles au flux, non inactivants et non sélectifs qui dépolarisent le potentiel de la membrane : Les canaux Piezo-1 perméables au Ca2+ sont activés par une force physique sur la membrane cellulaire (comparer la figure 5). Les PIEZO-1 détectent l’activité physique du corps entier pour rétablir l’homéostasie cardiovasculaire et améliorer les performances. Ils sont essentiels à la lymphogenèse et à l’homéostasie et sont d’importants mécano-senseurs de la contrainte de cisaillement [39]. Les canaux PIEZO sont essentiels dans tous les organismes multicellulaires, c’est-à-dire également chez les invertébrés tels que les mouches et les vertébrés (poissons) [40]. La figure 5 présente une représentation schématique d’un canal PIEZO-1 intégré.

2. Bruit, son et infrasons

Dans la Classification internationale des maladies (CIM-10) (2010), publiée par l’Organisation mondiale de la santé (OMS), l’« exposition au bruit » (rubrique W42) figure sous la rubrique « Exposition à des forces mécaniques inanimées » (rubriques W20 à W49) [41].

Figure 5. Présentation schématique d’un canal PIEZO-1, intégré dans la membrane de la cellule endothéliale avec un flux de Ca2+ déclenché. L’anneau d’actine (intra-endothélial) est indiqué. Les ailes sont déplacées par des forces mécaniques sur la membrane et libèrent le canal dans un mouvement d’ouverture. Bleu/jaune : biomembrane endothéliale avec structure de bicouche lipidique. Présentation schématique d’un canal PIEZO-1.

En effet, les ondes de pression qui se propagent dans l’air (c’est-à-dire le son) ont un impact sur les tissus viscoélastiques des organismes biologiques en tant que forces mécaniques externes.

Dans la CIM-11 (2020), plus récente, des codes d’extension supplémentaires (section X) ont été établis et l’« exposition au bruit » (rubrique XE7Y1) relève désormais des catégories « Causes externes/Exposition à un autre mécanisme » [42]. L’affection « Vertige dû à des infrasons » (rubrique T75.2 dans la CIM-10) dans la rubrique « Effets des vibrations » relève désormais de la catégorie « Autres effets spécifiés des vibrations » (rubrique NF08.2Y).

Les infrasons sont définis comme des sons dont la fréquence est inférieure à 20 Hz. Le bruit de basse fréquence (IFLN), qui n’est pas clairement défini selon la norme DIN 45680, est limité à 125 Hz. Plus la fréquence est basse, plus la longueur d’onde est grande. Les infrasons ne peuvent être que faiblement amortis, ils sont moins atténués par la propagation dans l’atmosphère ainsi qu’à travers les toits et les murs que le spectre audio. Par exemple, la propagation du son dans l’air avec une longueur d’onde de 0,1 Hz est d’environ 3,3 km (condition standard de 20 degrés Celsius), celle de 1000 Hz est d’environ 34 mm. Les infrasons sont générés par des masses lourdes en mouvement ainsi que par des phénomènes de résonance/vibration. L’exposition peut être professionnelle ou résidentielle, et peut être émise par des sources naturelles (par exemple, les tremblements de terre) ou techniques (trains, avions, sources professionnelles ou résidentielles). Les émetteurs diffèrent en termes de fréquence, de pression acoustique P (Pa), de profil temps/effet (impulsivité) et de durée. L’augmentation du nombre et de la taille des rotors des TVN entraîne une augmentation des plaintes [43]. Plus le rotor est grand, plus la fréquence émise est basse. D’après [44] [45], les infrasons émis par les TVN se situent en grande partie dans la plage de 0,1 à 10 Hz. Son émission d’infrasons est impulsive dans le profil effet/temps selon Roos W, Vahl, CF (2021) [45] et Vanderkooy [46], comme le montre la figure 6.

Figure 6. Impulsion infrasonore extraite des émissions d’une éolienne. Les fluctuations de la pression acoustique mesurables à proximité d’une installation éolienne contiennent généralement du bruit, c’est-à-dire des événements sonores irréguliers d’origine différente. L’élimination du bruit est possible en calculant la moyenne de la pression acoustique sur un grand nombre de passages de pales de mât (ici 4100), ce qui révèle leur élément commun (ligne rouge). Le pic rouge ainsi visualisé à partir de la séquence temporelle coïncide avec le pic bleu, qui montre l’impulsion fondamentale telle qu’elle a été reconstituée dans le domaine fréquentiel à partir de 15 lignes harmoniques (très nettes) par analyse de Fourier. Le résultat est le pic fondamental cohérent de cette éolienne, d’une fréquence de 0,9 Hz, correspondant à 1,08 seconde par passage de pale. Impulsion infrasonique extraite d’une éolienne montrant la relation entre la pression acoustique (P) et le temps (s). Source originale [46] correspondant à la figure 7 Vanderkooy1 J, Mann2, R Measuring Wind Turbine Coherent Infrasound Department of Physics and Astronomy 1, Department of Computer Science 2 University of Waterloo, Waterloo, ON, Canada, N2L3G1 jv@uwaterloo.ca, mannr@uwaterloo.ca. Date de publication : 2 octobre 2014. Avec la permission de l’auteur.

Les lois physiques de la théorie des ondes s’appliquent à la propagation du son, par exemple sous forme d’onde longitudinale ou transversale et avec différentes vitesses de propagation (dans un milieu fluide, environ trois fois plus rapide que dans un gaz). Le comportement de propagation dépend des différents milieux élastiques, qu’ils soient liquides, gazeux, solides ou un mélange de ceux-ci ; il en va de même pour l’organisme viscoélastique. Le son étant une onde mécanique, la propagation peut être réfractée, réfléchie, interférer et être transmise [47]. La propagation d’une onde est un transport d’énergie, mais pas un transport de matière. Lors de la propagation, les particules sont mises en oscillation. En outre, dans les espaces intérieurs des bâtiments, des interférences entre la pression acoustique de l’air et les bruits de structure sont possibles, ce qui peut également entraîner des amplifications ou des atténuations importantes du son d’impact total [48].

3. L’hypothèse/la théorie

3.1. La différence par rapport à la pensée actuelle

Les études épidémiologiques existantes considèrent presque exclusivement l’organe audio-vestibulaire, ou l’implication de structures cérébrales individuelles [49], comme des organes susceptibles d’être affectés par l’exposition au bruit dans les gammes de basses fréquences. Par rapport aux champs électromagnétiques, tout le monde accepte que les impacts sur l’organisme ne dépendent pas de la perception. Pourquoi pas ici ? Cette question a déjà été posée en 2007 [50]. De nombreux troubles de la santé ou symptômes cliniques manifestes ne peuvent être expliqués par un impact purement audio-vestibulaire. Depuis 2015 environ, l’auteur a remarqué de nombreuses plaintes dans le monde entier en raison de la situation résidentielle. Elles correspondent à des troubles fonctionnels de la microcirculation en raison d’une biodisponibilité réduite et non coordonnée du NO.

Il s’agit, par exemple, de vertiges, de troubles des performances scolaires, de fatigue, d’acouphènes, de faiblesse musculaire et de maux de tête, signes d’un soutien perturbé et inadéquat en nutriments et en O2. En cas d’exposition chronique, des symptômes apparaissent tels que l’augmentation de la pression artérielle, l’arythmie cardiaque, les troubles respiratoires, les déficiences immunitaires et l’épilepsie tardive [50]. Dans un deuxième temps, une hypothèse de travail a été élaborée pour tester les conditions préalables à un effet direct du facteur de stress au niveau des cellules endothéliales et sur le plan technique. Les résultats disponibles à ce jour des études épidémiologiques, expérimentales et animales ont été inclus dans les considérations.

Dans un troisième temps, la littérature actuellement disponible sur la physiologie et la physiopathologie moléculaires de l’endothélium a été examinée sous l’angle de la possibilité d’une mécanotransmission des forces mécaniques si elles sont soumises à un facteur de stress externe. L’identification des canaux PIEZO-1 2021 en tant que mécanosenseurs importants pour le son et les vibrations a renforcé les preuves de notre hypothèse. Une abondante littérature sur les résultats pathohistologiques de l’exposition professionnelle aux infrasons dans les années 1980 [50], puis dans les années 2000 sur l’exposition des résidents aux éoliennes [51] et la réévaluation de ces résultats ont été incluses.

En raison de l’approche audio-acoustique, les conditions modifiées de propagation du son dans l’organisme viscoélastique n’ont pas été prises en compte dans le passé. Nous le faisons maintenant. Pour la même raison, le seuil de perception n’est pas pertinent, car il ne concerne que les sons audibles et la transmission par l’air.

3.2. L’hypothèse est basée sur les preuves de :

– Le bruit est une force mécanique, donc soumise à des lois physiques ;
– L’existence de nombreux mécanosenseurs pour le son et les vibrations au niveau de la membrane et de l’endothélium avec des canaux PIEZO-1 nouvellement identifiés, en particulier au niveau de l’endothélium, est à la pointe de la science ;
– La mécano-transduction des forces mécaniques est cruciale pour de nombreuses régulations vasculaires vitales ;
– La transmission mécanique des forces par les structures du cytosquelette endothélial est à la pointe de la science ;
– Excitabilité microtactile prouvée des cellules endothéliales avec conduction rapidement propagée en amont et en aval.

3.3. Notre hypothèse

– Le bruit, lorsqu’il affecte les organismes, est, dans certaines conditions de fréquence, de pression acoustique, d’effet/profil temporel, de durée, capable de modifier la situation physiologique d’écoulement laminaire dans le lit capillaire dans le sens d’un environnement oscillatoire. Dans ce cas, la transition des forces mécaniques peut avoir lieu de manière incontrôlée ;
– En conséquence, les fonctions vasomotrices et en particulier la vasomotion peuvent être perturbées ;
– Les effets attendus d’un impact chronique pourraient conduire à une insuffisance chronique de l’apport en nutriments et donc à un déplacement des équilibres vers des déséquilibres, en particulier pour les systèmes d’oxydoréduction et pour les réponses aux processus d’inflammation.

4. Évaluation de l’hypothèse

La première condition de base qui s’applique à notre hypothèse est la question de savoir si l’exposition au « bruit », dans le sens d’un facteur de stress oscillatoire, provoque à son tour un champ oscillatoire dans le lit capillaire.

4.1. Soutien positif aux données probantes

La réactivité des mécano-senseurs endothéliaux aux influences extérieures telles que la gravité, la pression, le gonflement et le bruit en est la preuve [1] [3] [22] [30] ainsi que l’excitabilité microtactile des cellules endothéliales [5]. Il existe également des preuves que les infrasons interagissent avec le métabolisme cellulaire et entraînent une fibrose périvasculaire chez les rats, d’après Lousinha (2018) [52]. Des résultats similaires sont présentés dans [53] [54] [55]. Les données empiriques des études expérimentales montrent clairement que l’exposition à l’IFLN entraîne une augmentation des ROS [56]. Des preuves positives ressortent également de l’étude de Chaban et al [57] et, fait très notable, l’effet direct sur les cellules est démontré dans l’étude intitulée Effect of infrasound on the growth of colorectal carcinoma in mouse (Effet des infrasons sur la croissance du carcinome colorectal chez la souris) [58]. En médecine clinique, on s’interroge actuellement sur les avantages possibles des infrasons dans le traitement du carcinome colorectal humain. Les résultats de la revue de Roos, W et Vahl, CF (2021) [45], qui se concentrent sur les preuves de l’interaction des structures cellulaires, respectivement des structures membranaires sensibles, dans une réaction de stress, apportent de nombreuses preuves d’un effet direct sur les cellules et les membranes. Une perturbation possible de la microcirculation est discutée. Une évaluation positive dans cette direction est également l’analyse de Dumbrille, A et al. (2021) [59] : Cette évaluation aboutit à la causalité des effets néfastes sur la santé (ADH) et du facteur de stress dans tous les « critères de Bradford Hill ». Des effets indésirables sur les animaux ont été signalés, qui ont révélé non seulement des réactions de stress, mais aussi des effets négatifs sur la fertilité, le développement et la reproduction [60]. En ce qui concerne le critère de Bradford-Hill, les analyses ont montré une détérioration manifeste des performances mentales des habitants vivant dans un rayon de 1,4 km autour des éoliennes et de ceux vivant en dehors de ce rayon [61]. Les plaintes augmentent lorsque les fréquences s’approchent des plus basses (dans l’exemple mentionné, 0,2 Hz) [62].

La « nurse cohort study » (étude de cohorte d’infirmières) présente des preuves positives de la fréquence de la fibrillation auriculaire [63]. Voici ce que j’en pense : le développement de la fibrillation auriculaire en l’absence d’hypoxémie correspond à des changements structurels et donc à des conditions de perturbation de l’électromécanique.

4.2. Réévaluation des découvertes pathohistologiques

Des recherches [50] sur la symptomatologie des groupes confrontés à l’IFLN dans les années 1980 ont montré un épaississement de la paroi des vaisseaux. Selon les auteurs, les études animales ont montré une quantité anormale de fibrose/collagène dans la trachée, les poumons et la plèvre ; des cils trachéaux et bronchiques endommagés (cisaillés) ; des microvillosités à base d’actine fusionnées dans les cellules en brosse de la trachée et des bronches. L’épaississement de la paroi péricardique a été observé chez des personnes exposées professionnellement à l’ILFN [50] et chez des personnes vivant à proximité de grandes centrales thermiques [51] comme une altération spécifique. La figure 7 montre l’épaississement de la paroi péricardique chez des personnes exposées professionnellement de manière chronique dans les années 80 (appelé syndrome vibroacoustique « syndrome VAD ») par rapport à des personnes non exposées.

La figure 8 présente l’épithélium bronchique non exposé d’un rat en comparaison avec l’épithélium exposé de la figure 9. Les figures montrent les changements dans les microvillosités (actine) avant et après l’exposition. L’interprétation de ces résultats suggère un changement dans l’homéostasie du système d’oxydoréduction vers l’inflammation chronique et la fibrose.

4.3. Soutien éventuellement négatif aux éléments de preuve

Le choix des niveaux de pression acoustique (SPL) en dB dans les études expérimentales est souvent plus élevé que ce que l’on attend des installations IWT.

Objection :

a) Le niveau de pression acoustique en dB (A) ne peut représenter le bruit aérien que dans la partie fréquentielle de l’ouïe (voir cap. 2).

b) L’effet du goutte-à-goutte régulier lorsque l’on vit à proximité des émissions doit être considéré comme un facteur important [64], la durée d’exposition dans la réalité peut souvent être (également pour les groupes sensibles) de 24 heures sur 24, 7 jours sur 7, par jour. En revanche, la durée des études expérimentales sur les animaux est limitée pour des raisons pratiques. Il en va de même pour les pressions sonores plus élevées dans le contexte de l’exposition professionnelle : dans ce cas, les durées d’exposition sont limitées ; les groupes sensibles n’y ont pas accès.

Cependant, le facteur décisif est que la fréquence du bruit n’a pas été reconnue dans son importance (par exemple, l’utilisation de 8 Hz dans Chaban et al. [57]). A cela s’ajoute : le comportement de la propagation du son dans les organismes viscoélastiques diffère à tel point qu’une information décodable sur les filtres passe-bas devient concevable (comparer cap. 2) [22] [30] [35].

Étude Exemplum Poulsen [65] : En conséquence, il n’a trouvé aucune association statistiquement significative entre l’exposition aux infrasons et l’incidence des maladies cardiovasculaires. L’auteur lui-même a relativisé l’étude (par exemple, étude sur un nombre relativement faible de TVN).

4.4. Évaluation des études informatiques

Des parties importantes des déclarations de Mazzag et Barakat 2010 [30] et 2014 Mazzag et al. [22] sont basées sur des modèles informatiques. Comme nous l’avons déjà mentionné, les auteurs eux-mêmes font référence aux limites et aux résultats possibles.

Figure 7. Description originale : Microscopie optique (100×) — péricarde d’un patient ayant subi un DAV, avec le sac péricardique à droite. Cinq couches (au lieu des trois normales) sont identifiables : (A) mésothélium, (B) fibrose interne, (C) tissu lâche, (D) fibrose externe et (E) épipéricarde. Le tissu lâche est riche en vaisseaux. Aucune cellularité inflammatoire n’a été identifiée dans les cinq couches. Dans les deux couches fibreuses, des faisceaux de collagène ondulés sont visibles. Cependant, la longueur d’onde des fibres de la couche B (fibrose interne) est plus petite que celle de la couche D (fibrose externe). La quantité accrue de faisceaux de collagène, disposés en accordéon, avec des orientations différentes les uns par rapport aux autres, et avec plus d’une fibre élastique accompagnant les faisceaux à des angles apparemment perpendiculaires (vus en microscopie électronique, non montrés), semble suggérer une structure de type pneumatique, conçue pour absorber des forces externes anormalement importantes. De même, cet arrangement fonctionnel explique également l’absence de dysfonction diastolique, malgré l’épaississement des parois péricardiques. (2) MEB du péricarde d’un patient ne bénéficiant pas d’un DAV. Les trois couches normales sont visibles : le mésothélium (flèche blanche), la fibrose (flèche noire) et l’épipéricarde. (3) MEB du péricarde d’un patient VAD. La fibrose s’est divisée en deux moitiés (flèches) qui prennent en sandwich une couche de tissu lâche nouvellement formée (L). Notez que l’échelle est la même en (2) et en (3). La forme ondulée des faisceaux de collagène est une méthode mécaniquement efficace sur le plan énergétique pour faire face au mouvement que la fibrose doit constamment subir pour suivre le rythme du cycle cardiaque. Comme un accordéon, les faisceaux de collagène s’étendent et se contractent respectivement en diastole et en systole. Cependant, lors d’un épisode de tachycardie soudaine et violente (fréquente chez les patients VAD), ce rythme peut être considérablement augmenté (jusqu’à 200 battements par minute, en quelques secondes) et le stress mécanique imposé à la monocouche MC peut menacer son intégrité structurelle. L’une des fonctions de la couche de tissu lâche doit certainement être l’apport de sang et de nutriments à cet organe beaucoup plus grand. Remarques : micrographies de l’ultrastructure, obtenues par microscopie électronique à balayage (SEM) et à transmission (TEM). Paroi péricardique chez des personnes exposées et non exposées 1) exposée (microscopie optique) 2) non exposée (MEB) et 3) exposée (MEB) [50] Alves-Pereira M., Branco C. (2007) Vibroacoustic disease: biological effects of infrasound and low-frequency noise explained by mechanotransduction cellular signaling http://www.sciencedirect.com/science/article/pii/S0079610706000927. Page 11 FIG 2. Avec l’autorisation de l’auteur.

Citation des auteurs [22] Page 96 :

« Il est donc essentiel que les modèles soient validés dans la mesure du possible par rapport aux données expérimentales. Ce n’est qu’après une telle validation que les modèles mathématiques peuvent potentiellement tenir leur promesse de fournir des outils puissants et prédictifs pour étudier la dynamique et l’organisation spatio-temporelle des réponses induites mécaniquement dans les cellules ».

Ma déclaration : Plusieurs prédécesseurs [27] [33] [34] [35] ont effectué des travaux préparatoires essentiels pendant des années, avec des preuves solides ; l’ensemble du processus de mécanotransmission est hautement dynamique, avec de nombreuses voies imbriquées les unes dans les autres. Des modèles informatiques sont nécessaires pour obtenir la meilleure approximation possible des processus dynamiques afin d’améliorer la compréhension de la mécanotransduction cellulaire. Le travail complémentaire de Na (2008) [35] en tant qu’étude expérimentale est l’une des études expérimentales requises, qui confirme les modèles mathématiques. Aucune étude dans ce sens n’a été réalisée sur des sources techniques émettant des infrasons.

Figure 8. Description originale (MEB) Épithélium bronchique non exposé. La BC au centre de l’image présente une touffe de microvillosités individuellement identifiables, uniformément réparties et s’élevant vers les voies respiratoires. Autour de la BC se trouvent des SC avec des microvillosités de différentes tailles. Des touffes de cils comportant des vésicules sont également visibles. Aucun cil cisaillé, hirsute ou flétri n’est visible (SEM). Aucun œdème n’est présent. BC (cellules en brosse), SC (cellules sécrétoires). Épithélium bronchique de rat, exposé à 2160 heures d’IFLN en continu.
Figure 9. Description originale (MEB) Épithélium bronchique de rat exposé à 2160 h d’ILFN en continu. Une BC se trouve au centre de l’image. Ses microvillosités ne poussent pas vers le haut et ont fusionné, formant une indentation centrale qui semble s’étendre vers l’extérieur. Les SC proéminents qui entourent la BC sont gonflés et forment des vallées profondes au niveau des jonctions intercellulaires. Les microvillosités des CS sont très irrégulières. Des vésicules ciliaires sont visibles. Micrographies de l’ultrastructure, obtenues par microscopie électronique à balayage (MEB) et à transmission (MET). BC (cellules en brosse), SC (cellules sécrétoires). Épithélium bronchique de rat, exposé à 2160 h d’IFLN en continu.

4.5. Régulation extrinsèque supplémentaire de la microcirculation

L’influence de la partie extrinsèque sur la fonction vasomotrice via le système nerveux autonome est la partie variable qui dépend fortement des capacités individuelles à compenser les facteurs de stress. Il s’agit d’un facteur d’influence supplémentaire qui explique probablement pourquoi des personnes se trouvant dans le même environnement ne réagissent pas de la même manière dans leur symptomatologie. La comparaison entre une charge de stress à court terme et une charge de stress permanente permet d’envisager les résultats suivants : au bout d’un certain temps, les possibilités de compensation des systèmes biologiques sont épuisées.

4.6. Premières recherches et méthodes proposées

Pour plus de confirmation, nous proposons un plan expérimental avec un nombre déterminé de sujets exposés aux infrasons par rapport à des sujets non exposés. Le groupe positif est exposé à un agent stressant infrasonore défini en termes de fréquence, de pression acoustique p in (Pa), de profil temps/effet (impulsivité) et de durée. Il s’agit d’une étude en double aveugle, en mode marche/arrêt, avec la technique de vidéomicroscopie SDF, qui permet d’examiner la vasomotion sensible de la muqueuse buccale. Des expériences animales correspondantes sont envisageables pour évaluer les modifications vasomotrices directes sous infrasons (par exemple chez le hamster via la joue). Les indications sur les modifications du comportement animal et du comportement reproductif chez les vertébrés et les non-vertébrés constitueraient un complément significatif et une extension de la clarification scientifique.

4.7. Importance de notre recherche

La santé vasculaire est étroitement liée à la biodisponibilité du NO. La classification des éventuels facteurs environnementaux nuisibles est d’une grande importance pour le maintien de la santé vasculaire. Les groupes de population particulièrement sensibles doivent être le banc d’essai. Notre hypothèse peut aider à définir les stades sensibles à la mécanotransmission de fréquences profondes de « bruit ».

5. Méthodes établies pour évaluer et visualiser les processus microcirculatoires

La microcirculation peut être visualisée in vivo sur les nouveau-nés via la peau, sur les adultes via la muqueuse buccale [1]. Les changements, en particulier dans la vasomotion, peuvent être détectés immédiatement et sont reproductibles. Les techniques appropriées sont les techniques de vidéomicroscopie telles que l’imagerie SDF (side stream dark field). Une meilleure visualisation de la microcirculation in vivo est devenue possible [66]. La microcirculation dans le contexte des maladies peut être visualisée et quantifiée immédiatement après l’exposition au facteur de stress, ainsi qu’en son absence. Les paramètres qui peuvent être spécifiquement observés sont les suivants :

– La vasomotion intacte en premier ordre
– Un changement instantané de la vasomotion sous l’effet d’un facteur de stress défini
– La densité fonctionnelle des vaisseaux sanguins (FVD) (mm/mm2)
– La vitesse d’écoulement des globules rouges (RBCV)
– Nombre de capillaires perfusés (N/A) (n/mm2)
– Diamètre du vaisseau capillaire (DM)
– L’épaisseur du glycocalyx en μm (envisageable pour d’autres projets de recherche).

6. Pistes de recherche proposées ; questions relatives à la cible

– Dans quelles conditions définies le bruit ayant certaines propriétés affecte-t-il la transduction mécanique des signaux au niveau cellulaire (par exemple les composants membranaires, le cytosquelette) et/ou l’interaction cellule-cellule ?
– Quels sont les mécanosenseurs, les structures définies, qui sont spécifiquement sensibles ? Quel rôle jouent les canaux PIEZO-1 ?
– Quelle pression acoustique est nécessaire à une certaine fréquence pour obtenir une réponse de transfert ?
– Quel rôle spécifique jouent les effets de résonance ?
– Quel est le rôle spécifique des canaux PIEZO-2 dans la perception des fréquences profondes ?
– Quels sont les paramètres permettant de mettre en évidence l’émergence d’un déséquilibre du système redox et de distinguer en même temps l’aggravation de l’athérosclérose dans ses causes ?

7. Les conclusions

Pour la première fois, la symptomatologie des humains et des animaux exposés de manière chronique aux infrasons peut être classée de manière physiopathologique dans une hypothèse cohérente. Cela a été rendu possible par les progrès réalisés dans la connaissance de la mécano-transduction endothéliale, essentielle en tant que fonction vasculaire de caractère vital en réponse à des forces mécaniques. Des processus cellulaires cruciaux tels que la croissance, la différenciation, la migration, l’angiogenèse, l’homéostasie redox et l’inflammation dépendent simultanément des forces mécaniques et de l’intégrité de l’endothélium.

Normalement, le flux dans la microcirculation des mammifères est laminaire et non variable. Cela est dû à la connexion en amont des vaisseaux de résistance dans les artérioles. Des changements persistants dans les modèles de contrainte de cisaillement, en particulier le flux oscillatoire, ont été associés à une diminution de la biodisponibilité du NO, à une augmentation des espèces réactives de l’oxygène (ROS), à des taux d’oxydation des lipoprotéines plus élevés, à une augmentation de l’apoptose endothéliale, à une pro-athérogénicité, à une inflammation chronique et à un développement possible du cancer. Nous avons des preuves positives de notre hypothèse selon laquelle un agent stressant oscillant agissant de manière chronique et présentant certaines conditions en termes de fréquence, de profil temps/effet, de pression sonore et de durée peut induire un champ de stress oscillant et donc déclencher une réaction de stress au niveau cellulaire. Avec les bases cruciales de la mécano-transduction, il existe maintenant des preuves solides et des indicateurs évidents d’une interaction possible des infrasons, en particulier avec des fréquences profondes et un caractère impulsif, comme c’est le cas, par exemple, avec les IWT ou les pompes à chaleur. L’élucidation de la forte dépendance de la mécanotransduction par rapport à la fréquence du « bruit » et l’identification des filaments d’actine et des microtubules en tant que « filtres passe-bas » confirment notre hypothèse. Ainsi, la propagation de l’onde sonore dans l’organisme viscoélastique pourrait devenir une information décodable. La régénération, qui se produirait lors d’une exposition unique ou peu fréquente, ne pourrait pas avoir lieu en cas d’impact chronique. Dans un premier temps, on peut s’attendre à des perturbations fonctionnelles du système vasomoteur orchestré, respectivement de la vasomotion sensible, puis, avec une exposition plus longue, à des lésions pathologiques anatomiquement reconnaissables de l’intégrité endothéliale. Dans ce contexte, les changements structurels qui tendent à s’autorenforcer, comme décrit dans l’exemple du remodelage du cœur, sont importants. En élucidant probablement la voie physiopathologique par laquelle les infrasons/IFLN peuvent conduire aux principaux troubles de la santé, il sera possible de progresser dans la définition de distances de sécurité pour vivre ou travailler avec des installations techniques émettrices. De nombreuses questions scientifiques restent sans réponse, mais il existe suffisamment de preuves pour suggérer que, par mesure de précaution, les nouvelles technologies impliquant des fréquences très basses et/ou des émissions impulsives ayant un impact potentiel sur les organismes vivants devraient être limitées ou mieux évitées jusqu’à ce que toutes les questions soient scientifiquement résolues. Les effets possibles sur les insectes, qui n’ont pas encore été clarifiés, pourraient être d’une grande importance, par exemple pour la biodiversité et la coopération des pollinisateurs, et donc pour la nutrition.

Le décodage des canaux PIEZO-1 aurait déjà dû alerter le public sur les risques potentiels. Les organes internes sont sensibles aux sons et aux vibrations. L’état actuel des connaissances sur la mécano-transduction ainsi que les effets connus du stress oscillatoire et oxydatif vont dans le sens de notre hypothèse et devraient justifier des mesures de précaution urgentes et des recherches plus approfondies.

Remerciements

Werner Roos, chef émérite du département de biologie pharmaceutique à l’université Martin Luther de Halle, pour son examen critique et ses contributions constructives. Je remercie Manfred Krueger, Berlin, graphiste pour la figure 5.

Clause de non-responsabilité

L’auteur n’a aucun conflit d’intérêts. L’auteur souhaite préciser que : les formes alternatives d’énergie renouvelable, telles que les éoliennes industrielles, sont considérées comme des compléments utiles sur des sites appropriés. Il en va de même pour les installations de biogaz, les pompes à chaleur et les centrales thermiques de type bloc. Les données présentées ici ont été examinées dans le cadre d’un seul et unique programme, celui de la recherche scientifique pure. Il n’y a aucun accord commercial, financier ou professionnel.

Conflits d’intérêts

L’auteur ne déclare aucun conflit d’intérêts concernant la publication de cet article.

Références

[1] Nussbaum, C.F. (2017) Neue Aspekte der Mikrozirkulation im Rahmen von Entzündung, Entwicklung und Erkrankung. Kumulative Habilitationsschrift zur Erlangung der Venia Legendi. Fach Pädiatrie. Université Ludwig-Maximilians de Munich. Kinderklinik und Kinderpoliklinik im Dr. von Haunerschen Kinderspital. München.

[2] Sperando, M. et Brandes, R. (2019) Kap. 20. Mikrozirkulation. In: Brandes, R., Lang, F., Schmidt, R.F., Eds, Physiologie des Menschen mit Pathophysiologie, Springer, Vol. 32, 241-256.

[3] Fernandes, C.D., Araujo Thaıs, S., Laurindo, F.R.M. et Tanaka, L.Y. (2018) Cap. 7. Forces hémodynamiques dans l’endothélium. Mécanotransduction à Implications sur le développement de l’athérosclérose. In: Da Luz, P.L., Libby, P., Laurindo, F.R.M. et Chagas, A.C.P., Eds, Endothelium and Cardiovascular Diseases. Vascular Biology and Clinical Syndromes, Mica Haley, Sao Paolo, 85-94.

[4] Durán, W.N., Sánchez, F.A. et Breslin, J.W. (2011) Microcirculatory Exchange Function. In: Comprehensive Physiology. Programme de biologie vasculaire, États-Unis.

[5] de Wit, C., Wölfle, S.E. et Höpfl, B. (2006) Connexin-Dependent Communication within the Vascular Wall: Contribution to the Control of Arteriolar Diameter. Advances in Cardiology, 42, 268-283.
https://doi.org/10.1159/000092575

[6] Moore, P.R., Dyson, A., Singer, M. et Frazer, J. (2015) Microcirculatory Dysfunction and Resuscitation: Why, When, and How. British Journal of Anaesthesia, 115, 366-375.
https://doi.org/10.1093/bja/aev163

[7] Voets, T. et Nilius, B. (2009) TRPCs, GPCRs and the Bayliss Effect. The EMBO Journal, 28, 4-5.
https://doi.org/10.1038/emboj.2008.261

[8] Chien, S. (2007) Mechanotransduction and Endothelial Cell Homeostasis: The Wisdom of the Cell. The American Journal of Physiology-Heart and Circulatory Physiology, 292, H1209-H1224.
https://doi.org/10.1152/ajpheart.01047.2006

[9] Jones, T. W. (1854) Discovery That the Veins of the Bat’s Wing Are Endowed with Rhythmical Contractility, and That Onward Flow of Blood Is Accelerated by Each Contraction (Découverte que les veines de l’aile de la chauve-souris sont dotées d’une contractilité rythmique et que le flux sanguin vers l’avant est accéléré par chaque contraction). Philosophical Transactions of the Royal Society of London, 142, 131-136.
https://doi.org/10.1098/rstl.1852.0011

[10] Aalkjaer, C. et Mulvany, M. J. (2020) Structure et fonction de la microcirculation. In: Agabiti-Rosei, E., Heagerty, A.M. et Rizzoni, D., Microcirculation in Cardiovascular Diseases, Springer, Berlin, 1-14.
https://doi.org/10.1007/978-3-030-47801-8_1

[11] Laurindo, F.R.M., Liberman, M., Fernandes, D.C. et Leite Paulo, F. (2018) Cap. 8. Vasodilatation dépendante de l’endothélium : Nitric Oxide and Other Mediators. In: Da Luz, P.L., Libby, P., Laurindo, F.R.M. et Chagas, A.C.P., Eds, Endothelium and Cardiovascular Diseases. Vascular Biology and Clinical Syndromes, Mica Haley, Sao Paolo, 97-98.

[12] Espey, M.G., Miranda, K.M., Thomas, D.D., Miranda, K.M. et Wink, D.A. (2002) A Chemical Perspective on the Interplay between NO, Reactive Oxygen Species, and Reactive Nitrogen Oxide Species. Annales de l’Académie des sciences de New York, 962, 195-206.
https://doi.org/10.1111/j.1749-6632.2002.tb04068.x

[13] Wink, A.A. et Mitchell, J. (1998) Chemical Biology of Nitric Oxide: Insights into Regulatory, Cytotoxic, and Cytoprotective Mechanisms of Nitric Oxide. Free Radical Biology and Medicine, 25, 434-456.
https://doi.org/10.1016/S0891-5849(98)00092-6

[14] Augusto, O., Bonini, M.G., Amanso, A.M. et Linares, E. (2002) Nitrogen Dioxide and Carbonate Radical Anion: Two Emerging Radicals in Biology. Free Radical Biology and Medicine, 32, 841-859.
https://doi.org/10.1016/S0891-5849(02)00786-4

[15] De Wit, C., Hoepfl, B. et Woelfle, S.E. (2006) Endothelial Mediators and Commu-nication through Vascular Gap Junctions. Biological Chemistry, 387, 3-9.
https://doi.org/10.1515/BC.2006.002

[16] Suthahar, N., Meijers, W.C., Silljé, H. et de Boer, R. (2017) From Inflammation to Fibrosis-Molecular and Cellular Mechanisms of Myocardial Tissue Remodelling and Perspectives on Differential Treatment Opportunities. Current Heart Failure Reports, 14, 235-250.
https://doi.org/10.1007/s11897-017-0343-y

[17] Ley, K., Laudanna, C., Cybulsky, M.I. et Nourshargh, S. (2007) Getting to the Site of Inflammation: The Leucocyte Adhesion Cascade Updated. Nature Reviews Immu-nology, 7, 678-689.
https://doi.org/10.1038/nri2156

[18] Serhan, C.N., Brain, S.D., Buckley, C.D., Gilroy, D.W., Haslett, C., O’Neill, L.A., Perretti, M., Rossi, A.G. et Wallace, J. (2007) Resolution of Inflammation: State of the Art, Definitions and Terms. FASEB Journal, 21, 325-332.
https://doi.org/10.1096/fj.06-7227rev

[19] Nussbaum, C. et Sperando, M. (2011) Innate Immune Cell Recruitment in the Fetus and Neonate. Journal of Reproductive Immunology, 90, 74-81.
https://doi.org/10.1016/j.jri.2011.01.022

[20] Nussbaum, C., Klinke, A., Matti, A., Baldus, S. et Sperando, M. (2013) Myeloper-oxidase : A Leucocyte-Derived dans la résolution de l’inflammation aiguë. Immunity, 40, 315-327.

[21] Buckley, C.D., Gilroy, D.W., Charles, N. et Serhan, C.N. (2014) Pro-Resolving Lipid Mediators and Mechanisms in the Resolution of Acute Inflammation (Médiateurs lipidiques pro-résolutifs et mécanismes dans la résolution de l’inflammation aiguë). Immunity, 40, 315-327.
https://doi.org/10.1016/j.immuni.2014.02.009

[22] Mazzag, B., Gouget, C., Hwang, Y. et Barakat, A.I. (2014) Cap. 5. Transmission des forces mécaniques via le cytosquelette dans les cellules endothéliales vasculaires. In: Rosado, J.A. et Redondo, P.C., Eds, Endothelial Cytoskeleton, CRC Press, Boca Raton, 91-115.

[23] Hahn, C. et Schwartz, M.A. (2009) Mechanotransduction in Vascular Physiology and Atherogenesis. Nature Reviews Molecular Cell Biology, 10, 53-62.
https://doi.org/10.1038/nrm2596

[24] Guimarães Di Stasi, M. et Pratschke, A. (2020) Acting Cybernetically in Architec-ture: Homeostasis and Synergy in the Work of Buckminster Fuller, Fuller, R.B. (1975). Cybernetics and Human Knowing, 27, 65-88.

[25] Shimizu, Y. et Garci, J.G.N. (2014) Cap. 1. Le cytosquelette endothélial. Rôle multifonctionnel du cytosquelette endothélial d’actomyosine. In: Rosado, J.A. et Redondo, P.C., Eds, Endothelial Cytoskeleton, CRC Press, Boca Raton, 1-26.

[26] Dudek, S., Jacobson, J., Chiang, E., et al. (2004) Pulmonary Endothelial Cell Barrier Enhancement by Sphingosine 1-Phosphate: Rôles de la Cortactine et de la Myosine Light Chain Kinase. Journal of Biological Chemistry, 279, 24692-24700.
https://doi.org/10.1074/jbc.M313969200

[27] Wang, L. et Dudek, S.M. (2009) Regulation of Vascular Permeability by Sphingosine 1-Phosphate. Microvascular Research, 77, 39-45.
https://doi.org/10.1016/j.mvr.2008.09.005

[28] Lee, T.Y. et Gotlieb, A.I. (2003) Microfilaments and Microtubules Maintain Endothelial. Microscopy Research and Technique, 60, 115-127.
https://doi.org/10.1002/jemt.10250

[29] Belvitch, P., Htwe, Y.M., Brown, M.E. et Dudek, S. (2018) Cortical Actin Dynamics in Endothelial Permeability. In: Belvitch, P. et Dudek, S., Eds, Current Topics in Membranes, Elsevier, Amsterdam, 141-195.
https://doi.org/10.1016/bs.ctm.2018.09.003

[30] Mazzag, B. et Barakat, A.I. (2010) The Effect of Noisy Flow on Endothelial Cell Mechanotransduction: A Computational Study. Annals of Biomedical Engineering, 39, 911-921.
https://doi.org/10.1007/s10439-010-0181-5

[31] Davies, P.F., Spaan, J.A. et Krams, R. (2005) Shear Stress Biology of the Endothelium. Annals of Biomedical Engineering, 33, 1714-1718.
https://doi.org/10.1007/s10439-005-8774-0

[32] Helmke, B.P., Goldman, R. et Davies, P.F. (2000) Rapid Displacement of Vimentin Intermediate Filaments in Living Endothelial Cells Exposed to Flow. Circulation Research, 86, 745-752.
https://doi.org/10.1161/01.RES.86.7.745

[33] Hsu, H.-J., Lee, C.-F., Locke, A., Vanderzyl, S.Q. et Kaunas, R. (2010) Stretch-Induced Stress Fibre Remodelling and the Activations of JNK and ERK Depend on Mechanical Strain Rate, but Not FAK. PLOS ONE, 5, e12470.
https://doi.org/10.1371/journal.pone.0012470

[34] Hwang, Y., Gouget Cecile, L.M. et Barakat, A.I. (2012) Mechanisms of Cytoskeleton-Mediated Mechanical Signal Transmission in Cells. Communicative & Integrative Biology, 5, 538-542.
https://doi.org/10.4161/cib.21633

[35] Na, S., Collin, O., Chowdhury, F., Tay, B., Ouyang, M., Wang, Y. et Wang, N. (2008) Rapid Signal Transduction in Living Cells Is a Unique Feature of Mechanotransduction. Proceedings of the National Academy of Sciences of the United States of America, 105, 6626-6631.

[36] Donati, A., Damiani, E., Domizi, R., Romano, R., Adrario, E., Pelaia, P. et Singer, M. (2013) Alteration of the Sublingual Microvascular Glycocalyx in Critically Ill Pa-tients. Microvascular Research, 90, 86-89.
https://doi.org/10.1016/j.mvr.2013.08.007

[37] Pries, A.R. (2016) Coronary Microcirculatory Pathophysiology: Can We Afford It to Remain a Black Box? European Heart Journal, 38, 478-488.
https://doi.org/10.1093/eurheartj/ehv760

[38] Rode, B., Shi, J., Endesh, N., Drinkhill, P., Webster, P.J., Lotteau, S., et al. (2017) Piezo1 Channels Sense Whole Body Physical Activity to Reset Cardiovascular Homeostasis and Enhance Performance (Les canaux Piezo1 détectent l’activité physique du corps entier pour réinitialiser l’homéostasie cardiovasculaire et améliorer les performances). Nature Communications, 8, article n° 350.
https://doi.org/10.1038/s41467-017-00429-3

[39] Lai, A., Chen, Y.C., Cox, C.D., Jaworowski, A., Peter, K. et Baratchi, S. (2020) Analyzing the Shear-Induced Sensitization of Mechanosensitive Ion Channel Piezo-1 in Human Aortic Endothelial Cells. Journal of Cellular Physiology, 236, 2976-2987.
https://doi.org/10.1002/jcp.30056

[40] Lewin, G. (2018) Molekulare Physiologie der somatosensorischen Wahrnehmung. Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft. Gruppenleiter. Pressemitteilung Nr. 5./15. März 2018/Berlin.
https://www.mdc-berlin.de/de/news/press/wie-zellen-sich-vor-mechanischer-ueberreizung-schuetzen

[41] Exposition à des forces mécaniques inanimées (rubriques W20 à W49).
https://www.icd10data.com/ICD10CM/Codes/V00-Y99/W20-W49

[42] Causes externes/exposition à un autre mécanisme.
https://icd.who.int/browse11/l-m/en#/http://id.who.int/icd/entity/1574666141

[43] Evans, A. (2017) Environmental Noise Pollution : La santé publique est-elle devenue trop utilitaire ? Open Journal of Social Sciences, 5, 80-107.
https://doi.org/10.4236/jss.2017.55007

[44] Pilger, C. et Ceranna, L. (2017) The Influence of Periodic Wind Turbine Noise on Infrasound Array Measurements. Journal of Sound and Vibration, 388, 188-200.
https://doi.org/10.1016/j.jsv.2016.10.027

[45] Roos, W. et Vahl, C.F. (2021) Infraschall aus technischen Anlagen. Wissenschaftliche Grundlagen für eine Bewertung gesundheitlicher Risiken. ASU Arbeitsmed Sozialmed Umweltmed, 56, 420-430.
https://doi.org/10.17147/asu-2107-7953

[46] Vanderkooy, J. et Mann, R. (2014) Measuring Wind Turbine Coherent Infrasound.

[47] Douglas, C. et Giancoli, D.C. (2019) Physik. Vol. 4, Pearson Deutschland GmbH, München.

[48] Krahé, D., Schreckenberg, D., Ebner, F., Eulitz, C. et Möhler, U. (2014) Machbar-keitsstudie zu Wirkungen von Infraschall. Entwicklung von Untersuchungsdesigns für die Ermittlung der Auswirkungen von Infraschall auf den Menschen durch unterschiedliche Quellen. Verlag Umweltbundesamt.
https://www.umweltbundesamt.de/publikationen/machbarkeitsstudie-zu-wirkungenvon-infraschall

[49] Weichenberger, M., Bauer, M., Kühler, R., et al. (2017) Altered Cortical and Subcortical Connectivity due to Infrasound Administered near the Hearing Threshold-Evidence from fMRI (altération de la connectivité corticale et sous-corticale due à des infrasons administrés près du seuil d’audition — preuves issues de l’IRMf). PLOS ONE, 12, e0174420.
https://doi.org/10.1371/journal.pone.0174420

[50] Alves-Pereira, M. et Branco, C. (2007) Vibroacoustic Disease: Biological Effects of Infrasound and Low-Frequency Noise Explained by Mechanotransduction Cellular Signalling. Progress in Biophysics and Molecular Biology, 93, 256-279.
https://doi.org/10.1016/j.pbiomolbio.2006.07.011
http://www.sciencedirect.com/science/article/pii/S0079610706000927

[51] Branco, C. et Alves-Pereira, M. (2015) Low Frequency Noise-Induced Pathology: Contributions fournies par le cas des éoliennes portugaises. Euronoise 2015, Maastricht, 31 mai-3 juin 2015, 2659-2661.
https://www.researchgate.net/publication/290444707_Low_Frequency_Noise-Induced_Pathology_Contributions_Provided_by_the_Portuguese_Wind_Turbine_Case

[52] Louisinha, A., Oliveira, R.M.J., Borrecho, G., Brito, J., Oliveira, P., Oliveira da Car-valho, A., et al. (2018) Infrasound Induces Coronary Perivascular Fibrosis in Rats. Cardiovascular Pathology, 37, 39-44.
https://doi.org/10.1016/j.carpath.2018.10.004

(53) Liu, Z., Gong, L., Li, X., et al. (2012) Infrasound Increases Intracellular Calcium Concentration and Induces Apoptosis in Hippocampi of Adult Rats. Molecular Medicine Reports, 5, 73-77.
https://doi.org/10.3892/mmr.2011.597

(54) Pei, Z., Chen, B. Y., Tie, R., et al. (2011) Infrasound Exposure Induces Apoptosis of Rat Cardiac Myocytes by Regulating the Expression of Apoptosis-Related Proteins. Cardiovascular Toxicology, 11, 341-346.
https://doi.org/10.1007/s12012-011-9126-y

[55] Zhang, M. Y., Chen, C., Xie, X. J., et al. (2016) Damage to Hippocampus of Rats after Being Exposed to Infrasound. Biomedical and Environmental Sciences, 29, 435-442.

(56) Zhou, X., Yang, Q., Song, F., et al. (2020) Tetrahydroxystilbene Glucoside Ameliorates Infrasound-Induced Central Nervous System (CNS) Injury by Improving Antioxidant and Anti-Inflammatory Capacity. Oxidative Medicine and Cellular Longevity, 2020, Article ID: 6576718.
https://doi.org/10.1155/2020/6576718

[57] Chaban, R., Ghazy, A., Georgiadem, E., Stumpf, N. et Vahl, C.F. (2021) Negative Effect of High-Level Infrasound on Human Myocardial Contractility: In Vitro Controlled Experiment. Noise Health, 23, 57-66.

[58] Zhang, H., Qi, P., Si, S.Y. et Ma, W.M. (2013) Effect of Infrasound on the Growth of Colorectal Carcinoma in Mouse. Chinese Journal of Cancer Prevention and Treatment, 20, 1145-1149.

[59] Dumbrille, A., McMurtry, R.Y. et Krogh Marie, C. (2021) Wind Turbines and Adverse Health Effects: Applying Bradford Hill’s Criteria for Causation. Environmental Disease, 6, 65-87.

[60] Bittner-Mackin, E. (2006) Excerpts from the Final Report of the Township of Lincoln Wind Turbine Moratorium Committee. Zoning Board of Appeals, Bureau County.
http://www.aweo.org/windlincoln.html

[61] Nissenbaum, M.A., Aramini, J.J. et Hanning, C.D. (2012) Effects of Industrial Wind Turbine Noise on Sleep and Health. Noise Health, 14, 237-243.
https://www.noiseandhealth.org/text.asp?2012/1460/237/102961
https://doi.org/10.4103/1463-1741.102961

[62] Walker, B., George, F., Hessler, D.M., Rand, R. et Schomer, P. (2012) A Coopera-tive Measurement Survey and Analysis of Low Frequency and Infrasound at the Shirley Wind Farm in Brown County, Wisconsin. Report Number 122412-1 (Issued: December 24, 2012). Cooperative Measurement Survey.
https://puc.sd.gov/commission/dockets/electric/2018/EL18-003/testimony/testimony/mogen/Noise%20Exhibit%204.pdf

[63] Bräuner, E.V., Jørgensen, J.T., Duun-Henriksen, A.K., Backalarz, C., Laursen, J.E., Pedersen, T.H., Simonsen, M.K. et Andersen, Z.J. (2019) Long-Term Wind Tur-bine Noise Exposure and the Risk of Incident Atrial Fibrillation in the Danish Nurse Cohort (Exposition à long terme au bruit des turbines à vent et risque de fibrillation auriculaire dans la cohorte des infirmières danoises). Environment International, 130, Article ID: 104915.
https://doi.org/10.1016/j.envint.2019.104915

[64] Nguyen, D.P., Hansen, K. et Zajamsek, B. (2018) Characterizing Tonal Amplitude Modulation of Wind Farm. Conférence Australian Acoustic Society, Brisbane, 6 novembre 2018, 581-590.
https://www.acoustics.asn.au/conference_proceedings/AAS2018/abstracts/themes-papers.htm#p101

[65] Poulsen, H., Raaschou-Nielsen, O., Hahmann, P.A. andrea, N., Nordsborg, B.R., Ketzel, M., et al. (2019) Long-Term Exposure to Wind Turbine Noise and Risk for Myocardial Infarction and Stroke, a Nationwide Cohort Study (Exposition à long terme au bruit des éoliennes et risque d’infarctus du myocarde et d’accident vasculaire cérébral, une étude de cohorte nationale). Environmental Health Perspectives, 127, article n° 37004.
https://doi.org/10.1289/EHP3340

[66] De Backer, D., Ospina-Tascon, G., Salgado, D., Favory, R., Creteur, J. et Vincent, J. (2010) Monitoring the Microcirculation in the Critically Ill Patient: Current Methods and Future Approaches. Intensive Care Medicine, 36, 1813-1825.
https://doi.org/10.1007/s00134-010-2005-3




Une guerre mondiale de l’énergie a commencé

[Source : portail-ie.fr]

Propos recueillis par Mathéo Quenault

La guerre de l’énergie est une notion qui s’est répandue dans le paysage audiovisuel. Pour Fabien Bouglé, l’énergie sera l’élément au centre de la troisième guerre mondiale.

Portail de l’IE (PIE) : Vous avez écrit deux ouvrages consacrés à la thématique énergétique, le premier sur les éoliennes et le second sur le nucléaire. Quels éléments marquants vous ont poussé à vous intéresser au secteur énergétique puis à critiquer vivement l’énergie éolienne ?

Fabien Bouglé (FB) : Il y a 15 ans, alors que je procédais à la restauration d’une maison en Normandie j’ai découvert par hasard l’existence d’un projet de 13 éoliennes dont les plus proches étaient à 800 m. Cet évènement m’a profondément interrogé et m’a conduit à enquêter plus en détail sur la filière éolienne et par extension sur l’ensemble de la filière énergétique. Dans le cadre de ce projet, j’ai pu constater que les éoliennes étaient entachées de prises illégales d’intérêt. Juriste et ancien officier de réserve de gendarmerie, j’ai constaté que cette situation était systématique : les élus installaient les éoliennes sur leurs parcelles ou celles de leur famille tout en participant aux délibérations municipales sur le sujet. Alors que j’étais en relation avec le SCPC (Service central de prévention de la corruption du Ministère de la Justice), celui-ci a émis en 2014 dans son rapport d’activité une alerte sur la multiplication des atteintes à la probité dans le domaine de l’éolien.

Plus tard, dans le cadre du projet d’installation de 66 éoliennes entre les îles d’Yeu et Noirmoutier, j’ai dévoilé les tarifs de rachat de l’électricité provenant des éoliennes en mer qui avaient un niveau de subvention à 220 € le MWh alors que prix spot du marché était à l’époque à 45 €. La différence entre ces deux niveaux de prix se chiffrait au total à 40 milliards d’euros de subvention. Ces révélations ont contraint le gouvernement à renégocier les tarifs de rachat et le Président Emmanuel Macron avait annoncé en juin 2018 une baisse du tarif de rachat de 220 € à 180 € le MWh raccordement compris.

En 2019, le député Julien Aubert [député LR du Vaucluse de 2012 à 2022, NDLR] — que j’avais alerté sur le sujet — a obtenu du groupe LR l’ouverture d’une commission d’enquête parlementaire sur les éoliennes et les énergies intermittentes. La publication de ses travaux était une occasion parfaitement adaptée pour sortir un livre reprenant l’ensemble des informations occultées sur les éoliennes. Nous avons donc convenu avec les Éditions du Rocher de sortir mon premier manuscrit Éolienne : la face noire de la transition écologique en octobre 2019. L’objectif de cet ouvrage était de faire le tour d’horizon de la question des éoliennes tant du point de vue de l’écologie que celui des finances ou encore de la Mafia. Mais lors de conférences que je donnais en France, j’avais très souvent des questions sur le nucléaire. Je me suis alors aperçu qu’il y avait un vrai problème de biais cognitifs et d’informations biaisées sur le nucléaire. Pendant la crise sanitaire, j’ai profité du temps disponible pour rédiger mon second ouvrage intitulé Nucléaire : les vérités cachées qui vise à mettre en lumière les vertus de cette source d’électricité sans occulter la question des déchets radioactifs. C’est la suite de mon premier livre, car on ne peut pas parler du sujet du mix électrique basé sur des éoliennes censées remplacer le nucléaire si l’on ne comprenait pas en même temps la question du nucléaire.

PIE : Vous opposez l’énergie éolienne et l’énergie nucléaire, pourquoi ? Qu’est-ce qui les rend incompatibles selon vous ?

FB : Il y a plusieurs raisons à cela. Ces raisons sont d’ordre technique, économique et géopolitique.

Pour ce qui est de la raison technique, la France, avec le Plan Messmer en 1974, a choisi d’investir massivement dans le nucléaire afin de diminuer notre dépendance aux énergies fossiles. On construit dès lors un mix électrique basé sur les centrales nucléaires qui vont offrir une électricité massive, abondante et lors des pics de consommation on se sert des centrales hydrauliques et en dernier recours des centrales fossiles. Avec ce mix électrique, la production est très stable. Alors que les éoliennes, étant intermittentes, sont source de deux problèmes importants. Premièrement, les unités de production sont de 2 Mégawatts (contre 900 à 1650 Mégawatts pour une centrale nucléaire), qui vont être disséminées sur tout le territoire. Ceci oblige le réseau électrique à se répartir sur le territoire avec une multitude de lignes à haute tension. Ainsi, les éoliennes nécessitent de modifier en profondeur le réseau électrique.

D’après Xavier Piechaczyk, le président de RTE, le développement du renouvelable coûtera 100 milliards d’euros rien que pour l’adaptation du réseau électrique. Ce coût est notamment dû à l’enfouissement de certaines lignes à haute tension ainsi qu’à la création de nouvelles lignes. C’est justement afin de financer ces infrastructures que les Français voient encore augmenter leur facture de 10 %. Outre l’augmentation du prix de marché de l’électricité, cette hausse est due également à l’augmentation du TURPE [Tarif d’utilisation des réseaux publics d’électricité] qui est prélevé au consommateur sur leurs factures pour financer ces raccordements. Il est important de se souvenir que c’est Xavier Piechaczyk qui avait été l’un des artisans de la loi sur la baisse de la part du nucléaire à 50 %. Il avait pour directeur de cabinet adjoint Pauline Le Bertre, ancienne déléguée générale de France Énergie Éolienne, la structure qui sert de lobby aux exploitants éoliens.

D’autre part, il est obligatoire d’avoir des systèmes d’équilibrage, car la production des éoliennes dépend du vent dont la puissance est très variable. En plus de la problématique de réseau, s’ajoute celle de l’intermittence qui nécessite des centrales fossiles au gaz ou au charbon pour venir compléter la production des éoliennes lorsqu’elles ne tournent pas en raison d’une absence de vent.

Du point de vue économique, la France est l’un des leaders mondiaux du nucléaire qui est sa troisième filière industrielle. On parle ici de 220 000 emplois directs et indirects et de 400 000 emplois en incluant les emplois induits. Le nucléaire permet à la France de bénéficier d’une électricité à bas coût ce qui facilite la compétitivité de nos entreprises et de nos industries tout en assurant aux Français une facture électrique peu élevée.

L’installation de l’éolien dans notre mix électrique ne bénéficie pas à l’économie française. Aucune des éoliennes n’est fabriquée en France : 65 % des éoliennes installées en France sont allemandes et 30 % sont danoises. En outre, 45 % des sociétés d’exploitation électrique de ces éoliennes sont allemandes. Alors que le nucléaire est pour l’essentiel français, le remplacement du nucléaire français par une filière éolienne allemande creuse le déficit commercial de la France et modifie la gouvernance de notre système énergétique. Nous avons donc une situation où l’on détruit une filière économique dans laquelle la France se classe parmi les leaders au profit d’une filière dans laquelle on ne dispose d’aucun acteur.

Du point de vue géopolitique, la volonté de développer l’éolien cache l’objectif des Allemands de s’approprier la souveraineté énergétique en Europe en imposant son modèle d’énergies intermittentes au travers de l’Energiewende. Au début des années 2000, Gerhard Schröder promulgue la loi EEG de déploiement des énergies intermittentes (éoliennes et solaire). Pour pallier l’intermittence des éoliennes, l’Allemagne cherche alors à faciliter son approvisionnement en gaz russe pour minimiser sa consommation de charbon. C’est pourquoi elle tenait si fermement à la construction des gazoducs Nord Stream 1 et 2 afin de devenir le hub de distribution du gaz russe en Europe. L’objectif allemand était de contrôler le marché des éoliennes en Europe tout en s’assurant la maîtrise européenne du gaz russe. Pour ce faire et imposer son modèle économique, Berlin va d’une part propager son idéologie avec une infiltration des institutions européennes dans le domaine énergétique et s’assurer d’autre part de la destruction économique, géopolitique et intellectuelle du nucléaire français au travers d’opérations de guerre informationnelle déployées en France depuis 25 ans.

PIE : D’après vous, quelles sont les conséquences de cette incompatibilité sur la stratégie énergétique française ?

FB : Au vu des points évoqués précédemment, il n’est pas possible de faire du en même temps entre le nucléaire et l’énergie éolienne. Il est important de se rendre compte que l’éolien est un outil de guerre contre le nucléaire français. Nous sommes dans une situation de guerre économique entre deux modèles concurrents et incompatibles, l’Energiewende allemand et le nucléaire français.

Ces modèles étant incompatibles, nous sommes obligés d’en choisir un et d’en écarter un autre. Ce choix nécessite une lucidité de nos politiques sur les points évoqués précédemment ainsi que sur la situation actuelle qui ne peut être envisagée que comme une guerre énergétique. Cette incompatibilité se traduit par une hostilité de pays européens comme l’Allemagne ou l’Autriche. Récemment notre ministre de l’Énergie Agnès Pannier-Runacher, a été exclue des discussions sur les énergies renouvelables lors de la première rencontre du « club des renouvelables ». En effet, aux yeux des pays hostiles au nucléaire, la demande de la France d’intégrer le nucléaire dans la loi sur les énergies renouvelables est une action anti-renouvelable de la part de l’Hexagone.

Malheureusement, le concept de « couple franco-allemand », encore dans l’esprit de nos dirigeants, entraîne un manque de lucidité face à la situation que nous traversons aujourd’hui. Il est difficile pour ces derniers d’admettre et de reconnaître l’attitude belliqueuse, voire prédatrice, de l’Allemagne envers la France.

PIE : Le prix de l’énergie n’a jamais été aussi haut. Les entreprises énergétiques dans le monde enregistrent, telles que TotalEnergies, des niveaux de rentabilité exceptionnels et pourtant EDF dévoile de son côté un bilan calamiteux. Comment expliquez-vous cela ?

FB : Cela est dû au fait de l’explosion du prix des énergies fossiles depuis 2021, surtout celui du gaz qui s’explique par plusieurs raisons. En premier lieu, l’augmentation importante de la demande par la Chine. La deuxième raison est qu’il y a eu cette année-là une baisse historique de la vitesse des vents en Europe depuis 43 ans. Selon l’Institut Copernicus de la Commission Européenne, cette baisse a causé une réduction de la production de l’électricité par les éoliennes en Europe occidentale. Cette baisse a logiquement dû être compensée par une plus grande importation d’énergie fossile (charbon pétrole et gaz) ce qui a contribué à l’augmentation de la demande et donc in fine du prix du gaz. L’augmentation du prix du gaz a ensuite été accentuée par la guerre en Ukraine, les sanctions énergétiques de la Russie et le sabotage de Nord Stream qui a rendu l’accès au gaz plus difficile (et donc plus coûteux) aux pays européens. Tous ces éléments font que les gaziers comme Engie ou TotalEnergies ont engrangé des revenus considérables. La guerre économique de l’Europe contre la Russie a eu pour conséquence une augmentation de la facture de gaz de l’Europe qui est passée de 120 milliards de dollars en 2021 à 400 milliards de dollars en 2022.

De son côté, EDF est une entreprise d’électricité et la conjoncture n’était pas du tout la même. En effet, en 2022, le tarif spot moyen de l’électricité a augmenté du fait de l’augmentation du prix du gaz, car au sein de l’UE, le prix de l’électricité est indexé sur l’unité de production la plus chère. Cela aurait pu être plus profitable pour EDF, mais l’autorité de sûreté nucléaire (ASN), a estimé que les corrosions observées pourraient poser des problèmes de sécurité dans l’hypothèse où les réacteurs seraient arrêtés. Cela a conduit à l’arrêt d’un nombre très important de réacteurs nucléaires causant la perte de près de 80 TWh de production électrique. Cette baisse de production a ainsi entraîné un manque à gagner considérable alors que le prix spot était très élevé en 2022 (275 euros le MWh).

Ajouté à cela, l’Accès Régulé à l’Électricité Nucléaire Historique (ARENH) oblige EDF à vendre une partie importante de son électricité (120 TWh, soit ¼ de la production) à un prix cassé (à 42 € le MWh) à des concurrents ce qui crée aussi un manque à gagner. En revanche, lorsque c’est EDF qui achète de l’électricité d’origine éolienne, il lui est interdit de la revendre au prix spot du marché. Elle doit seulement se contenter d’une petite marge.

L’ensemble de ces mécanismes : l’ARENH, la non-disponibilité de certains réacteurs nucléaires et l’impossibilité de revendre sur le marché la production d’éolienne subventionnée font qu’EDF a perdu énormément d’argent et l’a conduit à avoir un déficit de 17,9 milliards en 2022 et une dette historique de 65 milliards d’euros. Cette fragilisation d’EDF faisait partie du plan de l’Allemagne, comme l’a dit Henri Proglio, l’ancien PDG d’EDF lors de la commission d’enquête parlementaire : « L’obsession des Allemands depuis 30 ans, c’est la désintégration d’EDF. Ils ont réussi ! »

PIE : À quelles autres stratégies était lié le dénigrement du nucléaire ?

FB : Il est important de signaler que le dénigrement du nucléaire s’est accompagné de la valorisation de l’éolien. Il y avait l’intention de discréditer le nucléaire afin de créer un appel d’air pour l’éolien en prenant bien soin de ne pas mentionner que l’installation d’éoliennes s’accompagne de l’utilisation d’énergies fossiles telles que le gaz ou le charbon. Cet oubli volontaire avait pour objectif de masquer l’absurdité écologique de l’énergie éolienne.

PIE : Quelles formes cette guerre de l’information a-t-elle prises ?

FB : Cette guerre de l’information s’est traduite par une utilisation massive des catastrophes de Tchernobyl et de Fukushima. Et ce, bien que les centrales françaises soient très différentes et beaucoup plus avancées et sécurisées que les centrales soviétiques de l’époque et aussi localisées à des emplacements bien éloignés de failles sismiques comparables à celles que l’on peut trouver au Japon. Dans un esprit de malhonnêteté et de tromperie, certains acteurs voulaient que la population associe l’eau sortant des tours aéroréfrigérantes à une pollution alors qu’il s’agit simplement du système de refroidissement du condenseur qui ne diffuse aucune sorte de pollution.

Ces attaques informationnelles sont couplées à des opérations de terrain comme Greenpeace qui lançait des drones sur des centrales nucléaires ou encore des opérations d’intrusion. L’ensemble de ces actions ont contribué à créer un climat anxiogène autour du nucléaire. Corrélativement, ces acteurs proposent des alternatives avec l’éolien. On ne peut pas comprendre les opérations de ces 20 dernières années de dénigrement du nucléaire sans comprendre que ces actions sont la double face d’une même opération. Politiquement, cela a commencé avec le gouvernement de la gauche plurielle, lorsque Lionel Jospin doit s’allier aux Verts, antinucléaires, qui viennent d’émerger politiquement. Il ne pouvait pas avoir de majorité s’il n’avait pas leur appui. C’est à ce moment-là qu’intervient la double opération : on ferme Superphénix qui permettait de produire de l’électricité avec les déchets des autres centrales, on dénigre politiquement le nucléaire, on renonce à construire de nouveaux réacteurs et enfin on assiste en 2001 au subventionnement d’éoliennes en France avec l’arrêt Cochet. Il y a un phénomène de double détente avec la destruction du nucléaire politiquement et médiatiquement couplé à la valorisation de l’éolien, présenté par Greenpeace comme idyllique. Sur le site de l’officine antinucléaire, les éoliennes sont présentées comme « un bouquet de fleurs pour la transition énergétique ».

PIE : Dans cette guerre, quels ont été les relais ? Qui sont les alliés et les ennemis du nucléaire français sous les angles sociétaux, politiques et économiques ?

FB : Dans les années 90 et 2000, il y a un essor important d’associations et d’ONG environnementales comme WWF et Greenpeace qui ont une grande notoriété. Ils sont le ressort des ONG antinucléaires qui jouissent d’une bonne cote de popularité. Ce sont elles qui ont été les principaux relais de l’idéologie antinucléaire, et ce, en étant financées par des organisations mondiales pro-éoliennes. C’est-à-dire qu’elle s’attaque au nucléaire tout en recevant de l’argent d’organisations mondiales ainsi que de fabricants d’éoliennes comme l’entreprise danoise Vestas premier fabricant mondial.

Ici, les ennemis du nucléaire français sous l’angle sociétal sont principalement les ONG comme WWF, Greenpeace et les Amis de la Terre qui d’ailleurs sont toutes financées par la fondation Rockefeller créée par les géants du pétrolier Esso puis Exxon.

Sous l’angle politique, il s’agit des partis tels que EELV en France, les Grünen en Allemagne, très liés aux ONG mentionnées plus haut. S’y ajoutent les fondations allemandes comme Henrich Boll ou Rosa Luxembourg qui viennent financer d’autres structures que les ONG comme Sortir du Nucléaire ou Réseaux Action Climat nébuleuse regroupant WWF et Greenpeace. L’organisation antinucléaire et pro éolienne Négawatt en France est financée par les gaziers et les promoteurs éoliens. On peut aussi citer l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME) qui est devenue le lieu d’infiltration des mouvements antinucléaires et pro-éoliens au sein de nos institutions.

Un autre opérateur de cette guerre énergétique est l’Office franco-allemand pour la transition énergétique (OFATE) qui est un lobby allemand dont le siège est à Berlin, au siège du ministère fédéral de l’Économie allemande et qui dispose d’un bureau au ministère français de l’Écologie à la Direction Générale de l’Énergie et du Climat, c’est-à-dire la direction chargée de la politique énergétique de la France. Greenpeace et WWF sont membres de cet organisme installé dans nos ministères. Il y a clairement une infiltration toujours en cours de nos institutions par la filière éolienne et le mouvement antinucléaire. Pour finir avec l’angle politique on peut citer des personnalités françaises, deux anciennes ministres de l’écologie : Corinne Lepage qui a tout fait pour faire fermer Superphénix et Dominique Voynet, qui de son propre aveu a menti et manipulé son gouvernement pour faire en sorte que le nucléaire ne soit pas retenu au titre des énergies d’avenir de l’Union européenne, l’ancêtre de l’actuelle taxonomie.

Sous l’angle économique, les principaux adversaires du nucléaire français sont clairement les fabricants d’éoliennes ainsi que les gaziers et pétroliers.

PIE : Vous publiez en septembre un ouvrage sur la guerre de l’énergie. Quelle valeur ajoutée apportez-vous au traitement de cette thématique, que ne traitent pas déjà les ouvrages existants ?

FB : Je dirai que jamais dans l’histoire de l’humanité l’énergie n’avait été autant au cœur d’une guerre mondiale. Selon moi, l’énergie est aujourd’hui l’enjeu, la cause et l’arme de cette guerre. Ma position est que la troisième guerre mondiale est une guerre de l’énergie, car on l’utilise pour mener la guerre, mais on fait cette guerre aussi pour s’assurer le contrôle des systèmes énergétiques. La Première Guerre mondiale était une guerre territoriale, la seconde une guerre idéologique, la troisième est une guerre énergétique.

Aujourd’hui la guerre est hybride, asymétrique, militaire, informatique, biologique, alimentaire… En somme, elle est multiface. Selon moi, la guerre en Ukraine représente la partie militaire d’une guerre beaucoup plus importante qui est la guerre mondiale de l’énergie. Car le contrôle de l’énergie domine tout. Le pays qui contrôle l’énergie contrôle politiquement et économiquement les pays qui en ont besoin. Nous assistons donc à la première guerre mondiale de l’énergie. Par le passé, il y a déjà eu des batailles de l’énergie (guerre en Irak…), mais ce n’étaient pas des guerres au retentissement international. Nous assistons véritablement à un conflit mondial d’une nouvelle intensité.

Avec ce livre, je souhaite apporter un nouvel éclairage qui place la guerre de l’énergie au cœur du nouveau conflit mondial, mais aussi alerter les pouvoirs publics qui semblent dépassés par le sujet. Comme les autres, il a pour objectif d’apporter des clés de lecture et des aides à la compréhension des évènements à destination des citoyens comme des gouvernants ; c’est bien là sa spécificité. Plusieurs livres s’intéressent à la guerre de l’énergie au Moyen-Orient ou dans d’autres régions du monde, mais je souhaite aborder la guerre de l’énergie comme un phénomène désormais global qui donne lieu à ce nouveau conflit mondial. C’est pour cela que je parle de troisième guerre mondiale de l’énergie qui selon moi a éclaté au grand jour avec le sabotage de Nord Stream le 26 septembre 2022. C’est l’élément déclencheur qui est symboliquement très puissant. On pourrait comparer cet évènement à l’assassinat de l’archiduc François-Ferdinand à l’aube de la Première Guerre mondiale. Ce n’est pas une déclaration de guerre à proprement parler, mais une officialisation de la guerre. Ainsi le 26 septembre prochain marquera le premier anniversaire de l’officialisation de la guerre mondiale de l’énergie. C’est donc ce moment précis que j’ai choisi pour la sortie de ce nouveau livre.

PIE : Comment cette guerre se caractérise-t-elle en France et en Europe ?

FB : Elle se caractérisera de plusieurs façons. Elle sera à la fois intraeuropéenne et extraeuropéenne. Nous avons d’abord une confrontation énergétique violente entre un Empire américain et un Empire russe et dont la guerre en Ukraine est la face émergée de l’iceberg. Cette guerre place l’Europe en situation de faiblesse dans la mesure où elle est très dépendante de ces fournisseurs d’énergies. Cette vassalisation énergétique de l’Europe conduit à une autre confrontation avec un affrontement entre l’énergie nucléaire, soutenue par la France et ses alliés, et le couple gaz/charbon-éolien, soutenu par l’Allemagne et ses alliés.

PIE : Dans ce contexte, quelles sont les suites pour la France et l’Europe ?

FB : Pour comprendre les problématiques énergétiques de notre pays, il faut revenir aux fondamentaux historiques qui ont construit notre histoire depuis 70 ans. Les apprentissages de l’Histoire doivent guider notre réflexion et en particulier la place qu’a occupée l’atome dans la création de la Communauté Européenne en 1957. L’industrie nucléaire a été au cœur de la création de l’Union européenne avec la signature du traité Euratom signé le même jour que le traité de Rome créant la CEE. Remettre en cause la place de l’énergie atomique en Europe, c’est remettre en cause la construction européenne mise en place pour assurer la paix. Le développement du nucléaire constitue donc une nécessité vitale pour la paix en Europe et dans le Monde. C’est dans ce sens que dans le prochain ouvrage, sont proposées certaines pistes pour une réforme du système énergétique européen.

Pour aller plus loin :


Les États-Unis et la Russie cherchent à éliminer le nucléaire français

EDF est le bras armé de l’économie française




Le Pokémon et la crétinisation technologique en 1880

[Publication initiale : https://www.dedefensa.org — 6 août 2016]

Par Nicolas Bonnal

L’autre jour à Madrid, par quarante degrés centigrades et sur la plaza del sol, « des milliers » (comme on dit) de jeunes professionnels et autres étudiants prometteurs se sont réunis en tongues, short et t-shirt pour une réunion Pokémon qui promettait beaucoup. Ils se réunissaient donc pour chasser le Pokémon devant les médias émerveillés qui en rendaient compte, et qui affirmaient qu’enfin les jeux vidéo ne sédentarisent pas (pourquoi leur chercher des poux dans la tête ? T’es facho ?), qu’enfin une action japonaise (Nintendo) montait autant qu’à Wall Street (où elles sont toutes achetées, comme Hillary, par les robots de la Fed insatiable), qu’enfin surtout soixante-cinq millions de zombies qui, comme dans un roman de Phillip K. Dick, faisaient la même chose (la chasse à une électro-bestiole donc) au même moment, c’était, c’est fantastique. Quel signe de modernité, tralala.

Nous sommes tombés bien bas mais, comme dit un allègre ami franco-algérien, qui n’a pourtant pas de permis camion, nous creusons encore ! Car enfin, souvenez-vous que du temps de nos aïeux, pour paraphraser Corneille, nous ne valions guère mieux. Nous avions déjà une technologie de choix pour nous ahurir, enfants de ce règne de la quantité et de la révolte des masses…

La seule et vraie révolution politique française, c’est 1870, et la seule grande révolution technologique, c’est l’électricité. C’est Villiers de L’Isle-Adam qui a le mieux perçu l’air du temps, qui est à la sottise entretenue, créée et chouchoutée par la benoîte technologie. Le recueil des Contes cruels contient bien des perles qui calmeront les grincheux du web : nous étions alors crétinisés par l’avènement de la lumière et du reste. C’était pour reprendre le bon mot de Philippe Béchade l’inintelligence artificielle au berceau. Je ferai mon distinguo entre technique et technologie : la première sert et soutient le corps, la deuxième s’attaque à l’âme. La première vous transporte, la deuxième vous occupe.

La force de Villiers, qui intéressera PhG, est de relier le phénomène de la technologie à celui du chauvinisme qui nous enverra à Verdun et ailleurs. Voyez ces mots qui en annoncent d’autres (de maux) :

« Autour de lui, sous les puissantes vibrations tombées du beffroi, − dehors, là−bas, au−delà du mur de ses yeux −, des piétinements de cavalerie, et, par éclats, des sonneries aux champs, des acclamations mêlées aux salves des Invalides, aux cris fiers des commandements, des bruissements d’acier, des tonnerres de tambours scandant des défilés interminables d’infanterie, toute une rumeur de gloire lui arrivait1 ! »

Tout cela très lié donc au militaire festif et ludique, comme la guerre allemande du futur, qui enchante le Kaiser ou même le bien jeune Thomas Mann. Le mégaphone (revoyez le Dictateur de Chaplin pour comprendre) et la fée électricité annoncent les massacres qu’ils inspirent et encensent :

« Son ouïe suraiguë percevait jusqu’à des flottements d’étendards aux lourdes franges frôlant des cuirasses. Dans l’entendement du vieux captif de l’obscurité, mille éclairs de sensations, pressenties et indistinctes, s’évoquaient ! Une divination l’avertissait de ce qui enfiévrait les cœurs et les pensées dans la Ville2. »

La guerre fraîche et joyeuse est d’abord une guerre électrique, une guerre de conditionnement donc. Macluhan a bien parlé de l’imprimerie pour la révolution puritaine en Angleterre (révolution si j’ose dire du peuple du Livre et de la livre…).

Après Villiers lance le grand débat auquel personne ne répond jamais : les membres du docte public moderne, les gens donc, sont-ils abrutis par la technologie ou sont-ils ahuris naturellement ? Céline était clair : pour lui le populo n’est pas victime, il est collabo, et il n’apprécie que le faux et le chiqué :

« Que demande toute la foule moderne ? Elle demande à se mettre à genoux devant l’or et devant la merde !… Elle a le goût du faux, du bidon, de la farcie connerie, comme aucune foule n’eut jamais dans toutes les pires antiquités… Du coup, on la gave, elle en crève… Et plus nulle, plus insignifiante est l’idole choisie au départ, plus elle a de chances de triompher dans le cœur des foules… mieux la publicité s’accroche à sa nullité, pénètre, entraîne toute l’idolâtrie3… »

Autrement dit la technologie révèle la bêtise humaine, elle ne la fabrique pas ; elle la répand, elle ne la provoque pas. Medium is not message. Quelques milliers de Happy Few chaque jour pour Dedefensa.org, un milliard pour Lady Gaga et son Twitter (sans oublier le million de commentaires par chanson, — voyez YouTube et vous saurez de combien de zombis vous êtes entourés), qui aplatit pape, Trump, Clinton, tout « le flot de purin mondial » qu’a dénoncé notre bon Francis Ponge.

Moins agressif, mais aussi misanthrope que Céline ou Léautaud, Villiers ajoute :

« Car le public raffole, remarquez ceci, de l’Extraordinaire ! Mais, comme il ne sait pas très bien en quoi consiste, en littérature (passez−moi toujours le mot), ce même Extraordinaire dont il raffole, il s’ensuit, à mes yeux, que l’appréciation d’un portier doit sembler préférable, en bon journalisme, à celle du Dante4. »

Villiers écrit que dans la société du spectacle il ne faut pas faire semblant d’être bête (c’est trop difficile) : il faut l’être.

« Mais le pire, c’est que vous laissez pressentir dans l’on ne sait quoi de votre phrase que vous cherchez à dissimuler votre intelligence pour ne pas effaroucher le lecteur ! Que diable, les gens n’aiment pas qu’on les humilie5 ! »

Et on a bien fait de détrôner ces rois qui avaient des goûts élitistes. Ils préféraient Phèdre et le roi Lear à American pie ou Taxi.

« Les rois, tout ennuyeux qu’ils soient, approuvent et honorent Shakespeare, Molière, Wagner, Hugo, etc. ; les républiques bannissent Eschyle, proscrivent le Dante, décapitent André Chénier. En république, voyez−vous, on a bien autre chose à faire que d’avoir du génie ! On a tant d’affaires sur les bras, vous comprenez6. »

Certes on a notre classe moyenne relookée en bobo qui adore se presser aux expos. Mais comme elle ne fait pas la différence entre Turner et Rothko, entre Memling et Dubuffet, elle accomplit le mot de mon ami Paucard sur la crétinisation par la culture7.

Puis notre écrivain maudit (il mourut de faim ou presque, ce descendant de croisé, après avoir épousé sa bonne) énonce la loi d’airain du système ploutocratique, démocratique et technologique moderne (loi que dénonçaient aussi bien Poe ou Thoreau) : dépenser beaucoup et fabriquer beaucoup d’effets spéciaux pour vendre… rien du tout ou presque. La camelote…

« On voit d’ici ce mouvement, cette vie, cette animation extraordinaire que les intérêts financiers sont seuls capables de donner, aujourd’hui, à des villes sérieuses. Tout à coup, de puissants jets de magnésium ou de lumière électrique, grossis cent mille fois, partent du sommet de quelque colline fleurie, enchantement des jeunes ménages, − d’une colline analogue, par exemple, à notre cher Montmartre ; − ces jets lumineux, maintenus par d’immenses réflecteurs versicolores, envoient, brusquement, au fond du ciel, entre Sirius et Aldébaran, l’Oeil du taureau, sinon même au milieu des Eyades, l’image gracieuse de ce jeune adolescent qui tient une écharpe sur laquelle nous lisons tous les jours, avec un nouveau plaisir, ces belles paroles : On restitue l’or de toute emplette qui a cessé de ravir8 ! »

Eh oui, il faut faire les courses et surtout se faire rembourser si on n’est pas content. Notez que Zola écrit la même chose ou presque dans son Bonheur des dames. Sauf qu’il adore lui le système. La femme va au bruit, dit-il…

« Il professait que la femme est sans force contre la réclame, qu’elle finit fatalement par aller au bruit9. »

Enfin, bien avant le culte hollywoodien (peu avant en fait, car enfin il a écrit sur Edison), Villiers décrit une tordante machine à gloire — car on veut tous être célèbre comme Andy Warhol, Woody Allen ou les ayatollahs.

« Le rendement de sa machine, c’est la GLOIRE ! Elle produit de la gloire comme un rosier des roses ! L’appareil de l’éminent physicien fabrique la Gloire. Elle en fournit. Elle en fait naître, d’une façon organique et inévitable. Elle vous en couvre ! N’en voulût−on pas avoir : l’on veut s’enfuir, et cela vous poursuit10. »

Et si un public par trop assoupi ne répond pas assez vite, qu’on lui botte le derrière, comme aux émissions dites de divertissement ! Il faut qu’il applaudisse le célèbre.

« Ici, la Machine se complique insensiblement, et la conception devient de plus en plus profonde ; les tuyaux de gaz à lumière sont alternés d’autres tuyaux, ceux des gaz hilarants et dacryphores. Les balcons sont machinés, à l’intérieur : ils renferment d’invisibles poings en métal − destinés à réveiller, au besoin, le Public− et nantis de bouquets et de couronnes11. »

Tout cela pour dire que finalement le Pokémon n’est pas si grave !

On laisse Villiers nous amuser une dernière fois, et hélas plus qu’un Alphonse Allais :

« Témoin le délicieux Appareil du professeur Schneitzoëffer (junior), de Nürnberg (Bayern), pour l’Analyse chimique du dernier soupir. Prix : un double thaler − (7 fr. 95 avec la boîte), − un don ! … − Affranchir. Succursales à Paris, à Rome et dans toutes les capitales. − Le port en sus. − Éviter les contrefaçons. Grâce à cet Appareil, les enfants pourront, dorénavant, regretter leurs parents sans douleur… C’est à se demander, en un mot, si l’Âge d’or ne revient pas12. »

Car l’âge d’or a la vie dure !

Notes

1 Villiers, Contes cruels, Ed. Garnier, conte Vox populi.

2 Ibid.

3 Céline, Bagatelles pour un massacre, p.33.

4 Villiers, op.cit., Deux augures.

5 Ibid.

6 Ibid.

7 Alain Paucard, la crétinisation par la culture, l’Age d’Homme.

8 Villiers, op.cit., l’affichage céleste.

9 Zola, Au bonheur des dames, chapitre IX.

10 Villiers, op.cit., la machine à gloire.

11 Ibid.

12 Villiers, op.cit., L’appareil pour l’analyse chimique du dernier soupir.




Un professeur de biologie de l’Arizona démissionne en raison de l’addiction de ses élèves à leur téléphone portable

[Source : aubedigitale.com]

Par Gabriel Hays

Un professeur de lycée de l’Arizona démissionne en raison de l’addiction de ses élèves… à leur téléphone.

L’utilisation constante des smartphones dans sa classe a poussé Mitchell Rutherford, du lycée Sahuaro, à déclarer la semaine dernière à Fox News qu’il « abandonnait » son métier de professeur de biologie parce qu’il ne pouvait pas contrôler l’utilisation des téléphones.

« J’ai eu des problèmes de santé mentale cette année, principalement à cause de ce que j’ai identifié comme étant une dépendance au téléphone chez les élèves », a-t-il commenté.

Après avoir enseigné pendant 11 ans, il a démissionné. Il a déclaré la semaine dernière qu’il avait mis en œuvre une « variété de plans de cours » pour essayer de faire comprendre à ses élèves les effets négatifs de l’utilisation constante du téléphone.

« Voici un crédit supplémentaire, vérifions votre temps d’écran, créons des habitudes, faisons une unité sur le sommeil et pourquoi le sommeil est important et comment réduire l’utilisation de votre téléphone pour une routine au coucher, et nous en avons parlé tous les jours et avons créé un panier appelé “prison de téléphone” », a-t-il déclaré à Fox News.

Il a comparé les téléphones à d’autres dépendances dans la région : « Les opioïdes, évidemment un énorme problème, la cocaïne, l’héroïne, toutes ces drogues, l’alcool, tout cela est un gros problème, mais le sucre est encore plus important que cela, et les téléphones encore plus ».

Selon lui, « quelque chose a changé » chez les enfants pendant la pandémie de Covid-19 et leur dépendance à l’égard de leur téléphone s’est aggravée.

Des études récentes indiquent que les perturbations liées aux pandémies ont considérablement nui à l’éducation et à la productivité des élèves de la maternelle à la terminale dans tout le pays. Rutherford a fait part de ses inquiétudes aux médias et s’est d’abord accusé d’être à l’origine des lacunes croissantes en matière d’éducation. Il a noté que certains élèves se désintéressaient ouvertement de l’école, mais il pense finalement que des changements sociétaux sont nécessaires pour inculquer de meilleures habitudes aux enfants.

« En tant que société, nous devons donner la priorité à l’éducation de nos jeunes et à leur protection, et permettre à leur cerveau, à leurs compétences sociales et à leur bonheur de se développer de manière naturelle, sans leur téléphone », conclut-il.

« Une partie de moi a l’impression d’abandonner ces enfants », a-t-il déclaré, ajoutant : « Je dis tout le temps aux enfants de faire des choses difficiles, et maintenant je m’en vais ? Mais j’ai décidé d’essayer quelque chose d’autre qui ne me consume pas complètement et ne m’épuise pas. »