1

Les catastrophes naturelles ne sont pas toutes naturelles

[Source : cielvoile.fr]

Article scientifique de Fabien Deruelle

Lien : https://journaljgeesi.com/index.php/JGEESI/article/view/727

Journal de géographie, environnement et sciences de la Terre
International
Volume 27, numéro 11, pages 74-94, 2023 ; Article n° JGEESI.108644
ISSN : 2454-7352

_____________________________________________________________

Fabien Deruelle a++*
a Rue Anatole France, 59790 Ronchin, France.
++PhD, Chercheur Indépendant
*E-mail : fderuelle@webmestre

Contribution de l’auteur
L’auteur unique a conçu, analysé, interprété et préparé le manuscrit.

Information sur l’article
DOI : 10.9734/JGEESI/2023/v27i11727

Historique ouvert de l’examen par les pairs :
Cette revue suit la politique ouverte et avancée d’examen par les pairs. L’identité des réviseurs, des éditeurs et des réviseurs supplémentaires, les commentaires des pairs, les différentes versions du manuscrit, les commentaires des éditeurs, etc. sont disponibles ici :
https://www.sdiarticle5.com/review-history/108644

Reçu : 21/10/2023
Accepté : 06/11/2023
Publié : 10/11/2023

RÉSUMÉ

Depuis un demi-siècle, l’armée développe des technologies pour transformer les phénomènes climatiques et environnementaux extrêmes en armes.

Cette étude est une revue de la littérature qui a été menée avec les objectifs suivants : 1/ révéler les puissantes technologies militaires connues de modification du climat et de l’environnement ; 2/ souligner que de nombreux événements environnementaux extrêmes observés ces dernières années correspondent aux effets que ces technologies militaires sont capables de générer ; 3/ analyser les conclusions du Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) sur les origines de l’augmentation des catastrophes naturelles.

La littérature utilisée provient de sources officielles : articles scientifiques à comité de lecture (sauf un) ; brevets ; organisations intergouvernementales ; documents militaires ; documents politiques ; documents universitaires ; journaux nationaux ; agences de presse ; écrits de scientifiques respectés dans leur domaine. Les résultats de l’analyse documentaire révèlent que HAARP (High-Frequency Active Auroral Research Program), le chauffage ionosphérique le plus puissant en fonctionnement, est capable d’influencer le climat. Les impulsions électromagnétiques de haute puissance dans la croûte terrestre, produites par un générateur magnétohydrodynamique mobile, sont une technique développée depuis les années 1970 pour déclencher des tremblements de terre. Les armes à énergie dirigée, une technologie réelle, peuvent déclencher des incendies destructeurs à distance. Depuis plusieurs années, des documents officiels font état d’effets sur la santé et l’environnement similaires en tous points à ceux qui seraient détectés si la géo-ingénierie solaire par injection d’aérosols stratosphériques, une technique de modification du climat, était utilisée. En raison de nombreux biais et d’un manque d’objectivité, les arguments du GIEC sur les causes de l’augmentation des phénomènes environnementaux extrêmes (vagues de chaleur et de froid, tempêtes, ouragans, tornades, sécheresses, inondations, incendies de forêt, pollution de l’air, etc.) sont erronés. L’hypothèse solaire n’est pas non plus appropriée, compte tenu de sa faible activité depuis plusieurs années.

En conclusion, le recours aux technologies militaires de modification du climat et de l’environnement apparaît comme l’explication la plus pertinente pour comprendre l’augmentation des catastrophes naturelles au cours des 20 dernières années.

Mots-clés : Pollution atmosphérique ; sécheresse ; ondes électromagnétiques ; tremblement de terre ; conditions météorologiques extrêmes ; HAARP ; géo-ingénierie solaire ; incendies de forêt.

J. Geo. Env. Earth Sci. Int., vol. 27, no. 11, pp. 74-94, 2023

1. INTRODUCTION

Au moins 50 pays utilisent déjà des technologies de modification météorologique. La Chine utilise cette méthode sur près de 50 % de son territoire [1,2]. La technologie la plus largement utilisée est l’ensemencement des nuages, qui vise à améliorer les précipitations [3,4,5]. Plutôt que d’utiliser l’ensemencement traditionnel des nuages, qui soulève d’importantes préoccupations en matière de santé et de sécurité environnementale en raison des retombées des sous-produits, les Émirats Arabes Unis emploient des drones, conçus pour cibler certains nuages, qui produisent des décharges électriques via des lasers concentrés pour regrouper de force les gouttelettes d’eau dans l’air, et ainsi déclencher les pluies désirées [6].

Mais ce sont les militaires qui s’intéressent le plus aux techniques de modification de la météo, avec des objectifs bien plus ambitieux que simplement faire pleuvoir. En 1957, Lyndon B. Johnson déclarait : « Depuis l’espace, on pourrait contrôler le climat de la Terre, provoquer des sécheresses et des inondations, modifier les marées et élever le niveau de la mer, rendre les climats tempérés glacials ». Depuis les années 1970, grâce à un programme de contrôle climatique appelé Climate Dynamics, le Pentagone a étudié comment les États-Unis pouvaient faire fondre les calottes glaciaires, générer des tempêtes destructrices et utiliser les « instabilités environnementales clés » pour libérer d’énormes quantités d’énergie. Ils avaient découvert comment les États-Unis, agissant secrètement depuis l’espace, pouvaient infliger des intempéries à l’Union soviétique. En Union soviétique, les ingénieurs ont réussi à inverser le cours de la rivière Pechora, qui traverse l’Arctique, pour créer des mers intérieures susceptibles de modifier le climat mondial [7].

La première manipulation météorologique à des fins militaires fut la célèbre opération Pop-Eye (ensemencement de nuages) menée pendant la guerre du Vietnam, dont le but était de prolonger la mousson. Les pluies étaient de qualité acide et les risques écologiques étaient totalement inconnus [8]. À la suite de cette opération militaire, l’ONU a créé, en 1976, la Convention sur la modification de l’environnement (ENMOD). Cependant, cette convention n’est pas suffisamment précise et offre la possibilité de contourner et d’adapter presque tout ce qui est écrit. Par exemple, la convention autorise la recherche et le développement d’armes climatiques ou l’utilisation de telles techniques contre un État non signataire [9,10]. À noter que la France n’est pas un État signataire.

Aux États-Unis, depuis au moins 1959, le gouvernement finance des recherches sur la modification météorologique [11], dont l’objectif reste essentiellement militaire [12,13,14]. Parmi les technologies nécessaires pour assurer la sécurité des États-Unis, une étude commandée par l’US Air Force en 1994, intitulée « Spacecast 2020 », considérait la modification météorologique comme une arme [15]. En 2001, un projet de loi, qui a été rejeté, a été présenté au Congrès américain pour interdire les armes spatiales, y compris les armes météorologiques et tectoniques [16].

Il y a cinquante ans, Gordon J. F. MacDonald (géologue, géophysicien et membre du comité consultatif scientifique du président Johnson), fortement impliqué dans les travaux de modification météorologique, prédisait une nouvelle stratégie de guerre dans un chapitre (« Comment détruire l’environnement ») d’un livre intitulé « Unless Peace Comes » écrit en 1968. L’auteur explique que les conflits futurs seront liés à la manipulation de l’environnement. Ces guerres seront secrètes car les tempêtes, inondations, sécheresses, tremblements de terre et raz-de-marée sont inhabituels, mais pas inattendus, et pourront se poursuivre pendant des années en toute discrétion [17]. En 2012, le journal britannique « The Guardian » a publié une lettre d’un ancien conseiller exécutif de l’aérospatiale et de la défense, qui expliquait que la météo était utilisée comme arme par au moins quatre pays : « … Les États-Unis, la Russie, la Chine et Israël possèdent la technologie et l’organisation nécessaires pour modifier les événements météorologiques et géologiques pour diverses opérations militaires et secrètes, qui sont liées à des objectifs secondaires, notamment la gestion des ressources démographiques, énergétiques et agricoles… La guerre inclut désormais la capacité technologique d’induire, d’améliorer ou de diriger des événements cycloniques, des tremblements de terre, des sécheresses et des inondations, y compris l’utilisation d’agents viraux polymérisés en aérosols et de particules radioactives transportées par les systèmes météorologiques mondiaux… » [18].

Des publications scientifiques, de nombreux documents officiels et observations montrent que les techniques militaires de modification du climat pourraient être utilisées depuis plus de 20 ans [12,13].

Quelles technologies pourraient être utilisées pour générer des phénomènes météorologiques, climatiques et environnementaux extrêmes (vagues de chaleur et de froid, pollution de l’air, tempêtes, ouragans, tornades, sécheresses, inondations, incendies de forêt, forts tremblements de terre, etc.) ?

Les rayonnements électromagnétiques semblent être le point commun de la plupart des recherches sur les armes climatiques et environnementales [12,13]. La première partie de l’article se concentre sur les faisceaux dirigés d’ondes électromagnétiques de forte puissance. La deuxième partie est consacrée à la géo-ingénierie solaire par injection d’aérosols stratosphériques (SAI), et à son association avec les ondes électromagnétiques. La troisième partie complète les deux précédentes et revient sur la version faisant autorité sur les causes conduisant à l’augmentation des phénomènes climatiques et environnementaux extrêmes.

2. ONDES ÉLECTROMAGNÉTIQUES DE HAUTE PUISSANCE

L’ionosphère terrestre (~ 60 à 1 000 km au-dessus du niveau de la mer) est composée de plasma dense, qui présente des variations complexes selon l’altitude, la situation géographique et le niveau d’activité solaire [19]. L’ionosphère joue un rôle majeur dans les performances des systèmes de communication civils et militaires. Les signaux radio de longueur d’onde plus longue sont réfléchis par l’ionosphère. Les signaux radio de longueur d’onde plus courte traversent l’ionosphère, mais en sont affectés, via des processus tels que l’absorption et la scintillation [20].

2.1 Énergie dirigée dans l’ionosphère

2.1.1 Réchauffeur ionosphérique

Un réchauffeur ionosphérique (IH) envoie des ondes à haute fréquence (HF) et haute puissance dans l’ionosphère pour la perturber et en observer les effets. Le plus connu est HAARP (High- Frequency Active Auroral Research Program) (Fig. 2, 4). Officiellement, les axes de recherche de HAARP sont : Physique des plasmas, radioscience, diagnostic mésosphère-thermosphère, météo spatiale, connaissance du domaine maritime arctique, ceinture de rayonnement de la magnétosphère, physique sous-aurorale, génération de plasmas, propagation de fréquences extrêmement basses, détection de cavités sous terre, radar au-dessus de l’horizon, science citoyenne et radioamateur, tendances des conditions ionosphériques et atmosphériques, y compris les tendances du changement climatique mondial. Entre 1990 et 2014, HAARP était un programme militaire. Depuis 2015, la responsabilité des installations et équipements HAARP a été transférée à l’Université d’Alaska à Fairbanks (UAF), mais le terrain appartient toujours à l’US Air Force [21].

HAARP fonctionne entre 2,7 et 10 mégahertz (MHz) avec une puissance crête (PP) de 3,6 mégawatts (MW) [21]. Étant donné que HAARP utilise un réseau d’antennes phasées, l’énergie peut être concentrée dans des directions variables, produisant une puissance apparente rayonnée (PAR) de l’ordre de quelques gigawatts (GW) (au moins jusqu’à 5,1 GW). Un chauffage à des fréquences plus élevées entraîne une augmentation de la PAR et permet de concentrer la puissance de la pompe du réseau d’antennes sur un point plus petit de l’ionosphère, ce qui augmente encore l’efficacité du chauffage [22, 23, 24].

Dans le monde, il existe d’autres IH : la Russie (SURA) fonctionne entre 4,5 et 9,3 MHz avec un PP de 750 kilowatts (750 kW) et un ERP de 190 MW ; Norvège (EISCAT), 3,85 à 8 MHz, PP de 1,2 MW et ERP de 1,2 GW ; Pérou (JRO), 50 MHz avec un PP de 6 MW (Figs. 1, 4) [25]. Les IH peuvent propager leurs faisceaux HF sur de très longues distances, par exemple de la Norvège à l’Antarctique [26].

Les scientifiques travaillent également à la construction d’IH mobiles (sur la barge d’un navire) dotés des mêmes capacités techniques que HAARP (Fig. 2). Ces études sont soutenues par le Bureau de Recherche Scientifique de l’Air Force [27,28,29,30].

2.1.1.1 Effets du réchauffement ionosphérique sur le temps

Les expériences réalisées par HAARP ont généré des perturbations sans précédent dans l’ionosphère [22]. Bien que l’UAF déclare que HAARP ne peut pas modifier la météorologie, B. Eastlund, dont les applications ont initié le développement de HAARP [31,32,33], affirme que les capacités de HAARP sont adéquates pour générer un contrôle météorologique [34]. Selon un rapport universitaire rédigé en 1998, toute la vérité sur HAARP ne serait pas officiellement révélée. Cette technologie peut conduire à des déséquilibres dangereux pour l’environnement et les personnes [35]. Le rapport du Parlement européen de 1999 déclare que HAARP a créé des trous dans l’ionosphère et peut être utilisé comme une arme à énergie dirigée pour provoquer un dérèglement climatique et manipuler les systèmes météorologiques mondiaux [36,12].

Fig. 1. JRO (Pérou) [25]

Fig. 2. Recherche pour le développement d’un réchauffeur ionosphérique mobile fonctionnant
avec la même technologie que HAARP (à gauche), mais sur une surface 20 fois plus petite [28]

Lorsque l’ionosphère était chauffée par un IH (SURA (Russie)), une diminution (jusqu’à 20 %) de l’intensité du spectre d’émission de l’ozone (mésosphère : 60 km) a été mesurée [37]. Le brevet d’Eastlund permet la production de régions ionisées artificielles depuis le niveau de la mer jusqu’à environ 80 km [34]. L’altitude de chauffage pouvant être stratosphérique, la couche d’ozone située à ce niveau peut être altérée.

Les ondes de gravité atmosphériques, qui apparaissent lors des mouvements verticaux de parcelles d’air, peuvent avoir un impact puissant sur le comportement des événements météorologiques extrêmes (pluies et températures extrêmes, ouragans, tornades, tsunamis) [38]. Des études ont montré qu’une puissante émission radio de HAARP ou SURA génère des ondes de gravité atmosphérique et acoustiques dans l’ionosphère [37,39,40,41,42]. Les ondes de gravité internes générées par le réchauffement ionosphérique, y compris dans la haute atmosphère, se propageant jusqu’aux hauteurs mésosphériques, modifient la température de la mésosphère [37]. Eastlund a précisé dans son brevet que la génération de régions d’air chauffées par un puissant IH permet de déposer de l’énergie dans l’air des régions troposphériques qui peuvent générer des ondes acoustiques atmosphériques ou des ondes de gravité atmosphériques pour modifier les vents directeurs à des fins de modification météorologique. Il est également possible d’influencer la répartition des charges électriques dans les mésocyclones [34].

En plus de modifier la configuration des vents (comme dans un autre brevet [31]), la technologie développée par le brevet d’Eastlund [32] permet de modifier la composition moléculaire atmosphérique, ainsi que d’augmenter la concentration d’une ou plusieurs molécules dans une région atmosphérique (par exemple ozone, azote, etc.).

Il est important de noter que deux brevets relatifs à la technologie HAARP sont classés comme une arme à énergie dirigée [32] et un dispositif ou une méthode pour influencer les conditions météorologiques [34]. Par conséquent, conformément au rapport du Parlement européen de 1999 [36,12], un IH tel que HAARP a la capacité d’être utilisé pour modifier le climat.

2.1.2 Autres appareils envoyant des faisceaux électromagnétiques dans l’ionosphère

De nombreux émetteurs militaires puissants à très basses fréquences (VLF) (Figs. 3, 4) induisent des perturbations et un échauffement importants de l’ionosphère, qui peuvent s’étendre latéralement sur plusieurs milliers de kilomètres [43,44].

Parmi tous les instruments qui envoient des ondes électromagnétiques dans l’ionosphère pour l’étudier, on trouve :

  • Le radar à diffusion incohérente (ISR), conçu pour sonder l’ionosphère afin de comprendre la densité, la température et la vitesse de déplacement du plasma. Ces radars doivent être construits avec une puissance (mégawatts) et des ouvertures (généralement des centaines de mètres carrés) suffisamment grandes (Fig. 4) [19,46].
  • Quelques radars militaires de forte puissance (Fig. 4) [45].
  • Super réseau de radars dual auroral (SuperDARN). Un réseau international d’environ 40 radars HF de faible puissance, fonctionnant entre 8 et 22 MHz, répartis dans les hémisphères nord et sud [47].
  • Nerc MST Radar Facility (Royaume-Uni), radar Chung-Li VHF (Chine), EAR (Japon) [47].

Le grand nombre d’émetteurs radio émet des ondes de différentes longueurs dans l’ionosphère, auxquelles il faut ajouter des satellites, contribuant ainsi aux changements environnementaux, météorologiques et climatiques [37,48] (voir également la section 3.2). À noter qu’individuellement, ces appareils ne se comportent pas exactement comme les IH, mais c’est leur quantité qui induit inévitablement des perturbations environnementales.

2.2 Liens entre les tremblements de terre et les ondes électromagnétiques

2.2.1 Les tremblements de terre déclenchés par des impulsions électromagnétiques

L’arme tectonique est un objectif militaire depuis la Seconde Guerre mondiale. En 1944, un scientifique anglais créa une bombe sismique [49]. Plus tard, des programmes soviétiques ont travaillé sur le déclenchement de tremblements de terre par des impulsions électromagnétiques [50].

Fig. 3. Australie, puissant émetteur VLF (émetteur North West Cape (NWC) :
Naval Communication Station Harold E. Holt) [45]

Fig. 4. * Réchauffeur ionosphérique ; ♦ Certains ISR ; ■ Quelques radars militaires.
(Réalisé à partir des références [21,25,45,46]).

Dans les années 1970, des scientifiques russes ont découvert que les impacts électromagnétiques sur les roches et les failles de la croûte terrestre en état de contrainte pouvaient déclencher des tremblements de terre. À l’origine, cette méthode a été étudiée dans le but de déclencher de petits séismes pour libérer des contraintes tectoniques afin d’éviter des tremblements de terre destructeurs. Des scientifiques russes ont donc développé un générateur magnétohydrodynamique (MHD) mobile (Pamir 1), capable de générer beaucoup d’énergie en très peu de temps et de la convertir en électricité. Ce système fut perfectionné dans les années qui suivirent. Ainsi, à l’aide d’un générateur MHD pulsé (Pamir-1, Pamir-2) ou d’un système électrique pulsé plus économique (ERGU-600-2), un dipôle électrique au sol avec un espacement des électrodes de 3 à 4,2 km, des impulsions de courant sont injectées dans la croûte terrestre, créant une forte activation sismique locale après 2 à 7 jours et se poursuivant pendant plusieurs jours (en fonction de l’appareil utilisé).

Les impulsions électromagnétiques accélèrent la libération de l’énergie stockée dans le milieu lors des processus tectoniques, sous la forme de séismes relativement faibles. Les auteurs soulignent que les tremblements de terre dépendent non seulement des déclencheurs, mais aussi de la nature et des propriétés géologiques de la région. Par conséquent, dans une zone sismique métastable, des impulsions électromagnétiques de faible puissance peuvent suffire à déclencher une cascade de petites secousses, conduisant à un séisme désastreux [51,52,53,54].

En 1995, un générateur MHD de haute puissance, Pamir-3U (PP ~ 15 MW), a été construit par l’Institut des Hautes Températures de l’Académie des Sciences de Russie et livré à l’US Air Force. Il s’agit d’un système d’alimentation portable autonome qui peut être transporté vers divers emplacements opérationnels et pour une utilisation éventuelle avec des applications d’armes avancées (Fig. 5) [55,56].

2.2.2 Un réchauffeur ionosphérique tel que HAARP pourrait-il déclencher un tremblement de terre ?

2.2.2.1 Paramètres mesurés avant et pendant un séisme

Avant le très fort séisme au Japon du 11 mars 2011, des variations importantes du contenu total en électrons (TEC) de l’ionosphère ont été observées [58,59], ainsi qu’un réchauffement de l’atmosphère au-dessus de l’épicentre [58]. Ces anomalies ont été identifiées comme des précurseurs à court terme associés à certains des tremblements de terre récents les plus destructeurs. Certains auteurs soutiennent que la libération de radon par la croûte terrestre agirait à travers une série d’événements pour induire de la chaleur et de la conductivité atmosphérique [58,60]. D’autres auteurs stipulent que les anomalies du TEC sont déclenchées et gérées par un champ électrique à grande échelle [61,62].

L’apparition de perturbations (augmentations) dans les gammes d’ondes ultra-basse fréquence (ULF), extrêmement basse fréquence (ELF) et VLF a également été observée avant de forts tremblements de terre [63,64,65,66].

La littérature montre qu’un séisme génère des micro-ondes et que les micro-ondes peuvent contribuer au déclenchement d’un séisme (en fonction de l’état énergétique du foyer sismique). En effet, le foyer sismique est un générateur permanent de micro-ondes, mais il est aussi un récepteur de micro-ondes. Cela conduit à un mécanisme d’autodéclenchement dû aux micro-ondes générées par le foyer du séisme lui-même. Les micro-ondes stimulent la roche, provoquant sa dislocation, laquelle à son tour génère des micro-ondes. Les roches semblent donc pénétrables par les micro-ondes [67].

Fig. 5. Pamir-3U système MHD [56,57]

2.2.2.2 Une perturbation ionosphérique peut déclencher un tremblement de terre

Une tempête magnétique provoquée par une éruption solaire peut également déclencher une libération d’énergie stockée dans la Terre. Les éruptions électromagnétiques solaires perturbent la conductivité de la basse ionosphère, générant également des perturbations du champ géomagnétique. L’absorption du rayonnement solaire ionisant induira des variations de densité de courant tellurique dans les failles sismogènes, pouvant conduire à un tremblement de terre si la zone affectée est dans un état de contrainte métastable. Ce changement de densité de courant dans la croûte terrestre est comparable aux variations induites par les injections électromagnétiques artificielles [51]. De plus, la forte corrélation entre l’activité solaire (vent solaire) et les séismes majeurs, résultant de la modulation de la densité de protons et donc du potentiel électrique entre l’ionosphère et la Terre, est susceptible d’être à l’origine des phénomènes lumineux visibles auparavant, ou accompagnant, un grand tremblement de terre [68].

Ainsi, la littérature scientifique montre non seulement que les tremblements de terre influencent certains paramètres de l’ionosphère, mais aussi que les perturbations ionosphériques peuvent avoir un impact sur la lithosphère.

2.2.2.3 Que peut provoquer HAARP ?

Il convient de souligner que parmi les objectifs de HAARP, des rapports militaires montrent que la génération d’ondes radio basses fréquences est également utilisée pour la tomographie de la terre, c’est-à-dire la détection et l’imagerie des structures souterraines [69,70]. HAARP pourrait donc dans un premier temps identifier les zones métastables dans les zones sismiques.

Nous avons vu précédemment qu’un réchauffeur ionosphérique tel que HAARP perturbe sérieusement l’ionosphère [22]. De plus, cela peut créer des irrégularités du TEC ionosphérique (comme un renforcement) en chauffant des régions localisées de l’ionosphère [23,34,71].

La génération d’ondes ULF/ELF/VLF dans l’ionosphère par chauffage modulé avec des ondes HF de haute puissance est l’un des objectifs les plus importants d’un IH [21,23,72,73].

Grâce au chauffage, HAARP peut créer des couches d’ionisation artificielles, produire des perturbations du champ magnétique, diverses structures lumineuses, des lueurs aériennes et des aurores artificielles, parfois visibles à l’œil nu [74,75].

Ainsi, tous les paramètres apparaissant dans l’ionosphère et l’atmosphère avant un fort séisme peuvent être générés par HAARP. De plus, puisque les perturbations ionosphériques liées aux orages magnétiques d’origine solaire peuvent déclencher des tremblements de terre, et que HAARP est capable de perturber l’ionosphère au point de créer des aurores artificielles locales — c’est-à-dire comparables à ce qu’est capable de faire un orage magnétique — il semble justifié de considérer la possibilité qu’un réchauffeur ionosphérique comme HAARP puisse être à l’origine d’au moins certains paramètres agissant en cascade pour produire un séisme. En 2011, bien que non publié dans une revue à comité de lecture, le Dr F. De Aquino (professeur de physique à l’Université d’État du Maranhao [Brésil], chercheur titulaire à l’Institut National de Recherche Spatiale) a démontré que le rayonnement ELF de haute puissance généré par les hautes fréquences provenant d’un réchauffeur ionosphérique, tel que HAARP, peut provoquer des tremblements de terre, des cyclones et un fort échauffement localisé [76].

En termes de micro-ondes, la capacité de HAARP à créer un miroir ionosphérique permet d’utiliser des faisceaux micro-ondes sur de longues distances [77,78].

2.3 Autres fréquences de rayonnement électromagnétique pour le contrôle météorologique

Un brevet explique comment un appareil, qui peut être utilisé comme arme militaire, peut produire des éclairs, du tonnerre et des ouragans au moyen d’ondes sonores à haute fréquence générées par un radar ou d’autres dispositifs d’émission à micro-ondes ou à haute fréquence [79].

Le laser permet le contrôle de la foudre, la condensation de la vapeur d’eau, la formation et la dissipation du brouillard, ainsi que la diffusion de la lumière (albédo) à partir des nuages de haute altitude pour la gestion du forçage radiatif [80].

3. GÉO-INGÉNIERIE SOLAIRE PAR SAI

3.1 Les explications officielles ne correspondent pas aux observations et aux mesures

Selon les autorités, une technologie de modification météorologique appelée géo-ingénierie solaire par injection d’aérosols stratosphériques (introduction de minuscules particules réfléchissantes dans la haute atmosphère, pour renvoyer une partie de la lumière du soleil vers l’espace) n’est pas utilisée actuellement [13]. L’Organisation météorologique mondiale (OMM), qui représente la seule référence faisant autorité (Atlas international des nuages) pour l’identification des nuages, a classé les traînées persistantes d’avions comme « traînées de condensation d’avions » pour les désigner comme de nouveaux nuages : Cirrus homogenitus [13], Cirrocumulus stratiformis homomutatus [81 ]. Bien que la majorité de la littérature scientifique soit d’accord avec cette classification des nuages, elle précise que ces traînées d’avions provoquent des effets délétères sur la santé, l’environnement, la qualité de l’air et agissent fortement sur le climat en le réchauffant bien plus que par le CO2 [13, 82,83]. De plus, la combustion de carburants aéronautiques alternatifs génère de petites particules non volatiles, favorise la formation de traînées de condensation et de cirrus étendus [84].

De nombreux indices permettent de conclure que la géo-ingénierie solaire par SAI est utilisée depuis longtemps. Depuis plusieurs années, articles scientifiques et documents officiels signalent des effets sur la santé et l’environnement (disparition du ciel bleu, maladies, pollution, appauvrissement de la couche d’ozone, qualité et quantité du rayonnement solaire, sécheresse, propriétés électriques de l’atmosphère, etc.) similaires en tous points à ceux qui seraient détectés si la géo-ingénierie solaire par SAI était utilisée (Fig. 6) [13].

Des publications scientifiques qui ne reconnaissent pas l’existence de l’utilisation de la géo-ingénierie solaire par SAI montrent néanmoins que les traînées persistantes d’avions sont composées de nombreuses particules métalliques [13]. À l’aide de mesures d’irradiance par spectrométrie solaire, une étude a montré que ces traînées persistantes d’avions ne sont pas des traînées de condensation de cristaux de glace, mais des traînées chimiques [85]. Des documents reliant ces traînées persistantes à la technologie de modification de la météo par pulvérisations chimiques montrent que leurs teneurs semblent être particulièrement concentrées en aluminium (Al), baryum (Ba), nanoparticules et soufre [13]. Ni l’aluminium, ni le baryum, ni les nanoparticules ne sont surveillés dans les analyses internationales de la pollution atmosphérique [86].

3.2 Effets des SAI et leur couplage aux ondes électromagnétiques

Un rapport militaire de 1996 a montré que la technologie électromagnétique nécessite des pulvérisations chimiques pour manipuler la météo, ajoutées à l’utilisation de la nanotechnologie pour créer une météorologie artificielle vers 2025 (par exemple des nuages intelligents composés de particules informatisées microscopiques), de sorte que des actions délibérées puissent être prises pour des phénomènes météorologiques naturels [78]. Cela a été corroboré en 2009 par un rapport de l’US Air Force, selon lequel vers 2030, avec l’aide de la nanotechnologie, l’armée américaine serait capable de créer (et pas seulement de modifier) le temps (tempêtes, brouillard, nuages, etc.) dans une zone définie [87].

À mesure que les SAI endommagent la couche d’ozone [13,88], ce qui a été corroboré par un modèle de géo-ingénierie aux sulfates [89], le rayonnement solaire devient de mauvaise qualité et très agressif, à tel point que le rayonnement ultraviolet (UV) sous forme d’UV-C, dans la plage 250-300 nm, a été mesuré à la surface de la Terre [90]. Les SAI augmentent le réchauffement local de l’atmosphère grâce au transfert de chaleur provoqué par les particules [10], et augmentent la conductivité électrique de l’atmosphère grâce aux particules métalliques [13]. Les découvertes d’Eastlund [32] permettent à une technologie comme HAARP de modifier les systèmes d’absorption solaire en construisant un ou plusieurs panaches de particules atmosphériques qui agiront comme une lentille ou un dispositif de focalisation. De plus, en utilisant des lignes de champ divergentes et avec la disponibilité d’une énergie suffisante transmise par un réchauffeur ionosphérique, des particules de différentes tailles présentant des caractéristiques souhaitées telles que l’adhésivité, la réflectivité, l’absorptivité, etc., peuvent être transportées à des fins ou pour des effets spécifiques (par exemple, concentration de grandes quantités de lumière solaire sur des parties spécifiques de la terre) [32]. En relation avec ce sujet, une étude a démontré que les propriétés physiques des microparticules atmosphériques en suspension (qui augmentent la pollution atmosphérique mondiale, affectent la santé ainsi que les conditions météorologiques et climatiques locales en diffusant et en absorbant le rayonnement solaire) sont considérablement modifiées sous l’action continue du rayonnement électromagnétique. Le nombre de particules augmente, la morphologie des particules est déformée avec l’augmentation du temps d’action électromagnétique, les caractéristiques de mouvement des microparticules sont affectées, la trajectoire des particules est modifiée et le champ électromagnétique favorise l’agglomération des particules dans la direction correspondant à la force du champ magnétique [91].

Fig. 6. Les photographies ont été prises par l’auteur lui-même, situé en France, avec un appareil photo Nikon Coolpix L16. a) : Près de Toulouse ville (sud) 5 septembre 2021, 16 h 37 ; b ; c ; d) Près de la ville de Lille (nord), 12 août 2021, 14 h 58 ; 11 avril 2022, 13 h 40 ; 22 avril 2023, 15 h 53. Les traînées d’avions persistantes sont pour la plupart dirigées vers le soleil et s’étalent, laissant un ciel voilé, devenant progressivement blanc.

Ainsi, un réchauffeur ionosphérique, tel que HAARP, et la géo-ingénierie solaire par SAI peuvent agir en symbiose pour optimiser leurs actions respectives sur le climat. C’est pourquoi, dans la feuille de route militaire de contrôle météorologique, les pulvérisations atmosphériques de produits chimiques (principalement métalliques) sont programmées pour coïncider avec le lancement de HAARP (dans les années 90) [13].

De plus, les particules atmosphériques sont constamment stimulées par les fréquences d’autres installations envoyant des faisceaux électromagnétiques dans l’ionosphère (section 2.1.2). Par exemple, les radars au-dessus de l’horizon (OTHs) sont des radars militaires qui transmettent en continu des ondes HF (entre 3 et 30 MHz) sur des milliers de kilomètres [45]. Par conséquent, ces actions ont également une influence sur la météo et le climat.

3.3 Financements, brevets, technologies similaires

Les agences d’espionnage (CIA et autres), très intéressées par la géo-ingénierie, financent la recherche climatique dans le but de trouver une arme météorologique [92,93]. À noter que Bill Gates fait également partie des puissants bailleurs de fonds de cette technologie [94].

Parmi les dizaines de brevets expliquant de nombreuses techniques de modification du temps, plusieurs concernent la géo-ingénierie solaire par SAI, décrivant entre autres certains composants utilisés et les méthodes de diffusion [13,95,96,97].

Bien que ne faisant pas partie de la géo-ingénierie, il existe une méthode similaire et tout aussi polluante. En effet, l’épandage de sable du Sahara est une autre technologie permettant de modifier la diffusion de la lumière solaire dans la haute atmosphère [98]. Cela pourrait expliquer les épisodes (ou certains d’entre eux) de ces dernières années de retombées de poussières de sable du Sahara en France et en Espagne, qui ont obscurci le ciel et provoqué une pollution de l’air [99].

3.4 Feux de forêt

Selon le Programme des Nations Unies pour l’environnement, il existe un lien entre le changement climatique et les incendies de forêt incontrôlables et extrêmes [100]. Cependant, les nanoparticules de soufre et d’aluminium présentes dans les SAI augmentent le risque, du fait de la sécheresse, d’incendies de forêt [13,101]. Les nanoparticules d’aluminium sont également bien connues pour leur capacité pyrophorique et la forte énergie qu’elles émettent lors de la combustion [102], amplifiant ainsi le risque et la gravité des incendies de forêt. De plus, des simulations de géo-ingénierie ont montré que les SAI induisent des sécheresses [103], entraînant une augmentation de la fréquence des incendies extrêmes dans certaines régions [104].

Il semblerait que 50 % des incendies de forêt dans l’ouest des États-Unis soient provoqués par la foudre [80], mais il a également été rapporté (dans la section 2.3) que certaines technologies à énergie dirigée sont capables de déclencher et de contrôler la foudre [79,80]. Un document militaire explique que les armes à énergie dirigée (AED), composées par exemple de lasers, d’appareils à radiofréquence, de technologie de micro-ondes de haute puissance, d’ondes millimétriques et de faisceaux de particules, peuvent déclencher des incendies destructeurs, à distance. De plus, comme il est difficile de localiser la source de l’énergie dirigée, les AED sont souvent utilisées dans des opérations spéciales ou secrètes. Les auteurs de ce rapport affirment que le monde a atteint un « point de basculement » dans lequel l’énergie dirigée est désormais essentielle au succès des opérations militaires [105]. Les AED utilisant des dispositifs militaires spécifiques (avion, navire, véhicule de combat, etc.) ne relèvent pas de la science-fiction [106]. À noter que les incendies de forêt font partie des armes environnementales mises en œuvre par l’armée américaine [107].

4. CAUSES DE L’AUGMENTATION DES CATASTROPHES NATURELLES AU COURS DES 20 DERNIÈRES ANNÉES

En 2006, le Dr D. Deming (géologue et géophysicien) a témoigné devant la commission du Sénat américain sur l’environnement et les travaux publics que les médias sont extrêmement partiaux sur la question du réchauffement climatique, essayant de lier chaque catastrophe naturelle au réchauffement climatique. Cela constitue une désinformation importante à l’égard du public sur les questions climatiques et environnementales [108].

Le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) explique dans ses rapports que depuis la période 1850-1900, le climat est de plus en plus perturbé (notamment réchauffé) par un puissant facteur anthropique, les gaz à effet de serre, dont le principal représentant est le CO2 émis par la combustion des énergies fossiles. Ce réchauffement climatique augmenterait les événements météorologiques, climatiques et environnementaux extrêmes (vagues de chaleur et de froid, tempêtes, ouragans, tornades, sécheresses, inondations, incendies de forêt, pollution de l’air [aggravée par les vagues de chaleur et les incendies de forêt], etc.) [109]. Pour certains scientifiques et médias, le changement climatique pourrait également déclencher des tremblements de terre, des tsunamis et des éruptions volcaniques [110].

Cependant, l’autorité internationale du GIEC en matière de politique climatique a été acquise en supprimant les opinions dissidentes sur toute question où existe encore un désaccord scientifique [111]. De nombreuses publications montrent que les modèles climatiques du GIEC ne prennent pas en compte les cycles climatiques naturels multidécennaux, séculaires et millénaires, surestiment le réchauffement climatique (biais d’urbanisation) et, dans de nombreux cas, ne sont pas validés par le climat observé [111 112 113 114 115 116 117 118 119 120 121]. De plus, les rapports du GIEC sur les causes climatiques actuelles (le CO2 comme responsable du changement climatique) sont fortement contestés par des milliers de scientifiques [122 123 124 125 126 127 128].

Ainsi, les explications officielles de l’augmentation du nombre et de l’intensité des événements extrêmes ne sont pas satisfaisantes. Une hypothèse serait l’activité solaire. Cependant, bien qu’il existe de nombreux cycles solaires (cycle de Schwabe [cycle de taches solaires de 11 ans], cycle de Hale [22 ans], cycle de Gleissberg [~ 85 ans], cycle de José [~ 178 ans], cycle de Suess-de Vries [~208 ans], cycle de Foucault [~1000 ans], et le cycle de Bray-Hallstatt [~2300 ans]), dont les interactions sont complexes [129], et qui peuvent se superposer et influencer les oscillations terrestres naturelles [113 130 131 132], le cycle de Schwabe montre une faible activité solaire depuis le cycle 24 (2008 à 2019) (Fig. 7), et cette faible activité se poursuivra jusqu’en ~ 2050 [133 134 129]. Par conséquent, l’augmentation de la fréquence et de l’intensité d’au moins certains événements environnementaux extrêmes au cours des dernières années ne peut pas être attribuée à une augmentation de l’activité solaire.

Pour le Forum économique mondial (FEM), il est nécessaire de débloquer 3 000 milliards de dollars par an pour le climat et la nature [136]. D’énormes intérêts financiers se cachent derrière la politique climatique, ainsi que la mise en œuvre progressive de lois sur le contrôle de l’énergie [137] et la taxation du carbone dans le cadre du plan de gouvernance mondiale décrit par le WEF [138].

Étant donné que l’argumentation du GIEC sur l’augmentation des événements extrêmes au cours des dernières années manque considérablement d’objectivité, et que la gestion mondiale du climat génère d’énormes enjeux financiers, il semblerait que l’explication la plus plausible de l’augmentation des événements extrêmes (au moins certains d’entre eux) au cours des 20 dernières années ne soit pas naturelle, mais plutôt due à l’utilisation de technologies militaires de modification du climat et de l’environnement.

Fig. 7. Cycles des taches solaires selon les années. Valeurs mensuelles.
Produit à partir de : Centre de prévision météorologique spatiale [135]

5. CONCLUSION

Tout au long de cet article, nous avons vu que la littérature scientifique révèle que les techniques de manipulations météorologiques, climatiques et environnementales sont étudiées depuis plus d’un demi-siècle. Les plus puissantes de ces technologies ont toujours été destinées à un usage militaire, c’est-à-dire comme armes capables de créer l’illusion d’un événement naturel. De nombreux indices indiquent que ces armes climatiques et environnementales sont utilisées depuis plusieurs années. Certaines de ces technologies sont totalement niées par les autorités et les médias, tandis que d’autres sont utilisées avec des justifications scientifiques. Cependant, de nombreux gouvernements sont conscients de l’existence et/ou de l’utilisation de ces armes. Puisqu’ils consentent à l’activation de ces armes environnementales, cela implique non seulement que la législation sur les émissions de carbone est basée sur un mensonge climatique, mais aussi que ces gouvernements sont en partie responsables de la destruction de la faune sauvage et de la mort de plusieurs milliers d’êtres humains chaque année.

Il est urgent de mener davantage d’enquêtes, sans conflits d’intérêts, sur les causes réelles des catastrophes naturelles.

CONFLITS D’INTÉRÊTS

L’auteur a déclaré n’avoir aucun conflit d’intérêts.

RÉFÉRENCES




Sans pétrole, pas d’électricité !

[Source : contrepoints.org]

Par Michel Gay

Sans pétrole et la pétrochimie, il serait impossible de produire de l’électricité. Ce sera encore le cas dans un futur lointain.

Avant l’exploitation du pétrole et de ses dérivés (1859), la production industrielle d’électricité n’existait pas (début vers 1870),… et ne pouvait pas exister.

Aujourd’hui, sans pétrole et la pétrochimie qui en découle, il serait impossible de produire de l’électricité !

Et ce sera encore le cas dans un futur lointain.

La poule et l’œuf

La première dynamo à courant continu date de 1871, la lampe à incandescence de 1879, et les premières centrales hydroélectriques de 1880.

Tous les composants des moyens de production d’électricité et tous les appareils électriques sont fabriqués aujourd’hui à partir de produits pétrochimiques issus du pétrole (centrales électriques, éoliennes, panneaux photovoltaïques, véhicules électriques, barrages, ampoules, smartphones, cafetière, réfrigérateurs, téléviseurs, fibres synthétiques pour les vêtements, etc.).

Sans le pétrole fournissant la matière première pour la fabrication de produits pétrochimiques et de carburants, il n’y aurait pas d’informatique (ne serait-ce que les gaines électriques et les isolants des plaques électroniques), ni aucune des grandes constructions sur lesquelles repose aujourd’hui notre civilisation, car toutes nécessitent du plastique et des dérivés du pétrole.

En effet, aucune production d’électricité n’apporte, ni ne crée, le matériau de base permettant de fabriquer un produit final manufacturé !

L’électricité peut charger un smartphone, faire rouler des voitures, faire fonctionner un défibrillateur à l’hôpital, faire tourner des machines, tisser des vêtements, chauffer un radiateur, mais elle ne peut pas créer la matière de ces appareils.

Le monde continue de se concentrer sur « l’électricité », dont le stockage massif est un mirage, pour essayer de se sevrer du pétrole, mais sans pétrole il n’y aurait tout simplement pas d’électricité !

L’électricité ne peut que transformer, chauffer et déplacer des matériaux dont les constituants de base sont contenus dans le pétrole.

La réalité fondamentale est que toute production d’électricité a besoin de pétrole, et que tout ce qui a besoin d’électricité est fabriqué en partie avec des produits pétrochimiques issus du pétrole.

Productions d’électricité et produits manufacturés

Une bonne politique énergétique pour les Français (et aussi pour l’humanité) favorise la production d’électricité et de produits manufacturés.

L’objectif est de continuer à développer un monde moderne et prospère dans l’optique d’une future raréfaction inéluctable, d’abord du pétrole, puis du gaz, puis du charbon, même si les échéances sont floues et reculent avec les prospections et les progrès d’extractions.

Les politiques énergétiques devraient donc être décomposées en deux politiques :

  1. Une politique centrée sur les moyens de production d’électricité (pilotables, ou fatales et intermittentes)
  2. Une politique centrée sur la production manufacturée destinée à soutenir matériellement les besoins de l’humanité

Les matières utilisées par la société actuelle sont, pour la plupart, fabriquées à partir de produits pétrochimiques issus du pétrole (ils n’existaient pas avant les années 1900). Et aucune solution de rechange n’existe encore à ce liquide miraculeux pour répondre aux besoins concrets de la société moderne.

Il y a électricité et électricité…

Il existe deux sortes de production d’électricité :

  1. Une électricité pilotable (ou commandable) ininterrompue et directement utilisable provenant du nucléaire, de l’hydroélectricité, du charbon, du gaz naturel, et du pétrole.
  2. Une électricité occasionnelle provenant notamment d’éoliennes et de panneaux solaires fournissant une électricité aléatoire, voire intermittente, nécessitant des stockages et/ou d’autres moyens commandables en soutien.

La production occasionnelle d’électricité à partir d’éoliennes et de solaire PV, malgré le stockage des surplus dans des batteries et dans quelques barrages trop peu nombreux pour lisser la production, ne répondra jamais aux besoins d’une société moderne.

L’électricité occasionnelle (fatale, aléatoire et/ou intermittente) peut éventuellement être acceptable pour la cafetière, le grille-pain, les machines à laver et d’autres objets accessoires, y compris certains véhicules électriques (voitures, vélos, trottinettes…).

Mais les hôpitaux, les communications, les transports (trains, métro, tramways…), internet, les ascenseurs, les feux de circulation, fonderies, etc. nécessitent une électricité stable ininterrompue dont la puissance fournie doit correspondre au besoin.

Pas de pétrole, pas d’électricité !

Se débarrasser du pétrole (volontairement ou s’il venait à manquer) supprimera rapidement l’électricité et débarrassera en même temps le monde de tous les produits manufacturés qui existent aujourd’hui, y compris les éoliennes, les panneaux solaires, les centrales électriques, les véhicules, etc.

L’absence de pétrole, et donc en même temps d’électricité, ramènera à la société « zéro émission » des années 1800…, alors très polluées par le charbon et le bois de chauffage dont l’utilisation grandissante, à l’époque, commençait à anéantir les forêts françaises et européennes !

L’avenir repose, paraît-il, sur l’électricité pour succéder à la combustion des énergies fossiles (charbon, gaz et pétrole) pour se chauffer, se déplacer et faire fonctionner une société moderne.

Dans ce cas, il serait vraiment judicieux de ne pas perdre de vue que les deux précieuses ressources à économiser sont l’uranium 235 (puis le plutonium) pour chauffer l’eau qui produira massivement cette électricité dans des turbines, et… le pétrole dont les dérivés composent les machines qui produiront et utiliseront l’électricité !

Pas de pétrole, pas d’électricité !




Le bioterrorisme, ça n’existe pas (jusqu’à preuve du contraire)

[Source : neosante.eu via santeglobale.world]

Par Yves Rasir

Dans son infolettre du 15 novembre, mon amie, compatriote, collaboratrice et excellente consœur Senta Depuydt a publié une interview détonante du Dr Heiko Schöning. Ce vaillant médecin allemand s’est illustré en 2020 en dénonçant d’emblée une mascarade préméditée et en co-fondant la World Doctors Alliance, coalition d’opposants médicaux et scientifiques aux délires covidistes. C’est ce collectif qui a notamment fait venir Robert Kennedy Jr à Berlin, où le futur candidat-président américain a prononcé un discours mémorable devant une véritable marée humaine. Ce que beaucoup ignorent, c’est que Heiko Schöning avait anticipé dès 2018 ce qui allait se passer deux ans plus tard. Dans une interview télévisée, l’ancien médecin militaire prévoyait qu’une fausse urgence sanitaire allait bientôt servir de prétexte à des mesures totalitaires et que cette pseudo-pandémie imminente serait mise à profit pour tendre un traquenard vaccinal à la planète entière. Dans un livre non traduit en français, il avance que cette machination remonte à 2001 et qu’elle associe la CIA, le département US de la Défense et une brochette de firmes pharmaceutiques généreusement financées par le gouvernement américain. Fin 2023, voilà le fin limier de retour avec un deuxième ouvrage d’investigation intitulé en allemand « Angriff aufs mikrobiom » (« Attaque sur le microbiome »). Selon ce nouvel opus, les mêmes acteurs étasuniens fomenteraient cette fois une grande alerte de nature bactérienne et se présenteraient en sauveurs du monde en fournissant les seuls antibiotiques aptes à enrayer le fléau. Le but étant à nouveau de faire avancer l’agenda globaliste de contrôle social, de concentrer le pouvoir dans quelques mains et d’administrer à l’ensemble de la population mondiale un faux remède pire que le mal, ciblant cette fois la flore intestinale. Scénario noir et prémonitoire ? Vu son pédigrée, je ne doute pas de la sincérité et de la perspicacité d’Heiko Schöning. Ce qu’il ose prédire pourrait fort bien advenir prochainement. La « crise Covid » a montré que la stratégie du choc et la manipulation des foules par la peur fonctionnaient à merveille. En revanche, son raisonnement prédictif me semble fondé sur une faille de taille, celle de croire au risque bioterroriste et à la réalité d’une menace bactériologique.

La vie n’est pas une arme

Contrairement à la majeure partie de la résistance, Néosanté n’a jamais adhéré à la thèse du coronavirus trafiqué en laboratoire, doté de « gains de fonction » pour en étudier la virulence et accidentellement relâché dans la nature. Nous croyons encore moins que la présumée particule virale ait pu être manipulée à des fins militaires et diffusée intentionnellement en tant qu’arme de guerre. Nous avons exprimé ce « laboscepticisme » à travers plusieurs infolettres, notamment celle-ci et celle-là. Et nous avons plus d’une fois renvoyé aux vidéos du Dr Sam Bailey, souriante pourfendeuse de ce qu’elle appelle malicieusement un conte de fées. Comme le potentiel pathogène d’aucun virus n’a jamais été démontré scientifiquement, on ne voit pas très bien comment des chercheurs, fussent-ils imprudents ou mal intentionnés, auraient pu conférer une quelconque toxicité au virus couronné. Il est d’ailleurs formellement établi que c’est la psychose qui a occasionné de la surmortalité, et non la prétendue virose. Les virus tueurs évadés de labos, ça n’existe qu’au cinéma et dans l’imagination de certains auteurs avides de notoriété et se faisant passer pour des spécialistes en « bioterrorisme ». Les bactéries ? Si leur existence est avérée et si leur prolifération dans un corps humain peut représenter un danger, rien ne permet d’affirmer non plus leur pathogénicité. A fortiori, il n’existe pas de preuve qu’un germe bactérien puisse être « militarisé » et employé comme arme létale. J’ai beau me documenter sur le sujet, je n’ai pas encore trouvé d’élément prouvant indubitablement qu’un micro-organisme quelconque pouvait servir à détruire des vies à grande ou même à petite échelle. On peut certes trouver des textes et quelques études traitant du bioterrorisme et de l’armement bactériologique. Mais en les lisant avec un œil critique, on sera bien en peine d’y dénicher la moindre évidence scientifique. Pour illustrer l’absence de preuve solide, je vais partir de ce « bref historique » paru dans une revue sérieuse et y pointer trois épisodes censés accréditer le grand péril infectieux.

Les suppositions de Pasteur

La fable de la vie microbienne donnant la mort remonte bien sûr au sieur Louis Pasteur. Si l’on excepte les tentatives antérieures de décimer un ennemi en lui balançant des cadavres ou des vêtements de pestiférés et la suggestion épistolaire d’exterminer les Amérindiens par la variole, c’est en effet au célèbre chimiste que revient la « géniale » idée de provoquer artificiellement une maladie épidémique. Comme le raconte l’article, Pasteur avait le projet ambitieux de débarrasser l’Australie de ses lapins prolifiques en répandant le choléra des poules. C’eût été une vaste expérience convaincante en cas de résultat concluant, mais elle ne s’est jamais concrétisée. En lieu et place, le grand fraudeur que la France vénère a été sollicité par une admiratrice viticultrice en Champagne pour protéger ses caves des terriers les surplombant. Des cadavres de lapins ont bien été retrouvés sur le sol du clos les jours suivants, l’assistant du savant a estimé que l’essai était magistralement réussi, mais on chercherait en vain la moindre rigueur méthodologique dans cette amorce de lutte biologique. Sur le même modèle, mais plus méthodiquement, l’expérience a été reproduite en 1946 dans les vignobles de l’Héraut. L’article nous dit que les lapins inoculés sont décédés — on est prié de le croire sans le moyen de vérifier — mais qu’il n’y a pas eu d’épizootie. Tu m’étonnes, Simone ! C’est toujours comme ça en réalité : les expérimentateurs parviennent à faire mourir les animaux qui passent entre leurs mains, mais échouent à leur faire transmettre la maladie. L’auteur appelle ça des « résultats inégaux », façon de camoufler l’absence totale de preuve qu’un microbe introduit dans la nature puisse y provoquer une épidémie. Depuis Pasteur et ses suppositions gratuites, on attend toujours la démonstration que l’introduction d’un « pathogène » dans l’environnement débouche sur une hécatombe animale ou humaine. Comme toute religion, la patascience pasteurienne s’appuie essentiellement sur les dogmes édictés par le fondateur.

Les vaines cruautés japonaises

Dans ce « bref historique », on nous sert aussi les fameuses et abominables expériences de l’armée japonaise dans les années 30 et 40. C’est un sombre épisode que mentionne également souvent le très pasteurien Christian Perronne pour agiter l’épouvantail des bactéries tueuses. Comme le raconte feu Henri-Hubert Mollaret, chercheur à l’Institut Pasteur de Paris, le Japon a effectivement tenté d’utiliser l’arme bactériologique durant sa guerre contre la Chine. Ne possédant pas la technologie nucléaire ni l’expertise en armement chimique, l’Empire nippon a beaucoup misé sur la microbiologie pour se doter d’une arme de destruction massive à base de bactéries. Sur les prisonniers chinois, l’armée impériale s’est livrée à d’atroces essais scientifiques à côté desquelles les expérimentations du Dr Mengele passent pour de gentilles activités philanthropiques. Durant les dernières années du conflit, l’aviation japonaise a même tenté de provoquer des épidémies de peste dans plusieurs villes chinoises en larguant des bombes bourrées de bacilles ou de puces infectées. Ce sont des faits historiques que personne ne nie. Mais qui peut affirmer que ces tentatives macabres ont été couronnées de succès ? Si vous avez le cœur bien accroché et si vous prenez la peine de lire attentivement ce dossier publié par la Fondation Auschwitz, vous constaterez par vous-mêmes que les indices de réussite de la sinistre Unité 731 sont extrêmement ténus. Outre que les aveux de ses responsables ont été obtenus lors d’un procès stalinien clairement inéquitable, il apparaît que ni les tortures « bactériennes » sur les cobayes humains ni les épandages aériens ou les empoisonnements de rivière par des agents bactériens ne semblent avoir répondu aux attentes. Lorsqu’ils ont réussi à faire mourir des individus, les chercheurs sadiques les ont également grièvement blessés ou préalablement affaiblis par des traitements inhumains, ce qui ne permet pas de conclure à la responsabilité du germe. Et quand ils ont prétendument « contaminé » des populations entières, l’hécatombe voulue n’était visiblement pas au rendez-vous. Les quelques succès revendiqués reposent sur des rumeurs ou sur les déclarations invérifiées des accusés lors de ce procès truqué au profit de la propagande soviétique. Rien de scientifiquement consistant là-dedans ! Dans son article, Mollaret mentionne d’ailleurs les accusations d’attaques biologiques lancées quelques années plus tard à l’égard de l’armée américaine engagée en Chine et en Corée. Or on sait aujourd’hui qu’il s’agissait aussi d’une opération de désinformation ourdie par l’URSS pour salir l’ennemi américain et victimiser ses alliés nord-coréens. Encore une fois, rien ne permet de dire que des microbes militarisés ont déjà permis de tuer ou rendre malade qui que ce soit.

La douteuse épidémie de Sverdlovsk

La CIA aurait-elle imité le KGB dans l’art de diaboliser l’adversaire ? Le mythe du bioterrorisme repose en tout cas sur un autre événement majeur censé convaincre de sa réalité, la ténébreuse « affaire de Sverdlovsk ». Puisque le « bref historique » n’y fait que brièvement allusion, je vous invite à lire cette page Wikipédia pour savoir de quoi il s’agit. Selon le récit officiel actuel, une fuite accidentelle du bacille du charbon se serait produite en 1979 dans un complexe militaro-industriel proche de Ekaterinbourg, l’ancien et nouveau nom de Sverdlovsk. D’après ce narratif toujours, les spores de l’anthrax se seraient répandues dans l’air et auraient fait une centaine de morts dans le voisinage de l’usine. Le conditionnel s’impose, car les autorités soviétiques ont d’abord expliqué cette mini-épidémie par la consommation de viande avariée, une version corroborée en 1986 par le Pr Matthew Meselson, enseignant-chercheur à Harvard et autorisé à venir enquêter chez les Soviets. C’est seulement en 1992 que la version américaine de l’incident a prévalu, lorsque le président russe Boris Eltsine a reconnu « la véritable nature de l’épidémie ». Véritable, vraiment ? Souvenons-nous qu’à cette époque, les États-Unis orchestrent secrètement l’effondrement de l’ex-URSS et que le président russe, ivrogne notoire et dirigeant calamiteux, ne fait rien pour freiner ce dessein. Ce qui est interprété comme un signe de transparence de la Russie pourrait au contraire être une opération d’enfumage made in USA. N’est-il pas curieux que le Pr Meselson ait mangé son chapeau et retourné sa veste à la suite de la « mission d’investigation » occidentale ? Est-il anodin que cette équipée scientifique ait été diligentée par l’Oncle Sam et non par un organisme international impartial ? Et est-il surprenant que la thèse du nuage contaminé l’ait emporté sur la thèse de l’intoxication alimentaire sur base de tests PCR, comme nous le révèle cet article ? Avec cette technique génomique — le Corona Circus nous l’a assez montré — on peut trouver la trace de n’importe quelle molécule chez n’importe qui, il suffit de régler les machines pour qu’il en soit ainsi. Pour ma part, je demeure donc très sceptique sur cette ténébreuse affaire de Sverdlovsk et sur le rôle causal attribué à Bacillus Anthracis. S’il est certain qu’on a cherché des deux côtés du rideau de fer à se doter de l’arme bactériologique, les preuves de sa mise au point effective sont pour le moins légères. À propos de l’anthrax, ce sont évidemment les « attaques » de 2001 aux USA qui ont relancé la hantise du risque bioterroriste. Les quelques enveloppes piégées ont suffi à ranimer le spectre d’un fléau bactérien dévastateur. Et c’est précisément sur cet événement troublant que Heiko Schöning s’appuie pour prophétiser une nouvelle plandémie avec comme actrice principale une bactérie dangereuse. J’y reviendrai dans un prochain billet, car je ne vois pas du tout en quoi cet épisode risible confirmerait la théorie du germe pathogène. Jusqu’à preuve sérieuse du contraire, l’arme biologique n’existe pas et n’est pas près d’exister.

Yves Rasir

Note de TAL : J’abonde dans le sens d’Yves RASIR ! La preuve que les microorganismes (virus ou bactéries) sont la cause des maladies n’a jamais pu être apportée malgré d’innombrables tentatives d’infecter des gens avec des produits absorbés ou injectés. Tout ce qu’on raconte sur la contagion est FAUX, ARCHI-FAUX ! Ainsi dans un livre publié en 1910 un médecin a étudié la peste qui est, selon la croyance dominante, causée par une bactérie…Il a pu démontrer que ce  sont les conditions de vie déplorables qui permettent à la peste de survenir, pas le bacille qui n’est que la conséquence ! La maladie est toujours un effort du corps pour se dépolluer et se guérir et les micro-organismes sont des AIDES, des ALLIES ! Le château de cartes de la virologie officielle s’effondre, comme le montre avec précision le livre VIRUS MANIA

qui est un vrai chef d’œuvre de science avec conscience !

[Voir aussi :
Épidémies et contagions
Le mythe de la contagion virale — Pourquoi les virus (incluant les « coronavirus ») ne sont pas la cause des maladies
Faut-il encore croire aux viru$, à la contagion et aux pand€mi€s ?
La Fin de la Théorie des Germes — Documentaire
Expliquer l’effet nocebo, la contagion émotionnelle et l’hystérie collective]




L’impact des ondes sur la santé

[Source : maisonsaine.ca]

[Illustration : source]

    Par Dre Martha Herbert

    Si quelqu’un m’avait demandé il y a près de 20 ans, lorsque j’ai commencé à travailler dans la recherche sur l’autisme et à voir des patients atteints d’autisme, si les champs électromagnétiques (CEM) domestiques ou les rayonnements de radiofréquence (RF) du sans-fil avaient quelque chose à voir avec l’autisme, je n’aurais eu aucune idée de ce dont il parlait. À l’époque, j’étais déjà accro aux ordinateurs et au courrier électronique. Mais le Web était nouveau et nous n’utilisions pas de téléphones portables, donc il n’y avait pas d’antennes relais. J’avais un four à micro-ondes et l’utilisais pour chauffer ma nourriture avec seulement les préoccupations les plus vagues.

    Il n’y avait donc pas tellement de Wi-Fi et pas tellement d’autisme non plus — une coïncidence ? Beaucoup d’autres choses ont changé depuis1, et il y avait déjà beaucoup d’électricité2, mais en tout état de cause, je n’avais pratiquement pas vu de patients autistes pendant ma formation au début des années 1990. À l’époque, on enseignait que l’autisme et les autres troubles neurodéveloppementaux ou neuropsychiatriques de l’enfance étaient causés par des perturbations génétiques précoces du développement cérébral3.

    Beaucoup de choses se sont passées pour m’amener au point où j’ai coécrit un article de 40 000 mots avec 560 références scientifiques soutenant la plausibilité d’un lien entre l’autisme et les CEM, et une version révisée a été publiée en 2013 dans la revue Pathophysiology4.

    Au fil des ans, j’ai beaucoup appris en observant et en écoutant attentivement mes patients. J’ai constaté de grandes divergences entre ce que l’on m’avait appris à surveiller dans mes recherches sur le cerveau et ce que je trouvais réellement dans les données. J’ai commencé à découvrir de plus en plus de façons dont l’environnement et l’alimentation pouvaient affecter le cerveau et le corps. Et j’ai vu le nombre d’enfants autistes monter en flèche, alors que c’était censé être purement génétique et héréditaire.5-7

    L’écoute de mes patients m’a beaucoup aidé à changer ma façon de penser. Ma formation en neurologie pédiatrique ne m’avait pas vraiment préparée aux problèmes que présentaient mes patients. Ma pratique clinique a débuté en 1996, dans un cabinet de neuropsychiatrie. Au fur et à mesure que mon cabinet se remplissait d’enfants atteints d’autisme, de TDAH [trouble du déficit de l’attention avec ou sans hyperactivité], de TOC [troubles obsessionnels compulsifs], de difficultés scolaires et de crises d’épilepsie, je les soumettais parfois à des recherches élaborées de causes génétiques et métaboliques, comme j’avais été formé à le faire, mais je trouvais rarement quelque chose à redire. En écoutant leurs histoires, j’ai été intriguée par les problèmes banals que partageaient tant de patients qui, par ailleurs, étaient différents les uns des autres. Ces enfants n’étaient tout simplement pas en bonne santé. Ils souffraient de diarrhée, de constipation ou d’éruptions cutanées. Ils avaient des maux de tête. Ils ne pouvaient pas dormir. Ils se tortillaient beaucoup sur leur chaise. Ils souffraient d’allergies alimentaires. Ils mangeaient quelques aliments et en refusaient beaucoup d’autres. Ils détestaient certaines textures ou sensations. Je devais travailler très dur, reformuler et répéter souvent pour qu’ils suivent mes instructions lorsque je les examinais. Tous ces problèmes se posaient à la plupart de mes patients, et pas seulement à ceux qui étaient atteints d’autisme. Et mon cabinet se remplissait de ces enfants malades et instables.

    En chevauchant les mondes de la recherche sur le cerveau, de la neurotoxicologie environnementale et des soins médicaux de terrain, je me suis rendu compte que je ne pouvais plus me contenter des questions que les gens posaient dans un seul et même domaine. Il ne suffisait pas de se demander en quoi le cerveau des personnes atteintes d’autisme ou d’autres troubles neuropsychiatriques pouvait différer de celui des personnes « normales », ou quelles toxines présentes dans l’environnement pouvaient être à l’origine de l’autisme. Pour moi, ces questions ne m’aidaient pas directement à améliorer le sort de mes patients. En fait, certains de mes patients et de ceux de mes amis allaient mieux, S’AMÉLIORAIENT — mais COMMENT changions-nous l’« autisme » du cerveau s’il n’était pas censé être modifiable ?

    Au fil du temps, j’ai rassemblé de plus en plus de preuves à l’appui de l’idée que l’autisme n’est pas un « cerveau brisé », mais un cerveau qui a du mal à s’autoréguler. Cela m’a amené à chercher non pas ce qui cause l’autisme, mais COMMENT l’autisme est causé, et comment on peut l’éliminer.8-11

    Quels sont donc les éléments qui peuvent dérégler le cerveau ? Eh bien, beaucoup de choses.12 Comme un sommeil perturbé ou l’insomnie. Comme l’exposition aux pesticides et aux émissions des automobiles ou des produits ménagers, aux colles et à d’autres produits chimiques. Un régime alimentaire pauvre en zinc, en magnésium ou en d’autres nutriments vitaux, ou trop riche en sucre, en additifs ou en autres cochonneries. Comme avoir un intestin tellement irrité ou enflammé que vous n’absorbez pas bien les nutriments. Comme avoir des allergies.

    Un cerveau déréglé peut ou non présenter des changements dans son anatomie — d’après ce que l’on voit sur une image de résonance magnétique du cerveau. Il peut ne pas présenter d’ondes cérébrales suffisamment anormales pour constituer des crises d’épilepsie si l’on procède à une étude des ondes cérébrales par électroencéphalogramme. Mais en procédant à un examen plus subtil, les chercheurs qui étudient la FONCTION du cerveau dans le trouble du spectre de l’autisme constatent que les différentes parties du cerveau ne sont pas aussi bien coordonnées entre elles que chez les enfants au développement plus typique.13-15

    C’est là où les champs électromagnétiques et les radiofréquences sont entrés en jeu pour moi. Les ondes cérébrales que le cerveau utilise pour communiquer à l’intérieur de lui-même sont électriques ou électromagnétiques. Il en va de même pour les CEM/RF. Étant donné la prolifération des appareils qui émettent des radiofréquences (tours de téléphonie cellulaire, téléphones portables, téléphones sans fil numériques ou DECT, routeurs Wi-Fi, etc.), nous nous promenons dans une soupe invisible de signaux électromagnétiques sans vraiment savoir si nous ne compliquons pas ou n’embrouillons pas les processus de communication dans notre cerveau.

    Cela peut sembler un peu tiré par les cheveux, mais ce n’est pas tout. Tout d’abord, le cerveau n’est pas le seul à utiliser des signaux électromagnétiques. Plus nos instruments de mesure scientifiques deviennent sensibles, plus nous apprenons que chaque cellule de notre corps utilise des signaux électromagnétiques — de nombreux processus cellulaires, et même l’ADN, impliquent des propriétés électromagnétiques qui changent de manière significative. La principale différence avec le cerveau est qu’il porte cette activité électromagnétique à un niveau d’organisation éblouissant et complexe.16

    À l’école, nous étudions la biologie, la chimie et la physique (y compris l’électromagnétisme) comme des matières distinctes, mais en réalité, notre corps biologique et notre cerveau fonctionnent grâce à des processus qui sont à la fois chimiques et électriques. Les ions chimiques créent des différences de tension électrique à travers les membranes cellulaires, par exemple, qui nous maintiennent en vie. On a récemment découvert que les personnes présentant une faible différence de tension entre l’intérieur et l’extérieur d’une membrane sont plus vulnérables au cancer. Or, si l’on augmente la différence de tension entre l’intérieur et l’extérieur de la cellule, la vulnérabilité diminue et le cancer peut s’améliorer17.

    Nos fonctions biologiques vitales découlent d’innombrables interactions chimiques et électriques, et pour que nous soyons au mieux de notre forme, elles doivent être optimisées. Je pense qu’il y a suffisamment de preuves scientifiques pour affirmer que les CEM/RF sont des facteurs importants qui contribuent à dégrader la fonction chimico-électrique optimale de notre corps, déréglant ainsi notre cerveau et notre système nerveux.18

    Comment les CEM/RF peuvent-ils agir de la sorte ? Les problèmes que j’énumère ci-dessous sont parallèles à ceux qui ont été documentés chez les personnes atteintes de troubles du spectre de l’autisme.

    – Les CEM/RF stressent les cellules. Ils entraînent un stress cellulaire, tel que la production de protéines de choc thermique, même lorsque les CEM/RF ne sont pas suffisamment intenses pour provoquer une augmentation mesurable de la chaleur.19-21

    – Les CEM/RF endommagent les membranes cellulaires et les rendent perméables, ce qui les empêche de maintenir des différences chimiques et électriques importantes entre l’intérieur et l’extérieur de la membrane. Cela dégrade le métabolisme à bien des égards et le rend inefficace.22-30

    – Les CEM/RF endommagent les mitochondries qui sont les usines de production d’énergie des cellules. Elles conduisent leurs réactions chimiques sur leurs membranes. Lorsque ces membranes sont endommagées, les mitochondries luttent pour faire leur travail et ne le font pas efficacement. Les mitochondries peuvent aussi être endommagées par des chocs directs dans leur chaîne de montage chimique. Quand nos mitochondries deviennent inefficaces, il en est de même pour nous. Cela peut frapper notre cerveau avec une intensité particulière, puisque les communications et synapses électriques dans le cerveau requièrent une quantité énorme d’énergie.

    – Les CEM/RF créent un stress oxydatif, un phénomène qui se produit quand un système ne peut s’adapter à un stress causé par l’utilisation de l’oxygène, parce que le prix à payer est que la consommation d’oxygène génère des radicaux libres. Ceux-ci sont générés dans le cours normal des choses et ils sont habituellement neutralisés par les antioxydants comme ceux présents dans les fruits et légumes ; mais quand les antioxydants ne suivent pas le rythme ou que le dommage est trop grand, les radicaux libres commencent alors à faire des dommages.

    – Les CEM/RF sont génotoxiques et endommagent les protéines, le mécanisme le plus important étant celui des radicaux libres qu’ils génèrent et qui endommagent les membranes cellulaires, l’ADN, les protéines et tout ce qu’ils touchent. Lorsque les radicaux libres endommagent l’ADN, ils provoquent des mutations. C’est l’une des principales façons que les ondes sont génotoxiques — toxiques pour les gènes. Quand elles endommagent des protéines, elles peuvent les mener à se replier de façons particulières. Nous apprenons que des maladies comme l’Alzheimer sont liées à l’accumulation de protéines mal repliées et à l’incapacité du cerveau à éliminer ces déchets biologiques de ses tissus et de ses fluides.

    – Les CEM/RF épuisent le glutathion, le principal antioxydant et la principale substance de détoxification de l’organisme. Ainsi, d’une part, les CEM/RF créent des dommages qui augmentent le besoin d’antioxydants et, d’autre part, ils appauvrissent ces mêmes antioxydants.4,18

    – Les CEM/RF endommagent les barrières vitales de l’organisme, en particulier la barrière hématoencéphalique qui protège le cerveau des substances présentes dans le sang qui pourraient lui nuire. Lorsque la barrière hématoencéphalique présente des fuites, les cellules à l’intérieur du cerveau se détériorent, sont endommagées et tuées.4, 18, 31

    – Les CEM/RF peuvent altérer la fonction des canaux calciques, qui sont des ouvertures dans les membranes cellulaires jouant un grand nombre de rôles vitaux dans le cerveau et le corps.32-41

    – Les CEM/RF dégradent l’intégration riche et complexe des ondes cérébrales et augmentent l’entropie, ou la désorganisation, des signaux dans le cerveau, ce qui signifie qu’ils ne peuvent plus être synchronisés ou coordonnés, ce qui a été mesuré dans l’autisme.13-15, 42-51

    – Les CEM/RF peuvent perturber le sommeil et la production de mélatonine par le cerveau.52-54

    – Les CEM/RF peuvent contribuer aux problèmes immunitaires.55-61

    – Les CEM/RF contribuent à l’augmentation du stress aux niveaux chimique, immunitaire et électrique, dont nous faisons l’expérience sur le plan psychologique.31, 62-79

    Notes :

    Il y a beaucoup d’autres choses qui créent des effets de dégradation similaires, comme les milliers de substances « xénobiotiques » que nous disons toxiques.

    Notamment, les produits chimiques toxiques (dont ceux qui contiennent des éléments toxiques naturels comme le plomb et le mercure) causent des dommages par le biais de plusieurs des mécanismes susmentionnés.

    Dans de nombreuses études expérimentales sur les CEM, les dommages ont pu être réduits en améliorant l’état des nutriments, en particulier en ajoutant des antioxydants et de la mélatonine.80-83

    Nous vivons dans un monde plein de nouvelles substances et de combinaisons et intensités de fréquences électromagnétiques inexistantes dans la nature, dont plusieurs endommagent nos cellules, nos tissus et processus vivants de manières similaires. Il m’est donc difficile de croire que les CEM/RF sont les SEULS contributeurs à l’autisme et autres problèmes neuropsychiatriques et de santé. D’un autre côté, leur impact pourrait être significatif — et nous pouvons faire beaucoup pour réduire l’exposition et, par conséquent, cet impact.84

    Nous avons à peine commencé à explorer l’impact des ondes sur les fœtus et les bébés, mais cela ne s’annonce pas bien. Le développement du fœtus ou du jeune enfant est engagé dans un ensemble incroyable de processus dynamiques très vulnérables, où même de petits changements peuvent avoir des conséquences à vie. Et pourtant, combien de personnes mettent des moniteurs sans-fil juste à côté de la tête de leur bébé, sans se rendre compte de la dégradation potentielle qu’elles peuvent infliger au cerveau de leur enfant ?85 Combien de femmes enceintes branchent leur ordinateur portable et les mettent sur leurs cuisses et exposent ainsi leur fœtus aux rayonnements CEM/RF ?86 Combien d’hommes mettent-ils leur cellulaire dans la poche de leur pantalon alors qu’il a été démontré que cela dégrade le nombre de spermatozoïdes et entraîne des mutations ?87-92

    Plus j’en sais sur la biologie sous-jacente de l’autisme et de nombreuses autres maladies chroniques neuropsychiatriques et médicales, moins j’accorde d’importance aux étiquettes que nous apposons sur des maladies spécifiques. Du point de vue de la protection des personnes et de l’aide à leur guérison, je ne me soucie pas tellement de savoir s’il s’agit d’autisme, de TDAH, de TOC ou de toute autre étiquette que vous pourriez choisir, car sous la surface je vois plus de chevauchements que de différences entre ces conditions. Je pense que nous pouvons faire la différence en nous attaquant à la FONCTION de nos corps et de nos cerveaux, en :

    – réduisant les expositions nocives autant que possible, afin d’éviter la dégradation de nos fonctions corporelles et de prévenir la désynchronisation de notre système nerveux, et en

    – maximisant la qualité de notre alimentation grâce à une diète à haute densité de nutriments afin que notre corps ait tout ce qu’il lui faut pour se protéger et fonctionner au mieux.

    Entre-temps, étant donné tout ce que nous avons déjà appris sur les subtils impacts biologiques, cellulaires et électriques des CEM/RF, nous devons mettre à jour nos réglementations obsolètes pour tenir compte de l’extrême vulnérabilité que nous connaissons aujourd’hui. Et nous devons rechercher des moyens plus sûrs de répondre à nos besoins en matière d’appareils de communication et d’autres appareils générant des CEM/RF. Ce n’est pas parce que ces ondes sont invisibles qu’elles sont sans danger. Nous devons admettre que nous avons un problème et faire quelque chose pour le résoudre.

    Cet article est une traduction de la version anglaise originale, parue en mai 2015 dans le magazine Autism Notebook https://health.maryland.gov/phpa/OEHFP/EH/Shared%20Documents/CEHPAC/Dr.%20Herbert%20Autism%20and%20EMF%20The%20Autism%20NoteBook%20April-May%202015.pdf

    Références : https://www.electrosmog.be/doc/sc/enfants/Dr-Martha-R-Herbert_EMF-and-autism_2015.pdf

    Site de l’auteure : http://drmarthaherbert.com

    Dre Martha Herbert

    Dre Martha Herbert est une professeur adjointe de neurologie à l’École de médecine de l’Université Harvard, une neurologue pédiatrique au Massachusetts General Hospital à Boston, et une affiliée au Centre Martinos Harvard-MIT-MGH pour l’imagerie biomédicale, où elle est directrice du programme de recherche TRANSCEND (Recherche de traitement et d’évaluation neuroscientifique des troubles neurodéveloppementaux).
    L’approche de Dre Herbert en matière de traitement de l’autisme consiste à identifier méthodiquement les problèmes de chaque enfant et à y répondre en optimisant la nutrition, en réduisant l’exposition aux substances toxiques, en soutenant le système immunitaire, en réduisant le stress et en stimulant la créativité.
    Elle est l’auteure du livre La révolution de l’autisme : Whole Body Strategies for Making Life All it Can Be (http://www.AutismRevolution.org/et http://www.autismWHYandHOW.org) et codirectrice du BodyBrain Resilience Center (www.bodybrainresiliene.com), un organisme de recherche et pratique clinique appliquant les principes décrits dans son livre.
    Les recherches de la Dre Herbert peuvent être consultées à l’adresse www.transcenaresearch.org — https://transcend.mgh.harvard.edu/ et www.marthaherbert.org [ou https://drmarthaherbert.com/]


    References

    1. Herbert M. Time to Get a Grip. Autism Advocate 2006;45:19­26 (available on www.marthaherbert.org under
      publications).
    2. Milham S. Dirty Electricity: Electrification and the Diseases of Civilization: iuniverse.com; 2010.
    3. Rapin I, Katzman R. Neurobiology of autism. Ann Neurol 1998;43:7­14.
    4. Herbert MR, Sage C. Autism and EMF? Plausibility of a Pathophysiological Link, Parts I and II. Pathophysiology In
      press.
    5. Hertz­Picciotto I, Delwiche L. The rise in autism and the role of age at diagnosis. Epidemiology 2009;20:84­90.
    6. King M, Bearman P. Diagnostic change and the increased prevalence of autism. Int J Epidemiol 2009;38:1224­34.
    7. Grether JK, Rosen NJ, Smith KS, Croen LA. Investigation of shifts in autism reporting in the California Department of
      Developmental Services. J Autism Dev Disord 2009;39:1412­9.
    8. Herbert MR, Weintraub K. The Autism Revolution: Whole Body Strategies for Making Life All It Can Be. New York, NY:
      Random House with Harvard Health Publications; 2012.
    9. Autism WHY and HOW. 2012. at www.autismWHYandHOW.org.)
    10. Herbert MR. Autism: The centrality of active pathophysiology and the shift from static to chronic dynamic
      encephalopathy: Taylor & Francis / CRC Press; 2009.
    11. Herbert M. Autism: From Static Genetic Brain Defect to Dynamic Gene‐Environment Modulated Pathophysiology. In:
      Krimsky S, Gruber J, eds. Genetic Explanations: Sense and Nonsense. Cambridge, MA: Harvard University Press;
      2013:122­46.
    12. Herbert MR. Contributions of the environment and environmentally vulnerable physiology to autism spectrum
      disorders. Curr Opin Neurol 2010;23:103­10.
    13. Just MA, Cherkassky VL, Keller TA, Minshew NJ. Cortical activation and synchronization during sentence
      comprehension in high­functioning autism: evidence of underconnectivity. Brain 2004;127:1811­21.
    14. Muller RA, Shih P, Keehn B, Deyoe JR, Leyden KM, Shukla DK. Underconnected, but how? A survey of functional
      connectivity MRI studies in autism spectrum disorders. Cereb Cortex 2011;21:2233­43.
    15. Wass S. Distortions and disconnections: disrupted brain connectivity in autism. Brain Cogn 2011;75:18­28.
    16. Buzsaki G. Rhythms of the Brain. New York: Oxford University Press; 2006.
    17. Lobikin M, Chernet B, Lobo D, Levin M. Resting potential, oncogene­induced tumorigenesis, and metastasis: the
      bioelectric basis of cancer in vivo. Phys Biol 2012;epub:epub.
    18. Herbert MR, Sage C. Findings in Autism Spectrum Disorders consistent with Electromagnetic Frequencies (EMF) and
      Radiofrequency Radiation (RFR). In: Sage C, Carpenter DO, eds. BioInitiative Update: www.BioInitiative.org; 2012.
    19. Blank M, ed. Electromagnetic Fields2009.
    20. Blank M. Evidence for Stress Response (Stress Proteins) (Section 7)2012.
    21. Evers M, Cunningham­Rundles C, Hollander E. Heat shock protein 90 antibodies in autism. Mol Psychiatry 2002;7
      Suppl 2:S26­8.
    22. Desai NR, Kesari KK, Agarwal A. Pathophysiology of cell phone radiation: oxidative stress and carcinogenesis with
      focus on male reproductive system. Reprod Biol Endocrinol 2009;7:114.
    23. Phelan AM, Lange DG, Kues HA, Lutty GA. Modification of membrane fluidity in melanin­containing cells by low­level
      microwave radiation. Bioelectromagnetics 1992;13:131­46.
    24. Beneduci A, Filippelli L, Cosentino K, Calabrese ML, Massa R, Chidichimo G. Microwave induced shift of the main
      phase transition in phosphatidylcholine membranes. Bioelectrochemistry 2012;84:18­24.
    25. El­Ansary A, Al­Ayadhi L. Lipid mediators in plasma of autism spectrum disorders. Lipids Health Dis 2012;11:160.
    26. El­Ansary AK, Bacha AG, Al­Ayahdi LY. Plasma fatty acids as diagnostic markers in autistic patients from Saudi
      Arabia. Lipids Health Dis 2011;10:62.
    27. Chauhan A, Chauhan V, Brown WT, Cohen I. Oxidative stress in autism: increased lipid peroxidation and reduced
      serum levels of ceruloplasmin and transferrin­­the antioxidant proteins. Life Sci 2004;75:2539­49.
    28. Pecorelli A, Leoncini S, De Felice C, et al. Non­protein­bound iron and 4­hydroxynonenal protein adducts in classic
      autism. Brain Dev 2012:epub.
    29. Ming X, Stein TP, Brimacombe M, Johnson WG, Lambert GH, Wagner GC. Increased excretion of a lipid peroxidation
      biomarker in autism. Prostaglandins Leukot Essent Fatty Acids 2005;73:379­84.
    30. Yao Y, Walsh WJ, McGinnis WR, Pratico D. Altered vascular phenotype in autism: correlation with oxidative stress.
      Arch Neurol 2006;63:1161­4.
    31. Salford LG, Nittby H, Persson BR. Effects of EMF from Wireless Communication Upon the Blood­Brain Barrier2012.
    32. Pall ML. Electromagnetic fields act via activation of voltage­gated calcium channels to produce beneficial or adverse
      effects. J Cell Mol Med 2013.
    33. Nesin V, Bowman AM, Xiao S, Pakhomov AG. Cell permeabilization and inhibition of voltage­gated Ca(2+) and Na(+)
      channel currents by nanosecond pulsed electric field. Bioelectromagnetics 2012;33:394­404.
    34. Maskey D, Kim HJ, Kim HG, Kim MJ. Calcium­binding proteins and GFAP immunoreactivity alterations in murine
      hippocampus after 1 month of exposure to 835 MHz radiofrequency at SAR values of 1.6 and 4.0 W/kg. Neurosci Lett
      2012;506:292­6.
    35. Maskey D, Kim M, Aryal B, et al. Effect of 835 MHz radiofrequency radiation exposure on calcium binding proteins in
      the hippocampus of the mouse brain. Brain Res 2010;1313:232­41.
    36. Kittel A, Siklos L, Thuroczy G, Somosy Z. Qualitative enzyme histochemistry and microanalysis reveals changes in
      ultrastructural distribution of calcium and calcium­activated ATPases after microwave irradiation of the medial
      habenula. Acta Neuropathol 1996;92:362­8.
    37. Dutta SK, Das K, Ghosh B, Blackman CF. Dose dependence of acetylcholinesterase activity in neuroblastoma cells
      exposed to modulated radio­frequency electromagnetic radiation. Bioelectromagnetics 1992;13:317­22.
    38. Palmieri L, Persico AM. Mitochondrial dysfunction in autism spectrum disorders: cause or effect? Biochim Biophys
      Acta 2010;1797:1130­7.
    39. Peng TI, Jou MJ. Oxidative stress caused by mitochondrial calcium overload. Ann N Y Acad Sci 2010;1201:183­8.
    40. Pessah IN, Lein PJ. Evidence for Environmental Susceptibility in Autism: What We Need to Know About Gene x
      Environment Interactions: Humana; 2008.
    41. Stamou M, Streifel KM, Goines PE, Lein PJ. Neuronal connectivity as a convergent target of gene­environment
      interactions that confer risk for Autism Spectrum Disorders. Neurotoxicol Teratol 2012.
    42. Bachmann M, Lass J, Kalda J, et al. Integration of differences in EEG analysis reveals changes in human EEG caused
      by microwave. Conf Proc IEEE Eng Med Biol Soc 2006;1:1597­600.
    43. Marino AA, Nilsen E, Frilot C. Nonlinear changes in brain electrical activity due to cell phone radiation.
      Bioelectromagnetics 2003;24:339­46.
    44. Marino AA, Carrubba S. The effects of mobile­phone electromagnetic fields on brain electrical activity: a critical
      analysis of the literature. Electromagn Biol Med 2009;28:250­74.
    45. Vecchio F, Babiloni C, Ferreri F, et al. Mobile phone emission modulates interhemispheric functional coupling of EEG
      alpha rhythms. Eur J Neurosci 2007;25:1908­13.
    46. Hountala CD, Maganioti AE, Papageorgiou CC, et al. The spectral power coherence of the EEG under different EMF
      conditions. Neurosci Lett 2008;441:188­92.
    47. Duffy FH, Als H. A stable pattern of EEG spectral coherence distinguishes children with autism from neuro­typical
      controls ­ a large case control study. BMC Med 2012;10:64.
    48. Isler JR, Martien KM, Grieve PG, Stark RI, Herbert MR. Reduced functional connectivity in visual evoked potentials in
      children with autism spectrum disorder. Clin Neurophysiol 2010.
    49. Murias M, Swanson JM, Srinivasan R. Functional connectivity of frontal cortex in healthy and ADHD children reflected
      in EEG coherence. Cereb Cortex 2007;17:1788­99.
    50. Murias M, Webb SJ, Greenson J, Dawson G. Resting state cortical connectivity reflected in EEG coherence in
      individuals with autism. Biol Psychiatry 2007;62:270­3.
    51. Coben R, Clarke AR, Hudspeth W, Barry RJ. EEG power and coherence in autistic spectrum disorder. Clin
      Neurophysiol 2008;119:1002­9.
    52. Rossignol DA, Frye RE. Melatonin in autism spectrum disorders: a systematic review and meta­analysis. Dev Med
      Child Neurol 2011;53:783­92.
    53. Buckley AW, Rodriguez AJ, Jennison K, et al. Rapid eye movement sleep percentage in children with autism
      compared with children with developmental delay and typical development. Arch Pediatr Adolesc Med
      2010;164:1032­7.
    54. Giannotti F, Cortesi F, Cerquiglini A, Vagnoni C, Valente D. Sleep in children with autism with and without autistic
      regression. J Sleep Res 2011;20:338­47.
    55. Johansson O. Disturbance of the immune system by electromagnetic fields­A potentially underlying cause for cellular
      damage and tissue repair reduction which could lead to disease and impairment. Pathophysiology 2009;16:157­77.
    56. Johannson O. Evidence for Effects on Immune Function2007 2007.
    57. Bilbo SD, Jones JP, Parker W. Is autism a member of a family of diseases resulting from genetic/cultural mismatches?
      Implications for treatment and prevention. Autism Res Treat 2012;2012:910946.
    58. Persico AM, Van de Water J, Pardo CA. Autism: where genetics meets the immune system. Autism Res Treat
      2012;2012:486359.
    59. Kong SW, Collins CD, Shimizu­Motohashi Y, et al. Characteristics and predictive value of blood transcriptome
      signature in males with autism spectrum disorders. PLoS One 2012;7:e49475.
    60. Waly MI, Hornig M, Trivedi M, et al. Prenatal and Postnatal Epigenetic Programming: Implications for GI, Immune, and
      Neuronal Function in Autism. Autism Res Treat 2012;2012:190930.
    61. Lintas C, Sacco R, Persico AM. Genome­wide expression studies in autism spectrum disorder, Rett syndrome, and
      Down syndrome. Neurobiol Dis 2012;45:57­68.
    62. Andrzejak R, Poreba R, Poreba M, et al. The influence of the call with a mobile phone on heart rate variability
      parameters in healthy volunteers. Ind Health 2008;46:409­17.
    63. Szmigielski S, Bortkiewicz A, Gadzicka E, Zmyslony M, Kubacki R. Alteration of diurnal rhythms of blood pressure and
      heart rate to workers exposed to radiofrequency electromagnetic fields. Blood Press Monit 1998;3:323­30.
    64. Bortkiewicz A, Gadzicka E, Zmyslony M, Szymczak W. Neurovegetative disturbances in workers exposed to 50 Hz
      electromagnetic fields. Int J Occup Med Environ Health 2006;19:53­60.
    65. Graham C, Cook MR, Sastre A, Gerkovich MM, Kavet R. Cardiac autonomic control mechanisms in power­frequency
      magnetic fields: a multistudy analysis. Environ Health Perspect 2000;108:737­42.
    66. Saunders RD, Jefferys JG. A neurobiological basis for ELF guidelines. Health Phys 2007;92:596­603.
    67. Buchner K, Eger H. Changes of Clinically Important Neurotransmitters under the Influence of Modulated RF Fields—A
      Long­term Study under Real­life Conditions (translated; original study in German). Umwelt­Medizin­Gesellschaft
      2011;24:44­57.
    68. Bellieni CV, Acampa M, Maffei M, et al. Electromagnetic fields produced by incubators influence heart rate variability in
      newborns. Arch Dis Child Fetal Neonatal Ed 2008;93:F298­301.
    69. Narayanan A, White CA, Saklayen S, et al. Effect of propranolol on functional connectivity in autism spectrum
      disorder­­a pilot study. Brain Imaging Behav 2010;4:189­97.
    70. Anderson CJ, Colombo J. Larger tonic pupil size in young children with autism spectrum disorder. Dev Psychobiol
      2009;51:207­11.
    71. Anderson CJ, Colombo J, Unruh KE. Pupil and salivary indicators of autonomic dysfunction in autism spectrum
      disorder. Dev Psychobiol 2012.
    72. Daluwatte C, Miles JH, Christ SE, Beversdorf DQ, Takahashi TN, Yao G. Atypical Pupillary Light Reflex and Heart
      Rate Variability in Children with Autism Spectrum Disorder. J Autism Dev Disord 2012.
    73. Ming X, Bain JM, Smith D, Brimacombe M, Gold von­Simson G, Axelrod FB. Assessing autonomic dysfunction
      symptoms in children: a pilot study. J Child Neurol 2011;26:420­7.
    74. Hirstein W, Iversen P, Ramachandran VS. Autonomic responses of autistic children to people and objects. Proc Biol
      Sci 2001;268:1883­8.
    75. Toichi M, Kamio Y. Paradoxical autonomic response to mental tasks in autism. J Autism Dev Disord 2003;33:417­26.
    76. Ming X, Julu PO, Brimacombe M, Connor S, Daniels ML. Reduced cardiac parasympathetic activity in children with
      autism. Brain Dev 2005;27:509­16.
    77. Mathewson KJ, Drmic IE, Jetha MK, et al. Behavioral and cardiac responses to emotional stroop in adults with autism
      spectrum disorders: influence of medication. Autism Res 2011;4:98­108.
    78. Cheshire WP. Highlights in clinical autonomic neuroscience: New insights into autonomic dysfunction in autism. Auton
      Neurosci 2012;171:4­7.
    79. Chang MC, Parham LD, Blanche EI, et al. Autonomic and behavioral responses of children with autism to auditory
      stimuli. Am J Occup Ther 2012;66:567­76.
    80. Kesari KK, Kumar S, Behari J. 900­MHz microwave radiation promotes oxidation in rat brain. Electromagn Biol Med
      2011;30:219­34.
    81. Oktem F, Ozguner F, Mollaoglu H, Koyu A, Uz E. Oxidative damage in the kidney induced by 900­MHz­emitted mobile
      phone: protection by melatonin. Arch Med Res 2005;36:350­5.
    82. Lai H, Singh NP. Melatonin and a spin­trap compound block radiofrequency electromagnetic radiation­induced DNA
      strand breaks in rat brain cells. Bioelectromagnetics 1997;18:446­54.
    83. Xu S, Zhou Z, Zhang L, et al. Exposure to 1800 MHz radiofrequency radiation induces oxidative damage to
      mitochondrial DNA in primary cultured neurons. Brain Res 2010;1311:189­96.
    84. Lee DH, Jacobs DR, Jr., Porta M. Hypothesis: a unifying mechanism for nutrition and chemicals as lifelong modulators
      of DNA hypomethylation. Environ Health Perspect 2009;117:1799­802.
    85. Bellieni CV, Tei M, Iacoponi F, et al. Is newborn melatonin production influenced by magnetic fields produced by
      incubators? Early Hum Dev 2012;88:707­10.
    86. Bellieni CV, Pinto I, Bogi A, Zoppetti N, Andreuccetti D, Buonocore G. Exposure to electromagnetic fields from laptop
      use of « laptop » computers. Arch Environ Occup Health 2012;67:31­6.
    87. Agarwal A, Deepinder F, Sharma RK, Ranga G, Li J. Effect of cell phone usage on semen analysis in men attending
      infertility clinic: an observational study. Fertil Steril 2008;89:124­8.
    88. Agarwal A, Desai NR, Makker K, et al. Effects of radiofrequency electromagnetic waves (RF­EMW) from cellular
      phones on human ejaculated semen: an in vitro pilot study. Fertil Steril 2009;92:1318­25.
    89. Wdowiak A, Wdowiak L, Wiktor H. Evaluation of the effect of using mobile phones on male fertility. Ann Agric Environ
      Med 2007;14:169­72.
    90. De Iuliis GN, Newey RJ, King BV, Aitken RJ. Mobile phone radiation induces reactive oxygen species production and
      DNA damage in human spermatozoa in vitro. PLoS One 2009;4:e6446.
    91. Fejes I, Zavaczki Z, Szollosi J, et al. Is there a relationship between cell phone use and semen quality? Arch Androl
      2005;51:385­93.
    92. Aitken RJ, Bennetts LE, Sawyer D, Wiklendt AM, King BV. Impact of radio frequency electromagnetic radiation on DNA
      integrity in the male germline. Int J Androl 2005;28:171­9.




    Si l’on arrache la prise, le Métaverse est dans le noir, mais le Royaume de Dieu s’illumine

    [Source : Campagnol tvl]






    La chute de l’homme dans l’algorithme

    De la bataille contre le Système (épisode XIII)

    [Source : entrefilets.com]

    [Publication] 10/02/2017 [par le créateur anonyme du site entrefilets]

    Bientôt les hommes cesseront de s’aimer, tomberont amoureux de machines, deviendront un temps des objets connectés parmi d’autres avant de disparaître, de se fondre dans une ultime étreinte technologique censée les « augmenter », mais qui aura surtout raison de leur humanité. C’est ce que les adeptes hallucinés du transhumanisme1 appellent la « Singularité », ce moment d’inflexion où les progrès exponentiels de la technologie infesteront l’homme pour en changer la nature et donner naissance au Surhomme tant attendu, enfin libéré de ses limites biologiques. Selon certains transhumanistes, cette « Singularité » pourrait même survenir d’ici à 2030 déjà, et les progrès stupéfiants que nous annoncent régulièrement les apprentis sorciers de l’intelligence artificielle rendent plausible ce calendrier. Il faut dire que la voie est toute tracée. On voit mal ce qui pourrait en effet contrarier cette échéance. Notre contre-civilisation ultralibérale est psychologiquement formatée pour accepter et même souhaiter la disparition de notre si imparfaite humanité, et son impératif libéral justement lui interdit tout simplement de questionner les (r)évolutions technologiques puisque ce serait contraire à l’un de ses dogmes qui veut que l’« on n’arrête pas le progrès ».

    Deux forces à l’œuvre

    Dans la société ultralibérale, deux forces implacables sont ainsi à l’œuvre qui rendent inéluctable cette fuite en avant vers la Singularité et l’abolition de notre humanité.
    D’un côté, il y a d’abord ce que nous appellerons le néo-progressisme sociétal, qui s’emploie à déstructurer les sociétés, à briser tous les tabous, à bouleverser en permanence les rapports sociaux, à imposer ce relativisme moral et culturel absolus qui désacralise tout, à commencer par la vie.

    Jour après jour, on légifère ainsi à tour de bras pour satisfaire le moindre lobby, pour donner l’illusion d’une société vertueusement engagée dans la quête d’un équilibre parfait où chacun pourra, à terme, exercer son droit inaliénable à tout sur tout. Chaque groupe, puis chaque sous-groupe, puis chaque individu se voit ainsi invité à ne voir le monde qu’au travers du prisme déformant de ses intérêts particuliers. Or cette « innocente » tentative de donner satisfaction à tous les égoïsmes concurrents d’un peuple devenu alors « peuple de démons » ne sert, en réalité, qu’à alimenter une guerre de tous contre tous destinée à atomiser les individus.

    [Voir aussi :
    L’atomisation de l’Homme et de l’Humanité]

    Et le vivre-ensemble dans cette société-là se réduit alors au vivre pour soi. Le Marché-Monde étant bien sûr là pour combler tous les désirs, toutes les aspirations, c’est-à-dire pour permettre aux individus de se remplir, de se gaver, de consommer donc. (Nous avons déjà analysé cette immense entreprise d’abolition de l’homme, notamment dans nos billets intitulés « Contre l’abolition de l’homme » justement2, « Intelligentsia et servitude globalisée »3, « Retour sur le fiasco libéral »4 ou encore « La frontière, le Système et le porno »)5.
    Une telle société dont l’aspiration a finalement atteint un tel sommet de pauvreté ne peut dès lors qu’être totalement perméable à l’utopie du transhumanisme.

    Et c’est là qu’interviennent les geeks hallucinés de la Silicon Valley pour nous conduire au Graal, nous donner enfin un horizon nouveau, la possibilité d’autre chose, de quelque chose de meilleur et même de merveilleux par la magie des algorithmes qui vont enfin faire de nous de vrais dieux.

    La rupture d’avec le réel

    La cohérence est donc totale entre cette entreprise de déstructuration de la société humaine d’un côté, et la course effrénée au progrès technologique de l’autre. Comme une grenouille plongée dans un bain froid que l’on réchauffe progressivement se laissera cuire sans broncher, l’Homme post-moderne est alors de plus en plus immergé dans de nouvelles technologies de plus en plus invasives, qui le détachent peu à peu du réel, du monde, des autres, de tout, sauf des pixels.
    Aujourd’hui déjà, l’individu post-moderne passe en moyenne huit heures par jour le nez planté dans un écran6 (ordinateur, TV, tablette, smartphone, console, etc.). Huit heures par jour : c’est-à-dire le tiers de la vie, et même la moitié de la vie « éveillée ».
    Si l’on extrapole, cela veut dire qu’un adulte du XXIe siècle va passer plusieurs dizaines d’années de sa vie à fixer les pixels d’un rectangle lumineux. Un écran où tout ce qui se passe est organisé, vu, compilé, répertorié et examiné par les algorithmes du Système bien sûr.

    Premier constat : la rupture avec le monde réel, la mère Nature notamment, est absolument totale et la rando mensuelle n’y change rien. D’où sans doute cette indifférence à l’agonie de la paysannerie et à celle de l’écosystème en général, hormis les postures de façade bien sûr.
    Deuxième constat : les rapports sociaux se virtualisent déjà largement aussi, devenant peu à peu un simulacre organisé par écrans interposés, et là encore grâce aux algorithmes du Système. Cette hyperconnexion censée rapprocher les hommes ne fait donc en réalité que les séparer. En ce sens les technologies de la communication sont moins là pour favoriser les relations humaines que pour s’y substituer.

    [Voir aussi :
    Les réseaux sociaux sont un danger pour l’humanité, selon certains biologistes et écologistes
    Les relations humaines
    La révolution woke a des conséquences dramatiques
    Médias numériques — « Perte de la réalité »
    Les fondements de la communication]

    Mon robot, mon amour

    Dans un futur proche, la robotique va encore permettre de franchir une étape décisive dans l’abolition de l’homme. D’abord sous une forme ludique en prenant en charge l’un des rapports sociaux les plus compliqués et essentiels qui soit : la sexualité.
    Il semble en effet que le sexe avec les robots soit au menu des progrès de notre contre-civilisation pour cette année déjà7, une étape logique de l’évolution de sex-toys à circuits imprimés, dont le succès commercial est déjà phénoménal.
    Mais pourra-t-on réellement amener l’homme à développer une véritable relation amoureuse avec une machine ? Eh bien oui. La chose est d’ores et déjà dans le pipeline comme on dit.

    Des chercheurs ont démontré que les hommes sont parfaitement capables d’éprouver des sentiments pour des machines8. Avec cet avantage incroyable pour le Marché-Monde de pouvoir répondre de manière adaptée à toutes les névroses, à toutes les solitudes, à tous les désespoirs en proposant le compagnon idéal, sur mesure, flatteur, attentionné et enjoué auquel chacun devrait évidemment avoir droit (parce qu’il le vaut bien)9.

    Et tôt ou tard, et plutôt tôt que tard au vu de l’accélération exponentielle des progrès en matière d’algorithmes, la fameuse « Vallée étrange » — théorie selon laquelle plus un robot ressemble à un Homme plus ses imperfections apparaissent monstrueuses et engendrent donc son rejet10 sera comblée.
    L’Homme pourra alors se passer de l’Homme et la Machine-Marché pourra enfin pourvoir à l’entier de ses besoins.

    Mon robot, mon maître

    C’est que le robot dont on finira par tomber amoureux n’aura rien à voir avec cette sorte de grille-pain siliconé qui constituera la première génération des robots purement sexuels de notre décennie finissante. À terme, le robot dont on tombera amoureux sera subtil, cultivé et très intelligent, beaucoup plus intelligent que nous d’ailleurs.

    Là non plus, l’horizon temporel n’est plus si lointain.
    Récemment en effet, un nouveau progrès spectaculaire a sidéré les apprentis sorciers de l’intelligence artificielle (IA) eux-mêmes.
    Un robot vient en effet de remporter un tournoi de… poker.
    Anodin ?
    Pas vraiment en fait.
    Car le poker est un jeu de menteur, de bluffeur, pas un jeu basé sur des équations mathématiques.
    Noam Brown, le créateur de Libratus11, l’intelligence artificielle qui a remporté le tournoi, explique ainsi que ses concepteurs lui ont « donné les règles de base » en lui disant : « Apprends par toi-même ». Et ils ont été les premiers surpris du résultat. « Quand j’ai vu l’IA se lancer dans le bluff en face d’humains », a déclaré Noam Brown, « je me suis dit :Mais, je ne lui ai jamais appris à faire cela !” »

    « Je ne lui ai jamais appris à faire cela ! »
    La phrase devrait bien allumer quelques voyants dans le cerveau de nos chers Geeks hallucinés ou de nos politiques, mais il n’en sera bien évidemment rien. « L’expérience » ne connaîtra aucun frein, aucun contrôle, aucune limite.
    Trop de débouchés prometteurs sans doute.
    Et puis, « on n’arrête pas le progrès ».

    Moi, robot

    Le transhumanisme, ce sera aussi et surtout la possibilité de l’immortalité. Car une fois absorbé par la machine, l’homme ne sera plus biodégradable.
    Toutes les disciplines qui servent cette utopie délirante vont donc pouvoir compter sur un financement illimité, notamment des grabataires terrorisés de l’oligarchie globalisée. Qui veut mourir alors qu’il est milliardaire ?
    Ce sera alors le grand moment de la Singularité, ou l’algorithme sera suffisamment élaboré pour pénétrer la chair humaine, l’esprit humain, pour venir « l’augmenter » et faire enfin de l’Homme un Dieu.

    Et à la fin nos ultralibéraux de clamer : « Quelle Merveille ! », un pied négligemment posé sur le cadavre de notre Humanité.
    « Il se peut que le progrès soit le développement d’une erreur », avait dit Jean Cocteau.





    La Royal Society réfute la crainte d’un effondrement du Gulf Stream

    [Source : anguillesousroche.com]

    Par Chris Morrison

    L’une des craintes les plus impardonnables que les fanatiques écologistes font peser sur le public en matière de climat est l’idée que le Gulf Stream est sur le point de s’effondrer, plongeant l’hémisphère nord dans une nouvelle ère glaciaire. En juillet dernier, le Guardian et la BBC ont tous deux rapporté que le Gulf Stream pourrait s’effondrer d’ici 2025, entraînant des conséquences climatiques catastrophiques. Tous ces propos alarmistes s’appuient sur des modèles, qui ont également conduit le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) des Nations unies à prévoir qu’il est « très probable » que l’ensemble du système des courants de l’Atlantique Nord s’affaiblisse dans un avenir proche. Il va sans dire que ces modèles ont un bilan extrêmement médiocre, comme l’a révélé un récent article publié par la Royal Society. « Si ces modèles ne peuvent pas reproduire les variations passées, pourquoi devrions-nous être si confiants dans leur capacité à prédire l’avenir », s’interrogent les auteurs scientifiques.

    Le Gulf Stream fait partie d’un système de courants plus large, connu sous le nom de circulation méridienne de surface de l’Atlantique (AMOC). En apportant des eaux plus chaudes du sud, on estime qu’il augmente les températures des zones côtières dans certaines parties de l’hémisphère nord jusqu’à 5 °C. L’effondrement de l’AMOC est à l’origine de l’arrivée d’une nouvelle ère glaciaire dans la superproduction hollywoodienne de science-fiction Le jour d’après. Depuis, ce film est l’un des préférés des alarmistes climatiques. Bien entendu, la pression politique en faveur du projet collectiviste Net Zero est à l’origine d’une grande partie de la copie. En juillet dernier, Damian Carrington, rédacteur en chef du Guardian chargé de l’environnement, a déclaré que la perspective d’un effondrement de l’AMOC était extrêmement préoccupante et qu’elle « devrait inciter à réduire rapidement les émissions de carbone ».

    Les auteurs de la Royal Society constatent que les modèles climatiques qui reposent sur l’hypothèse que l’homme peut contrôler l’AMOC et qu’il le fait sont erronés depuis des décennies. Ni les modèles passés ni les modèles actuels ne parviennent à représenter les données d’observation réelles de l’AMOC. Ils ajoutent :

    « S’il n’est pas possible de réconcilier les modèles climatiques et les observations de l’AMOC au cours de la période historique, nous pensons que l’affirmation concernant la confiance future dans l’évolution de l’AMOC doit être révisée. Un manque de confiance dans le passé devrait se traduire par un manque de confiance dans l’avenir. »

    La suggestion du GIEC selon laquelle l’AMOC s’affaiblira à l’avenir est « très probable », ce qui donne du poids à bon nombre des tactiques alarmistes employées par les médias grand public et les militants écologistes. Mais les auteurs notent que les modèles ne peuvent pas reproduire les variations passées, ce qui les amène à se demander, à juste titre, pourquoi nous devrions avoir confiance en leur capacité à prédire l’avenir. Pour la communauté AMOC, le défi consiste soit à réconcilier les différences entre les modèles climatiques et les observations, soit à mieux comprendre les raisons des écarts.

    « Nous pensons qu’il faut progresser dans la compréhension des raisons pour lesquelles les modèles ne reproduisent pas la variabilité passée de l’AMOC et que c’est la clé pour avoir confiance dans l’évolution future de cette variable climatique clé », déclarent-ils.

    De belles paroles, mais en attendant, nous sommes coincés avec des modèles climatiques qui sont manifestement inadaptés, sauf, bien sûr, pour le travail politique vital qui consiste à effrayer les populations pour qu’elles se conforment à l’économie et à la société du Net Zero.

    L’utilisation de modèles climatiques pour promouvoir l’effondrement du Gulf Stream est l’une des corruptions les plus flagrantes de la science utilisée pour soutenir des objectifs politiques. Un rapport récent de Clintel a révélé que les modèles du GIEC utilisent des données d’entrée qui suggèrent que les températures mondiales futures augmenteront de 4 °C en moins de 80 ans. Et ce, bien que l’organisation ait déclaré qu’une telle éventualité était « peu probable ». Au cours des 25 dernières années, les températures mondiales ont à peine augmenté de 0,2 °C. Plus de 40 % des déclarations du GIEC concernant l’impact sur le climat découlent des « voies » improbables relatives aux températures, et ce chiffre atteint plus de 50 % dans la littérature scientifique générale. Il est probable que ce chiffre soit beaucoup plus élevé dans les médias grand public, qui ont l’habitude de rendre compte sans esprit critique des éléments les plus évidents de l’appât à clics.

    Rien de tout cela n’est bon pour le processus scientifique. L’écrivain scientifique Roger Pielke Jnr. s’inquiète, notant récemment qu’une approche ouvertement partisane pourrait compromettre la confiance du public et rendre la pratique de la science beaucoup plus politique. Ignorer un grand nombre de données empiriques et d’expériences du monde réel indique que la politisation de la science devient rapidement pathologique pour la science et la société.

    « Les conséquences comprennent une perte générale de confiance dans les institutions scientifiques, remplacée par des déterminations de confiance basées sur l’identité », a-t-il observé.

    Les personnes peu charitables pourraient conclure qu’avec le Covid et le climat, la réputation d’organisations médiatiques telles que le Guardian et la BBC se trouve de toute façon dans la poubelle scientifique. Mais la perte de confiance de plus en plus évidente dans un certain nombre de disciplines scientifiques est une tragédie en cours qui aura de graves conséquences sociétales. Les activistes qui accompagnent les écologistes bien financés ne s’en soucieront pas, mais les scientifiques authentiques devraient s’en préoccuper.

    [Voir aussi :

    Le génial penseur, historien et sociologue Eugen Rosenstock-Huessy a identifié et publié il y a cent ans un mécanisme très simple expliquant pourquoi la science établie, c’est-à-dire institutionnalisée, devient AUTOMATIQUEMENT et inévitablement une pseudo-science :

    « Les savants sont des gens compétents et donc tout à fait incapables d’aimer le renversement de leur vertu. Ce sont des fonctionnaires de la science, et ils s’opposent toujours à l’amateur. Mais comme la science fait officiellement partie de la recherche, tout comme le Saint-Esprit fait partie de l’Église, il existe une masse de pseudo-recherches qui rivalisent avec le progrès de la recherche libre ; et seule la première est consciencieusement soutenue par les instances et les fondations officielles, car elle seule semble digne d’être soutenue par le fonctionnaire professionnel de la science. Cette fausse recherche agit selon le principe : “Lave-moi la peau, mais ne me mouille pas”. Elle étudie le cancer selon les idées dépassées de Pasteur, comme s’il s’agissait de la rage ».5

    Voir : Essence et motivation de la recherche de nouvelles connaissances

    ]

    Lire aussi : Le GIEC admet que nombre de ses sombres prévisions climatiques sont « peu probables »

    Source : The Daily Sceptic — Traduit par Anguille sous roche




    Le smartphone

    Par Amal

    Toute cette semaine, j’ai encore bien observé les personnes autour de moi.

    Les zombis qui nous entourent sont effrayants.

    Un nouveau membre s’est rajouté à leur corps : le smartphone.

    Il est devenu une extension du bras. Il n’est plus dans les poches. Il est toujours dans la main.

    Quelques-uns le portent autour du cou pendouillant comme la cloche d’une vache. Meuhhh !!

    Les zombis ne peuvent pas passer une seconde, et non pas une minute sans ce petit diable.

    Ils marchent avec, ils mangent avec, ils boivent avec, ils font leurs courses avec, ils payent avec, ils jouent avec, ils doivent même faire l’amour avec.

    Le smartphone est une vraie drogue.

    Le smartphone hypnotise.

    Le smartphone débilite.

    Nos zombis sont complètement accros de cette machine qui les transforme en machine aussi.

    A l’arrêt du bus, dans le train, dans les rues, dans les magasins, en voiture ; tous, ont cette chose avec eux.

    Tous, ont les têtes baissées, fixées à leur écran. Ils vont tous souffrir de text neck.

    Connaissez-vous ces maladies : text neck, la zappite, la nomophobie ?

    Qu’est-ce que c’est me diriez-vous ?

    Je vous réponds, les nouvelles maladies liées à ce maudit diablotin qu’est le smartphone.

    Je vous mets leurs définitions pour que vous ayez un aperçu de ces horreurs :

    Le text neck est un syndrome qui compte toutes les maladies cervicales liées à l’utilisation intensive de diablotin.

    La zappite est un terme qui désigne ces crises d’ennui provoquées par l’absence de sollicitation du diablotin.

    La nomophobie se dit d’une personne qui ne peut pas se passer de son diablotin et éprouve une peur excessive à l’idée d’en être séparé ou de ne pouvoir s’en servir.

    Vous avez vu les crises que font les zombis quand ils n’ont plus de batterie ? Ne sont-ils pas pathétiques ?

    Je ne vous parle même pas des ondes électromagnétiques qu’émettent ces diablotins et qui perturbent notre organisme.

    Au-delà de ces problèmes physiques, le diablotin aspire les cerveaux, il est un moyen redoutable de contrôle.

    Les zombis sont abreuvés non-stop de conneries, d’idioties, de débilités, de contenus pornographiques, d’idées dangereuses et destructrices (le wokisme par exemple). Ils ont basculé dans un monde artificiel et ne redescendent plus sur terre.

    Si je voulais, et je ne le veux pas, je ferais des séances de désintoxication du diablotin à coups de claques dans la gueule.

    Voyez le temps que passent les enfants sur cette merde. Les parents irresponsables qui collent le diablotin aux mioches pour s’en débarrasser, pour ne pas les avoir dans les pattes, pour faire les courses dans le calme…

    Je pense que les dés sont jetés. Tous les zombis sont cuits. Ils ne font plus partie de l’espèce humaine. Ils ont déjà basculé dans le monde des machines.

    Le contrôle est en place, il est puissant et il est omniprésent.

    Le jour où les forces malveillantes enverront l’ordre ultime, nous risquons d’assister à une scène chaotique comme au début du film « Cell Phone » réalisé par Tod Williams de 2016.

    Voici le trailer en Français et en anglais (dans la même vidéo) :

    À moins d’arrêter cette malédiction, ce qui faisable en soit, mais pas du tout dans les prérogatives des mondialistes, nous sommes damnés à assister à la fin de l’homme fait de chair et d’esprit, et nous assistons à l’apogée de l’homme machine.

    Bonus : je vous mets un lien sur 40 illustrations du pouvoir du diablotin :

    https://hitek.fr/42/40-illustrations-nouvelles-technologies-controle-vies_2916

    Petits recueils avec Amal :




    La France, la Belgique, les États-Unis et le Canada inondés de nourriture à base d’insectes, même dans les produits bio et les végans

    [Source : reponsesbio.com]

    Innovafeed et McKinsey inondent d’insectes France, Belgique, États-Unis et Canada

    Par Jean-Baptiste Loin — 19 novembre 2023

    Depuis 2015 le cabinet McKinsey est en charge d’une campagne mondiale pour la promotion d’aliments à base d’insectes.

    Par le prisme d’une entreprise actuellement considérée comme une des plus importantes Biotechs françaises, Innovafeed, ils ont patiemment détourné l’attention du public et usé d’arguments fallacieux pour parvenir à leurs fins.

    Selon l’ONU et le lobbyiste McKinsey, appuyés par une armée de soldats disciplinés et avides de pouvoir, le choix ne vous appartient déjà plus, même les réseaux de distribution d’alimentation biologique commencent à s’organiser pour vous en faire manger… en toute discrétion.

    Innovafeed ayant refusé l’interview que nous leur avons proposée pour expliquer leur démarche de manière transparente, puisque vous avez le droit de savoir, j’ai enquêté pour vous délivrer la vision la plus claire possible de la situation actuelle.

    Tout commence en 2016, lorsque trois jeunes trentenaires, Clément Ray, Aude Guo et Bastien Oggeri, anciens membres du cabinet McKinsey et de la banque d’affaires Rothschild1, fondent une entreprise de biotechnologies spécialisée dans la production et la vente de mouches soldats noires.

    Soit à peine un an après que l’influence tentaculaire du cabinet ayant galvanisé les citoyens français pour les campagnes présidentielles d’Emmanuel Macron2, commence à jouer de sa légion de réseaux pour favoriser le développement de cette entreprise nourrissant le souhait de vous faire gober leurs mouches.

    Levant très rapidement des fonds colossaux avec une facilité déconcertante, Innovafeed suit un plan de route redoutable pour passer sans encombre les barrages ayant pourtant conduit la majorité des acteurs du secteur de l’insecte « comestible » à la banqueroute.

    En l’espace de quelques années, ce n’est pas moins de cinq cents millions d’Euros qui auront été réunis pour la création de centres ultra technologiques, « cultivant » des insectes dans une proportion jamais atteinte auparavant à l’aide d’Intelligences Artificielles s’appuyant sur plusieurs milliers de capteurs par usine, contrôlant des centaines de bras robotisés semblables aux robots nourriciers imaginés par les créateurs du film Matrix.3

    Faisant sans conteste de cette « French Tech » la principale usine de production d’insectes au monde.

    Tout chez Innovafeed a été pensé pour donner une apparence vertueuse à sa démarche, s’alignant sur la logique d’une réduction des émissions carbone et se donnant en modèle d’une bonne conscience environnementale, en se réclamant pour une économie circulaire inoffensive.

    Entreprise représentée par des jeunes gens à l’apparence fort sympathique, dont une des fondatrices, née en Chine et élevée en France, remporte le prix d’entrepreneuse de la « French tech » en donnant un visage au « pacte de parité » imaginé par son gouvernement.4

    Offrant à la fois :

    • – une initiative semblant tout d’abord dédiée à l’alimentation des animaux d’élevage de poules, porcs et poissons ;
    • – une dynamique économique « green » prisée par les régions, censée favoriser l’emploi ;
    • – un discours soigneusement poli et diffusé par les médias avec parcimonie, prenant soin de ne pas trop en dire…

    Qui aurait pu penser que ces dernières années Innovafeed allait resserrer un étau de domination mondiale allant bien au-delà de son apparente mission ?

    Et pourtant, comme vous allez le constater, le véritable danger de l’inondation des marchés par l’alimentation à base d’insectes ne vient pas de la société vietnamienne citée dans mon précédent article sur le sujet récemment autorisée par l’UE, mais plutôt de la dynamique et des nouveaux contrats organisés par Innovafeed.

    Cependant, pour bien en comprendre l’impact il est nécessaire de faire un rapide point sur le contexte planétaire ainsi que le jeu d’influences exercé par le cabinet McKinsey.

    McKinsey et son pilotage des démocraties occidentales

    Fondé en 1926 par un comptable évangéliste américain donnant son nom au cabinet, McKinsey « conseille » et influence le monde sur la base du développement occidental depuis les débuts de l’ère ultra industrielle.

    Comptant aujourd’hui cent trente bureaux répartis dans soixante-cinq pays, cette firme ayant inspiré le film éponyme — La Firme — emploie plus de quarante mille avocats, statisticiens, ingénieurs et journalistes pour déployer ses pions en régulant les marchés.5

    Vivement critiquée en période de pandémie de Covid pour son rôle alarmant dans la promotion des vaccins ARNm de chez Pfizer en France, elle a en quelques mois pris les rênes du gouvernement et des instances de santé pour s’assurer qu’un maximum de citoyens soient sous l’emprise de ces injections dont les ravages mortels ne sont plus à souligner.6

    Mais sur lesquelles je ne me priverai pas de revenir plus en détail dans un prochain article.

    Empochant deux millions d’Euros par mois, pour ses « conseils » ayant empoisonné des populations entières et endeuillé tant de familles.7

    Or, en plus de cet inquiétant tableau, brandissant à la première occasion la bannière des risques du réchauffement climatique auquel elle a largement contribué en plébiscitant les plus grands groupes pétroliers au monde depuis le Clayton Antitrust Act de 19148, le cabinet McKinsey est aujourd’hui victime d’une « rébellion interne » pour avoir joué un double jeu en faveur des principaux groupes pétroliers censés faire évoluer positivement leur activité d’ici 2050.

    Plus de mille de ses employés ont ainsi signé une lettre commune déclarant, je cite :

    « Notre inaction et notre soutien au sujet des émissions — de gaz à effet de serre — des clients — de la Firme — pose un risque sérieux pour notre réputation » mais aussi « pour les relations avec nos clients ».

    « Depuis plusieurs années, nous disons au monde d’être audacieux et de s’aligner sur une trajectoire d’émissions pour atteindre 1,5 °C ; il est grand temps que nous appliquions notre propre conseil ».9

    Conseil qu’elle a pourtant le toupet de prétendre suivre, en organisant des stratagèmes échafaudés dans le but de coincer les consommateurs dans un processus introduisant différentes sortes d’insectes dans leurs assiettes, snacks et autres produits de consommation.

    Bien que l’entomophagie ait déjà été majoritairement rejetée, et ce à plusieurs reprises au fil de ces dix dernières années, McKinsey continue de disposer ses pions sur l’échiquier.

    À l’aide de son influence légendaire auprès des médias « mainstream », mais aussi et surtout en utilisant ses ouailles dans le cadre d’une approche de longue haleine. Dorant soigneusement leur blason en mettant financements, atouts politiques et démarches pseudo écologiques de leur côté. Tentant de faire passer de jeunes requins pilotés par IA, pour de gentils idéalistes.

    C’est le cas, entre tous, d’Innovafeed, que le gouvernement français se félicite de compter parmi son élite entrepreneuriale.

    Obtenant en novembre 2022 le certificat B Corp, leur permettant de prétendre « officiellement » exécuter un « business » au service des « forces du bien ».10

    La phase 2 d’Innovafeed

    Après avoir patiemment lissé son discours en évitant de trop déborder sur l’alimentation pour humains, prétextant venir à la rescousse d’éleveurs qu’elle est en réalité en train d’exterminer, la Biotech Innovafeed s’attaque aussi à la nourriture pour animaux de compagnie et commence à fournir les plus grosses « agro-tech » à destination de l’alimentation industrielle, pondant des produits déjà disponibles dans vos supermarchés.11

    Non contente de l’ouverture des deux plus grosses fermes d’insectes au monde, Innovafeed vient de s’associer à l’industriel ADM, pour ouvrir une nouvelle usine aux États-Unis, dans l’Illinois.12

    Au programme une large gamme d’aliments pour animaux domestiques, tout en ouvrant indirectement le marché des plats cuisinés qui embarqueront les premières huiles et farines de « mouches soldat noires ».13

    Augmentant une production actuelle initialement démesurée, de soixante mille tonnes de protéines, vingt mille tonnes d’huiles, ainsi que quatre cent mille tonnes de fertilisants à base d’insectes par an.

    Agitant numériquement ses tentacules robotisées sur des bacs de culture de cinq étages, s’étalant sur une surface globale de plus de quatre-vingt-dix mille mètres carrés.14

    Destinés, en plus des animaux de compagnie, des animaux d’élevage et des engrais, à la production de barres énergétiques et boissons pour sportifs ainsi qu’une panoplie de nouvelles marques venant éclore comme des œufs.

    Un marché qui atteindra d’ici la fin de l’année le milliard et demi de Dollars, créé de toute pièce par McKinsey et l’ONU à travers les branches de la FAO et du PAM, le Programme Alimentaire Mondial, respectivement dirigés par Qu Dongyu, ancien vice-Ministre de l’agriculture chinois, et Madame Cindy McCain, veuve du sénateur McCain et héritière d’une dynastie agroalimentaire, pour atteindre les habitudes de près de deux milliards d’individus en 2023.15

    Sans même compter le potentiel du marché des animaux d’élevages, que le président d’Innovafeed estime à quarante-huit milliards d’Euros par an.

    Toutefois, puisqu’il ne leur est pas encore facile de convaincre tout le monde, les « dealers » d’insectes n’hésitent pas à passer par les niches économiques les plus surprenantes, ne semblant effrayés par la moindre antinomie.

    C’est en tout cas ce que semble penser Alexandra Kazaks, Docteur à la division nutrition de l’Institut de technologies alimentaires américain.

    Selon elle, « un surprenant nombre de végans en achète déjà ».16

    D’autres fabricants tentent d’ailleurs de s’inviter dans les rayons bio, à l’image d’Entomo Farms, une structure canadienne proposant différentes sortes de produits à base d’insectes comme des snacks ne laissant présager aucune présence de poudre de crickets sur l’emballage, indiquant uniquement, discrètement, la présence de « poudre de criquet biologique » dans la composition du produit.17

    Sentiers que la marque française Avenia essaie de suivre en s’invitant dans les Biocoop après avoir passé le cap des muffins et desserts à base d’insectes.18 19

    Ou encore la marque Hi, à traduire par « Salut », déjà largement critiquée pour sa volonté à « faire de l’argent avant tout », qui tente de s’immiscer dans l’industrie du cannabis avec des produits édulcorés demandant une attention toute particulière pour pouvoir y détecter la présence de poudre d’insectes.20

    Innovafeed aussi veut intégrer le marché de la bio, cependant tout en discrétion, passant d’abord par la conquête du label allemand Naturland en plaidant pour la première « guideline » dédiée à l’élevage d’insectes bio.21

    Rejoignant par la même occasion le marché de la santé avec le développement de nouveaux médicaments à base d’insectes, ainsi que de compléments alimentaires.

    La phase 3 d’Innovafeed

    Pourquoi s’arrêter en si bon chemin puisque l’alimentation pour bestiaux, animaux domestiques et humains lui semble déjà acquise ?

    Le prochain tournant d’Innovafeed est cousu de fil blanc.

    En plus de mourir de malnutrition, les branches alimentaires de l’ONU, soit la FAO et le PAM, bâtissant les fondations dictatoriales d’un nouveau programme alimentaire mondial, augurent qu’en 2050 l’humanité risquerait davantage de mourir d’infections microbiennes que de cancers… contre lesquelles le seul remède serait, vous vous en doutez, la bio-ingénierie d’insectes.

    C’est en tout cas ce que prédisent les entomologistes du centre de biotechnologies pour insectes LOEWE, installé à Giessen, en Allemagne.22

    De son côté, avec un nouveau produit lancé depuis quelques mois, « NovaGain », Innovafeed s’intéresse déjà à la santé des crevettes d’élevage en formulant le premier complément alimentaire pour animaux destinés à la consommation humaine.23

    Pendant que des « Agri-Tech » spécialisées dans la biologie génétique comme FreezeM, développent des mouches soldats noires modifiées génétiquement pour optimiser le rendement, la taille et la capacité à moins consommer pour se développer. Cette nouvelle espèce de mouches mutantes atteignant deux à trois fois la taille d’une mouche normale a été baptisée « BSF-Titan ».

    Promettant une ouverture de marché de la mouche soldat aussi suspecte qu’inquiétante.

    Que se passera-t-il quand ce genre d’insectes sera amené à « s’échapper » et se reproduire dans la nature ?

    Question ne semblant guère préoccuper Innovafeed, qui dès le début avait toutes les cartes en main pour éviter les pièges recensés par McKinsey après plus d’une décennie d’échecs des fermes d’insectes françaises, belges, néerlandaises, israéliennes, canadiennes et américaines.

    Sa principale usine se trouvant à proximité des productions de Tereos, le plus important sucrier de betterave de l’hexagone, un accord était vraisemblablement prévu en amont pour nourrir les mouches de la Biotech avec les déchets de leur production de sucre avant l’implantation de l’usine.24

    De même que son récent contrat avec Cargill, le lobbyiste de l’agriculture internationale ayant atteint les plus hautes sphères gouvernementales.

    S’ouvrant de plus en plus de portes en direction des hypermarchés et produits de consommation de masse, en entretenant ses partenariats avec des structures comme Labeyrie et Auchan.25

    Les insectes débarquent dans les supermarchés et produits bio

    Depuis 2013 la marque Crickeat est disponible dans des hypermarchés Auchan du sud de la France.26

    Suivie ces dernières années par le groupe Carrefour et ses équivalents belges et néerlandais.27

    Concrétisant ses bonnes relations avec Innovafeed en insérant discrètement dans ses rayons les premières truites28, poulets29 et porcs30 nourris à la mouche noire soldat, Auchan, qui n’en est plus à son coup d’essai, devrait bientôt passer à la vitesse supérieure, mais cette fois dans le nord de la France.

    Or, bien que l’approche soit encore timide, selon une source anonyme, tout porte à croire que l’introduction de denrées à base d’insectes dans les magasins bio et Biocoop soit déjà en cours de négociation.

    Une troupe d’investisseurs formant une nouvelle forme de trust

    Comment une jeune entreprise comme Innovafeed a pu devenir la première licorne de la tech française en « disruptant » agriculture et élevage traditionnels en quelques années ?

    Tout simplement parce qu’en plus de l’influence et des services de McKinsey, elle compte dans son capital la majorité des entreprises lui ayant permis un développement foudroyant.

    Vous vous souvenez d’ADM et Cargill, ses deux derniers plus gros contrats ? Eh bien figurez-vous qu’ils sont actionnaires d’Innovafeed.31

    Et avec eux le géant Temasek, faisant partie des fonds souverains de Singapour, ouvrant actuellement de nouveaux bureaux à Paris après avoir jeté son dévolu sur Bruxelles et Londres.32

    Mais aussi Futur French Champions, fonds d’investissement du Qatar, et Grow Forward, le magnat d’investissements du secteur agroalimentaire de Chicago.

    Un ensemble d’atouts largement introduits dans les habitudes alimentaires des Américains, mais aussi des Français et des Européens, s’assurant qu’au final l’insecte soit bel et bien la protéine la plus plébiscitée et la moins chère de la consommation du futur.33

    Montrant que l’argument selon lequel l’alimentation à base d’insectes ne « peut pas envahir la consommation humaine à cause d’un prix trop important », ne sera bientôt plus qu’un vague souvenir.

    Il est pourtant si facile d’aller dans le bon sens et, avant d’avouer l’environnement et l’humanité vaincus par un futur incertain, de miser sur le développement présent de l’agriculture biologique, de l’artisanat, de l’élevage bio lié au respect animal, et de certaines protéines végétales quasi autosuffisantes, comme, par exemple, le propose la charte de la boutique de Réponses Bio, ayant ouvert ses portes la même année qu’Innovafeed sans jamais avoir été aidée ou financée autrement que par le choix de ses nombreux abonnés, clients et lecteurs et lectrices.34

    Bien à vous,

    Jean-Baptiste Loin

    Pour soutenir Réponses Bio et nous permettre de rester un média indépendant, RDV sur notre page Tipeee en cliquant sur ce lien.

    Sources et références :




    L’opération COVID est-elle une guerre contre la réalité ?

    [Source : Le CEP]

    La crise Covid a-t-elle été « une arnaque au comptage » qui a permis de soutenir une guerre contre la réalité ?
    [Vidéo reprise sur Odysee ici]

    Statisticien professionnel, Pierre Chaillot présente ici le travail de collecte et d’analyse statistique qu’il a réalisé et synthétisé dans son ouvrage « Covid 19, ce que révèlent les chiffres officiels », et dans lequel il démontre avec brio la façon dont les autorités ont utilisé les chiffres pour manufacturer la « crise COVID ».

    0:00 Le CEP
    00:24 — Introduction
    02:43 — Un mot sur la statistique
    03:42 — Plan général
    05:10 — La mortalité pendant la pandémie
    18:28 — La construction du mythe : Séquençage, tests, grippes
    41:56 — La légende de l’efficacité du V.
    01:05:43 — La réalité des effets indésirables
    01:22:37 — Conclusion
    01:25:08 — Questions du public

    Vous pouvez vous procurer l’ouvrage de Pierre Chaillot sur le site de la Librairie Française : http://www.librairiefrancaise.fr/fr/sante/11491-covid-19-ce-que-revelent-les-chiffres-officiels-pierre-chaillot-9782810011520.html

    Retrouvez les activités et les articles du CEP sur notre site : le-cep.org
    Abonnez-vous à la revue trimestrielle du Cep : https://le-cep.org/produit/abonnement-annuel/




    Comment Big Pharma corrompt la science, les médecins et les politiques publiques de santé

    [Source : qg.media]

    Par Laurent Mucchielli

    Les éditions de l’École Normale Supérieure (ENS) viennent de publier la traduction française d’un livre important de Sergio Sismondo, professeur de philosophie des sciences et des techniques à la Queen’s University de Kingston au Canada, intitulé Le management fantôme de la médecine. Les mains invisibles de Big Pharma. Elles ont eu de surcroît la bonne idée de le mettre intégralement en accès libre en ligne. [NDLR Le voici inséré ici :]



    Sa lecture vaut le détour. Elle est même cruciale pour qui veut mieux comprendre la façon dont, au cours des dernières décennies, les industries pharmaceutiques ont pris le contrôle de notre santé, en corrompant massivement non seulement le milieu de la recherche médicale, mais aussi celui des autorités de contrôle nationales et internationales, ainsi que le monde de l’édition scientifique médical, le tout avec l’aide de cabinets de conseils comme McKinsey.

    [NDLR Les surlignages en jaune et les petites notes entre crochets sont des ajouts non présents dans l’article original de Laurent Mucchielli.]

    Comme le rappelle dans sa préface Mathias Girel (à qui l’on doit déjà la préface de la traduction française du livre majeur de Robert Proctor, Golden Holocaust. La conspiration des industriels du tabac, en 2014), « les fantômes dont il est question ici sont bien réels, et ils ne se déplacent pas seuls : ce sont des rédacteurs fantômes, c’est-à-dire des personnes, travaillant pour l’industrie pharmaceutique, qui écrivent des articles qui sont ensuite signés par des chercheurs, mais aussi des organismes de recherche sous contrat (ORC), des associations de patients, des leaders d’opinion ». Il s’agit ainsi de remonter toute la chaîne de production dont l’aboutissement est d’un côté la publication dans les revues scientifiques médicales, de l’autre la prescription individuelle des médicaments par les médecins, voire leur usage en population générale par les gouvernements dans le cadre des politiques de santé publique. Et, tandis que ces aboutissements sont ultra-médiatisés, la chaîne de production qui se cache derrière reste, elle, invisible. D’où le titre du livre : le management fantôme de la médecine. Pour Sismondo, il s’agit rien moins que d’un « nouveau modèle de science », une « science d’entreprise, réalisée par de nombreux travailleurs cachés, à des fins de marketing, et qui tire son autorité de la science académique traditionnelle ». Au fond, comme le dit l’auteur dans sa postface, « Le management fantôme de la médecine est un livre qui explore la manière dont l’industrie pharmaceutique fusionne science et marketing, en particulier en Amérique du Nord et en Europe ». Et ce système de fabrication des connaissances repose sur une « corruption systémique » à laquelle l’auteur a également consacré un article récent (Sismondo, 2021).

    La fabrique d’une pseudo-science au profit de l’industrie pharmaceutique

    [Note de Joseph : cela fait quelques années que nous récoltons, sur Nouveau Monde, des articles (dont certains placés dans le dossier Vaccins et virus) qui pris ensemble démontrent que la virologie est une pseudo-science parce que l’hypothèse virale a été scientifiquement et implacablement réfutée et parce que ses méthodes ne relèvent pas de science, mais de religion avec notamment ses rituels (comme la prétendue « culture virale »), ses dogmes (comme celui de l’existence de méchants virus), ses grands prêtres (y compris prétendument « résistants » au Nouvel Ordre Mondial), ses idoles (comme les vaccins) et ses saints intouchables ou nobélisés (comme Montagnier ou Pasteur) à défaut d’être canonisés. Cela fait quelques années que nous dénonçons la mainmise croissante de l’industrie pharmaceutique, alias Big Pharma, sur la (dé)formation des médecins lors de leurs études universitaires et après. Ce livre apporte de l’eau au moulin de la réinformation.]

    Dans ce livre, qui repose sur d’innombrables entretiens, observations de réunions, lectures de documents produits par les industriels et leurs affidés, Sismondo analyse « les principales tactiques et pratiques utilisées par les compagnies pharmaceutiques pour influencer la médecine ». Il décrit « les chemins que parcourent l’information et les savoirs relatifs aux médicaments depuis les organismes de recherche sous contrat [ORC] (qui effectuent la majeure partie de la recherche pharmaceutique), jusqu’aux planificateurs de publication (qui dirigent la production d’articles de revues écrits par des rédacteurs fantômes), en passant par les leaders d’opinion (qui sont déployés pour éduquer les médecins aux médicaments) et au-delà ». Il nous permet ainsi de comprendre les mécanismes de production, de circulation et de consommation du savoir médical tels que l’industrie pharmaceutique les conçoit, c’est-à-dire dans un univers intellectuel où « la recherche, l’éducation et le marketing ont fusionné ». Et l’auteur de nous rappeler que « l’avalanche de connaissances que les entreprises créent et diffusent n’est pas conçue pour le bien de l’Humanité, mais pour augmenter les profits ». Et même, « il arrive parfois que la recherche de profits aille totalement à l’encontre de l’intérêt général ». Comment cela est-il rendu possible ?

    Les industriels font d’abord produire des recherches (les essais cliniques) par des organismes de recherche sous contrat, qui utilisent à leur tour des sous-traitants : « l’industrie finance à peu près la moitié de tous les tests cliniques — souvent des essais contrôlés randomisés, la [soi-disant] plus précieuse forme de savoir médical — et parraine la plupart des nouveaux essais entrepris chaque année ». Les ORC (organismes de recherche sous contrat) travaillant pour leur compte « planifient et mènent des essais cliniques pour faire approuver des médicaments et pour élaborer de nouveaux arguments en faveur de la prescription de médicaments. Ils recrutent des médecins, qui recrutent des sujets d’essai, dont les tissus, fluides et qualités observables peuvent être transformés en données ». Les ORC sont ainsi « les premiers fantômes de l’industrie pharmaceutique ».

    Ensuite, grâce à ces données récoltées, « l’industrie pharmaceutique produit une part significative de la littérature scientifique sur les médicaments brevetés ou en cours de brevetage. Dans les revues médicales les plus prestigieuses, près de 40 % des articles récemment approuvés sont le fait du management fantôme ». Des « planificateurs de publication » mettent alors au point des « stratégies de publication », mettent sur pieds « des équipes de professionnels pour penser et rédiger des articles », puis « sélectionnent les revues auxquelles ces articles seront soumis et choisissent les leaders d’opinion qui en seront les auteurs putatifs ». C’est ainsi que « les sciences médicales sont façonnées pour servir des objectifs marketing. (…) Le résultat ressemble à de la science médicale, et peut même être [apparemment] une science de haute qualité, mais c’est une science conçue pour vendre des médicaments ».

    En outre, « le management fantôme se poursuit avec la communication des sciences médicales sur le terrain. En donnant des conférences, les leaders d’opinion contribuent à l’énorme influence que l’industrie pharmaceutique exerce sur le savoir médical. Les leaders d’opinion sont les zombies de l’industrie, des morts-vivants missionnés pour exécuter les ordres de l’industrie pharmaceutique ».

    Puis vient l’étape de la diffusion, c’est-à-dire de la communication : « une industrie de services sophistiquée enserre toute communication médicale. (…) En qualité d’agents des sociétés pharmaceutiques, les sociétés de formation médicale et de communication créent des cours, planifient des conférences et des séminaires, mènent des enquêtes et rédigent des articles et des études. Tout ce matériau est ensuite remis aux éducateurs, aux chercheurs et aux médecins qui les utiliseront à bon escient ». Pour parachever le tout, « ces entreprises nourrissent les journalistes qui écrivent dans les journaux généralistes et les magazines médicaux, en leur transmettant des détails techniques, des articles scientifiques, des noms d’experts à contacter et même des lignes narratives. Ils fournissent même des clips vidéo aux chaînes de télévision qui diffusent ensuite des reportages sur les dernières avancées médicales ».

    Enfin, l’industrie a appris à utiliser à son profit les défenseurs des patients et les associations de défense des patients (ADP) qui sont ainsi devenus « d’autres maillons essentiels dans la nébuleuse du marché du médicament ». C’est ainsi que, aux États-Unis, les deux tiers de ces associations reçoivent un financement de l’industrie, avec un ciblage particulier pour celles « qui donnent des conférences ou participent aux discussions qui ont lieu à la Food and Drug Administration ». Sismondo note même que, « dans certains cas extrêmes, les ADP sont des créatures de l’industrie. Elles sont entièrement financées par une ou plusieurs entreprises, le recrutement de leur personnel est pris en charge par des professionnels, et elles trouvent des patients à enrôler a posteriori ».

    Au final, les industries pharmaceutiques « exercent une pression systématique sur la circulation du savoir scientifique et les pratiques médicales qui en découlent. Il s’agit d’un système d’influence rendu plus efficace du fait même qu’il est opaque et fantomatique ». Et ce système d’influence est probablement bien plus efficace que la publicité, même si les industries utilisent toujours très largement ce moyen de propagande (Sismondo rappelle ainsi que, « par exemple, en 2016 aux États-Unis, l’industrie pharmaceutique dans son ensemble a acheté pour plus de 3 milliards de dollars de publicités télévisées et a dépensé presque autant en publicités dans les magazines, journaux et autres médias. Sur ce montant, 300 millions de dollars ont été consacrés à des annonces dans des revues médicales »).

    La grande « pharmaceutisation » de la société (ou le retour de Knock)

    Le constat économique est là : « l’ensemble des ventes de médicaments augmente de près de 10 % par an, que l’année soit bonne ou mauvaise ». Aux anciennes maladies, se sont en effet ajouté les nouvelles, issues de nos modes de vie modernes [ou produites par les médicaments et les vaccins eux-mêmes]. Mais le problème est bien plus grave encore car, comme le rappelle Sismondo, même quand les maladies n’existent pas, ou pas vraiment, les industries pharmaceutiques ont une réponse : « les maladies peuvent être façonnées et ajustées pour créer un marché plus fort et plus rentable ». Sismondo rappelle ici ce fait déjà bien connu au terme duquel, pour augmenter leurs ventes, les entreprises pharmaceutiques tentent de « vendre de la maladie », selon la formule de Moynihan et Cassels (2005). Concrètement, les industriels « s’efforcent d’accroître la sensibilisation aux maladies pour lesquelles leurs médicaments peuvent être prescrits, et d’augmenter ainsi la probabilité que les gens se croient atteints de ces maladies » [Voir aussi : Expliquer l’effet nocebo, la contagion émotionnelle et l’hystérie collective]. Il ne s’agit plus d’une médicalisation croissante de la vie, mais, plus précisément et plus globalement, d’une « pharmaceutisation » (pharmacolisation) de la société. Ce concept suscite une petite littérature scientifique (notamment sociologique) depuis une quinzaine d’années aux États-Unis (Abraham, 2020 ; Williams et coll., 2011). Sismondo en rappelle des exemples qui, pour être bien connus des spécialistes, n’en demeurent pas moins majeurs et édifiants.

    Commençons par une maladie psychique, la dépression, qui constitue désormais « l’une des maladies les plus évidemment régies par l’existence de médicaments ». Sismondo résuma ainsi l’évolution de la maladie et de sa pharmaceutisation : « jusque dans les années 1960, la dépression était un diagnostic relativement peu répandu, et était plutôt associée aux personnes âgées. Elle est devenue, dans les années 1970, un peu plus visible grâce aux fabricants de la première génération d’antidépresseurs. Cependant, depuis l’arrivée sur le marché du Prozac de la compagnie Eli Lilly en 1987, un nombre toujours plus important de personnes furent diagnostiquées dépressives. Le nombre de personnes touchées par la dépression a augmenté (au point que l’OMS l’annonce comme le problème de santé bientôt le plus répandu au monde), les critères du diagnostic de dépression n’ont cessé de s’élargir et les estimations de la prévalence de la dépression ont augmenté de façon spectaculaire. La dépression est devenue le “rhume” des troubles mentaux ». Le premier grand succès financier de ces nouveaux « antidépresseurs » sera le Prozac. Grâce à lui, les industriels parviendront à « commercialiser à la fois le médicament et la maladie ». De fait, « ils ont investi massivement dans la recherche sur la dépression et les antidépresseurs. Ils ont largement promu une théorie de la dépression fondée sur la carence en sérotonine, puis une théorie du déséquilibre chimique, pour lesquelles il n’existe pas beaucoup de preuves. Ils ont établi des liens étroits avec des psychiatres et d’autres médecins qui rédigent des manuels, des articles et des guides de pratiques cliniques. Ils ont financé des campagnes de sensibilisation et de lutte contre la stigmatisation. Les entreprises ont réussi à donner un statut à la maladie tant sur le plan médical que culturel, en aidant les médecins à volontiers la reconnaître et à la diagnostiquer et les patients à interpréter leurs sentiments et leurs expériences dans les coordonnées de la dépression — peut-être même à façonner leur identité autour d’elle ».

    Bien d’autres maladies chroniques de la société contemporaine sont également l’objet de cette pharmaceutisation, notamment l’hypertension, le diabète, l’hypercholestérolémie et l’ostéoporose.

    Une autre façon pour Sismondo de le dire est celle-ci : « Il fut un temps où les gens se considéraient le plus souvent en bonne santé, sauf s’ils tombaient malades ou présentaient des fragilités ou des symptômes inhabituels ». Or, désormais, on parle de « risque » et nous sommes tous concernés, tous potentiellement malades. « Tout homme bien portant est un malade qui s’ignore », faisait dire Jules Romains au docteur Knock en 1923. Un siècle plus tard, sa prédiction s’est réalisée au-delà même de ce qu’il entrevoyait. Désormais, comme l’écrit Sismondo, « nous sommes tous, toujours, en mauvaise santé. La plupart des maux dont nous souffrons sont chroniques, les traitements peuvent ainsi durer toute une vie. Et comme nous sommes tous à bien des égards en mauvaise santé, le traitement — même réussi — des facteurs de risque ou des pathologies n’a jamais de fin ». Pour Big Pharma, c’est le jackpot. Et la suite est plus grave encore.

    Une criminalité (très bien) organisée

    Sismondo développe notamment l’exemple des opioïdes aux États-Unis, car on y retrouve « presque tous les éléments évoqués dans le reste du livre ».

    Rappelons les faits : au cours des vingt dernières années, plus de 200 000 citoyens américains sont morts à cause d’opioïdes vendus sur ordonnance comme antidouleurs, mais qui étaient en réalité tout aussi dangereux et addictifs que l’héroïne. En cause, « la flambée de prescriptions d’analgésiques, en particulier l’OxyContin », autorisé par la Food and Drug Administration (FDA) depuis 1995. L’affaire est la suivante : « l’antidouleur contenu dans l’OxyContin est l’oxycodone, un ancien dérivé de la morphine semblable à l’héroïne dans sa structure et ses effets généraux. L’argument de vente du nouveau médicament était sa concentration élevée en oxycodone combinée à un mécanisme de libération continue que son fabricant, Purdue Pharmaceuticals, appela “Contin”. Le mécanisme dit Contin, breveté en 1980, était censé modérer les effets euphoriques et semblables à ceux de l’héroïne, et soulager la douleur pendant douze heures. Le résultat, affirmait-on, était un opioïde peu addictif. Pour Purdue, l’OxyContin était un bon substitut à son précédent opioïde à libération lente, le MS Contin, qui avait fait l’objet d’abus en tant que drogue récréative ». Parallèlement, la Drug Enforcement Administration (DEA) autorisait les quotas de production des analgésiques susceptibles d’entraîner une dépendance, ce qui « a permis de multiplier par près de quarante la production d’oxycodone entre le début des années 1990 et aujourd’hui ».

    Ainsi donc un industriel a fait fortune en vendant une drogue équivalente à l’héroïne qui a tué des centaines de milliers de personnes, le tout avec la bénédiction du gouvernement américain. Comment cela est-il possible ? Entouré tout au long de son opération par des cabinets de conseils comme l’Américain McKinsey et le Français Publicis, l’industriel a commencé par inviter plus de 5 000 participants à plus de 40 conférences sur la gestion de la douleur, tous frais payés. « Ces conférences ont permis d’établir une base de prescripteurs et, plus important encore, une base de leaders d’opinion pour siéger à l’agence de conférenciers de Purdue et donner des présentations rémunérées à d’autres prescripteurs ». Cette liste comprenait 2 500 médecins, parmi lesquels 1 000 étaient actifs. Grâce à la force d’influence des leaders d’opinion, Purdue a pu financer plus de 20 000 événements éducatifs afin de faire valoir l’utilisation des opioïdes pour traiter la douleur de manière énergique ». Ensuite, l’industriel a passé un accord rémunéré avec la Joint Commission on Accreditation of Healthcare Organizations, qui se présente comme une « organisation indépendante à but non lucratif » composée de médecins et qui est à l’origine du système d’accréditation américain. Grâce à cet accord, et avec l’aide d’un autre industriel disposant de davantage d’infrastructures (Abbott), Purdue a pu diffuser son produit dans tous les hôpitaux américains.

    Et la corruption ne s’arrête pas là. L’industriel a aussi fait des cadeaux aux étudiants en médecine ainsi qu’à des organisations comme l’American Geriatrics Society et l’American Academy of Pain Medicine. C’est ainsi que, « dans un panel de l’American Geriatrics Society qui a rédigé des directives pour le traitement de la douleur chronique chez les personnes âgées, plus de la moitié des membres avaient été payés pour des consultations ou des conférences par l’une ou l’autre des compagnies qui fabriquent des opioïdes ». La corruption ira très loin puisque, après le vote d’une loi en 2016 (le Ensuring Patient Access and Effective Drug Enforcement Act), l’industriel « fit en sorte que la DEA ne puisse pas enquêter sur la distribution ou sur les compagnies. Bien que la DEA se soit farouchement opposée à la loi, elle fut muselée par une stratégie à deux volets : les employés de la DEA se voyaient systématiquement offrir des postes directement ou indirectement liés à l’industrie — au total, cinquante employés furent mutés — et des législateurs grassement financés subordonnèrent leur soutien global à la DEA au silence de celle-ci sur cette loi ».

    Enfin, bien sûr, durant toute cette immense opération de marketing, l’industriel s’est assuré le soutien des scientifiques. D’abord en finançant de nombreux essais cliniques randomisés, publiés ensuite dans les plus grandes revues médicales sous des signatures collectives, sans toutefois que l’on sache qui a réellement mené la recherche, qui a rédigé l’article, etc. « En d’autres termes, il est presque sûr que ces études furent managées de façon fantôme ». Il a fallu par ailleurs dissimuler les effets indésirables du « médicament », en l’occurrence l’addiction parfaitement semblable à celle provoquée par l’héroïne et le risque de mort par overdoses tout aussi létales.

    Au final, les ventes d’OxyContin ont fait la fortune de l’industriel concerné (Purdue Pharmaceuticals), dont les propriétaires (la famille Sackler, qui pratique bien entendu la philanthropie, à destination notamment des universités) se sont incroyablement enrichis à cette occasion. Les quelques 600 millions de dollars d’amendes payés par la suite ne sont qu’une goutte d’eau comparée aux dizaines de milliards qu’a rapportés cette drogue légale. Cela fait partie du business plan. Le bilan sanitaire et social de cette affaire est pourtant catastrophique car, non seulement l’industriel a contribué directement la mort de centaines de milliers de personnes, mais il a de surcroît bouleversé le marché américain des drogues en jetant des centaines de milliers de personnes (appartenant principalement à la classe ouvrière) devenues dépendantes dans les bras des trafiquants de drogues (Quinones, 2015). Au demeurant, comme l’écrivent Anne Case et Angus Deaton (2021), « beaucoup de ceux qui ont suivi de près le scandale des opioïdes ne voient guère de différence entre le comportement de ces dealers légalisés et celui des fournisseurs illégaux d’héroïne et de cocaïne qui sont si largement méprisés et condamnés ». Il s’agit dans les deux cas « de se remplir les poches en détruisant des vies ». Sauf qu’ici, ces crimes organisés se commettent avec la bénédiction des autorités publiques.

    Des éléments qui aident également à comprendre la crise du Covid

    Dans cette traduction française, Sergio Sismondo a ajouté une postface inédite (rédigée en juin 2023) dans laquelle il revient sur la crise du Covid, d’une façon qui conforte pleinement nos propres analyses (Mucchielli, 2022a). Il constate d’abord que « la pandémie ayant été définie comme une crise de santé publique, et non comme un simple problème de santé individuelle, les industries pharmaceutiques ont directement engagé le dialogue avec les gouvernements, en essayant de faire de ces derniers — qui sont les régulateurs des dépenses de santé en général et en médicaments en particulier — leurs alliés ». Dès lors, il est clair que « la pandémie a accéléré l’effacement des frontières entre l’industrie pharmaceutique et les autres parties prenantes, telles que les gouvernements, les organismes de réglementation et les établissements universitaires. Les collaborations et les partenariats sont devenus essentiels pour accélérer les processus de recherche, de développement et de distribution. Toutefois, cet enchevêtrement a également suscité des inquiétudes quant aux conflits d’intérêts, à l’influence indue et au risque de compromission dans la prise de décision ». Ensuite, Sismondo constate également que « les industries pharmaceutiques se sont également adressées directement à un large public de non-spécialistes, en présentant leurs vaccins comme la solution à cette crise, grâce aux outils des relations publiques » (toujours les mêmes cabinets de conseil à commencer par McKinsey).

    Sismondo développe ensuite deux exemples concrets. Le premier est la façon dont ce vaste système de corruption a d’abord permis à l’industriel Gilead Sciences de refourguer un antiviral (le Remdesivir) pourtant déjà reconnu comme inefficace dans des épidémies virales précédentes (Hépatite C et Ebola), le tout avec la bénédiction des services sanitaires gouvernementaux américains dirigés par Anthony Fauci. Le second est la façon dont d’autres industriels (aux premiers rangs desquels Pfizer et Moderna) ont prétendu avoir mis au point des « vaccins sûrs et efficaces à 95 % » et les ont vendus un peu partout dans le monde avec la bénédiction non seulement des gouvernements nationaux, mais aussi des organisations internationales aux premiers rangs desquels l’Organisation Mondiale de la Santé (OMS) et l’Union Européenne (UE). Il en conclut que « si l’on ne connaît pas les taux d’infection de fond dans les populations étudiées, si l’on ne fait pas preuve d’une transparence totale sur les méthodologies des essais et si l’on ne rapporte pas de manière exhaustive les effets indésirables, ces scores élevés d’efficacité vaccinale ne nous disent pas tout ce que nous avons besoin de savoir pour évaluer les vaccins. Mais en tant qu’outils de relations publiques, ils ont été très efficaces ».

    Sismondo termine en écrivant que « dans l’idéal, le livre aurait donc dû inclure des recherches sur les stratégies de l’industrie pour traiter avec les gouvernements et le grand public, deux éléments cruciaux pour le succès commercial de leurs produits en période de pandémie ». De fait, le moins que l’on puisse dire est que la crise du Covid illustre parfaitement le propos de l’auteur, qui aurait pu par exemple s’intéresser de plus près à d’autres dimensions de cette crise telles que le scandale du Lancet (Mucchielli, 2022b) ou encore aux graves effets indésirables provoqués par l’administration contrainte en population générale de ces thérapies génétiques expérimentales. Mais il est sans doute encore un peu trop tôt pour que les effets de cet immense rapt sur les consciences et sur les corps soient reconnus et analysés par des intellectuels qui, pour la plupart, n’ont pas été capables sur le moment de comprendre et de résister à une propagande industrielle et politique déployée avec plus de force que jamais. Ils retrouveront certainement davantage de lucidité et de courage dans les mois et les années qui viennent.

    Laurent Mucchielli

    Références :

    Abraham J. (2010), « Pharmaceuticalization of Society in Context: Theoretical, Empirical and Health Dimensions », Sociology, 44 (4), p. 603-622.

    Case A., Deaton A. (2021), Morts de désespoir. L’avenir du capitalisme, Paris, Presses Universitaires de France.

    Moynihan R., Cassels A., (2005), Selling Sickness. How drug companies are turning us all into patients, Crows Nest, Allen and Unwin.

    Mucchielli L. (2022a), La doxa du Covid. Tome 1 : Peur, santé, corruption et démocratie, Bastia, éditions Éoliennes.

    Mucchielli L. (2022 b), « “Fin de partie” pour l’hydroxychloroquine ? Une escroquerie intellectuelle (le Lancetgate) », in Mucchielli L. (dir.), La doxa du Covid. Tome 2 : Enquête sur la gestion politico-sanitaire de la crise, Bastia, éditions Éoliennes, p. 99-110.

    Quinones S. (2015), Dreamland. The True Tale of America’s Opiate Epidemic, London, Bloomsbery Press.

    Proctor R., (2014), Golden Holocaust. La conspiration des industriels du tabac, Paris, éditions des Équateurs.

    Sismondo S. (2021), « Epistemic Corruption, the Pharmaceutical Industry, and the Body of Medical Science», Frontiers in Research Metrics and Analytics, 8 (6), 614013.

    Sismondo S. (2023), Le management fantôme de la médecine. Les mains invisibles de Big Pharma, Paris, ENS éditions (en ligne).

    Williams S., Martin P. et Gabe J. (2011), « The Pharmaceuticalisation of Society? A Framework for Analysis», Sociology of Health & Illness, 33 (5), p. 710-725.




    La Chine bientôt au sommet

    [Source : la-chronique-agora.com]

    [Illustration : source]

    Par Bill Bonner

    La Chine s’impose dans la course à la technologie et les institutions défaillantes de l’Occident font des dégâts…

    Est-ce vrai ? Les institutions les plus importantes de l’Occident sont-elles en train d’échouer ?

    La démocratie ? L’État-nation ? La presse « libre » ? Les combustibles fossiles ? Le capitalisme manipulé par le gouvernement… et l’argent géré par le gouvernement fédéral ? La supériorité technologique ? La puissance de feu ?

    Tout ce qui a permis à l’Occident de se hisser au sommet a-t-il été corrompu ? L’Occident a-t-il épuisé tous ses avantages ? Est-il en déclin, comme l’avait prédit Oswald Spengler il y a plus de 100 ans ?

    Selon notre modèle d’allocation d’actifs, nous aurions dû vendre nos actions américaines il y a près de 30 ans. Le modèle est « bête », dans la mesure où il ne nous dit rien sur l’état du monde, l’avenir des taux d’intérêt ou quoi que ce soit d’autre. Il est conçu pour nous aider à éviter les « grandes pertes », en nous indiquant simplement quand les actions sont chères en termes d’or. Un investisseur évite les grandes pertes en achetant des actions lorsqu’il peut obtenir les 30 actions du Dow Jones pour moins de 5 onces d’or. Il les vend lorsqu’elles dépassent les 15 onces.

    C’est ainsi que notre modèle nous a conseillé de privilégier l’or (aux actions) dès 1996. Nous ne le savions pas à l’époque, mais le modèle nous signalait peut-être quelque chose de beaucoup plus important. Les actions américaines ont atteint leur plus haut niveau historique en août 1999, les actions du Dow Jones se négociant à 42 onces d’or. Il semble aujourd’hui qu’il ne s’agissait pas seulement d’un sommet pour les actions américaines — mais de l’apogée de la puissance, de la richesse et du prestige de la civilisation occidentale. Le budget américain était plus ou moins équilibré. La dette américaine était encore gérable. À l’exception de leur engagement désastreux au Kosovo, les États-Unis étaient en paix. Depuis, les choses se sont dégradées.

    Trop humains

    Vendredi, nous nous sommes penchés sur le sujet de la démocratie. Comme nous l’avons vu, celle-ci n’est pas extensible. Les électeurs ordinaires ne peuvent pas prendre de décisions pour un empire lointain. Ils peuvent voter, mais leurs votes ne signifient presque rien. Les groupes issus de l’élite sont les véritables décideurs. Comme Nietzsche l’a dit, ils sont trop humains et prennent des décisions qui leur profitent, à eux… et non au « peuple ». Peu à peu, le gouvernement devient corrompu, égoïste et incompétent.

    Aujourd’hui, nous allons nous tourner vers la technologie et la puissance de feu. Deux nouvelles annonces — toutes deux en provenance de la Chine — suggèrent que l’Occident a perdu son avance technologique. Voici ce qu’en dit defenseone.com :

    « Les États-Unis perdent leur avantage en matière d’IA au profit de la Chine, selon des experts.

    “Si vous comparez en pourcentage de leur investissement militaire global, l’APL [l’agence de défense chinoise] dépense entre un et deux pour cent de son budget global pour l’intelligence artificielle, alors que le DoD dépense entre 0,1 et 0,2 de son budget pour l’IA.”

    Tara Murphy Dougherty, PDG de Govini, a déclaré aux journalistes lundi :

    “La Chine dépasse les États-Unis en matière d’innovation.” »

    C’est grâce à sa puissance de feu supérieure que l’Occident a pu conquérir la majeure partie de la planète — l’Amérique du Nord et du Sud, l’Australie, la majeure partie de l’Afrique et une grande partie de l’Asie.

    Un exemple : la bataille d’Omdurman, en 1898. Les Britanniques et leurs alliés disposaient de 25 000 hommes. Les Soudanais en avaient 52 000. Mais les Britanniques disposaient également de fusils, de mitrailleuses et d’artillerie modernes. Les Soudanais n’en avaient pas. À la fin des combats, 47 Anglais (et leurs alliés égyptiens) avaient été tués, contre 12 000 soldats ennemis.

    Une puissance de feu ancestrale

    Mais les grosses dépenses en armement ne suffisent pas. Au contraire, elles sont même un obstacle. L’industrie de la puissance de feu gagne de l’argent en vendant les armes d’hier. Plus vous dépensez, plus votre matériel devient obsolète. C’est pourquoi une agence de défense plus jeune et plus dynamique est souvent bien plus efficace qu’une bureaucratie militaire plus riche et mieux établie.

    La Chine, qui n’a pas à soutenir une industrie de la puissance de feu héritée du passé, peut consacrer une plus grande partie de son budget de défense aux nouvelles technologies, notamment à l’IA et aux drones. Lors de la prochaine guerre, ces innovations seront probablement décisives. Warontherocks.com rapporte :

    « La technologie des drones de mer va transformer la guerre navale

    Alors qu’en Ukraine, cette technologie est déployée pour résister à une nation d’envahisseurs, des États voyous pourraient en profiter ailleurs.

    Les progrès des technologies autonomes sont en train de démocratiser l’accès aux capacités navales de base : les nations et les groupes qui ne disposent pas d’une marine importante pourront rapidement devenir des concurrents en mer.

    Ils [les drones navals] sont également conçus pour fonctionner en essaims, ce qui permet des missions coordonnées avec plusieurs véhicules, comme celle de Sébastopol, où au moins sept navires de surface ukrainiens sans équipage ont franchi les défenses du port. En outre, les systèmes de propulsion hybrides combinent l’énergie électrique et l’énergie conventionnelle pour augmenter la portée opérationnelle et l’endurance des véhicules marins autonomes. »

    N’ayant pas de marine de type « seconde guerre mondiale » à entretenir, la Chine est en mesure de se concentrer sur une puissance de feu maritime plus récente et plus moderne.

    Et c’est un phénomène similaire qui est à l’origine du miracle chinois. En 1979, lorsque la Chine a emprunté la « route capitaliste », elle n’avait que peu d’industries héritées du passé et a dû en créer de nouvelles. La Chine, qui ne disposait plus que d’une infrastructure défectueuse après les débâcles du Grand Bond en avant et de la révolution culturelle, a dû construire de nouveaux trains, avions, automobiles, autoroutes, chemins de fer et ports de marchandises.

    C’est pourquoi la Chine dispose d’un réseau complet de trains à grande vitesse — y compris un train maglev à Shanghai qui atteint 600 km/h. La Chine teste actuellement un autre train à grande vitesse qui peut atteindre plus de 800 km/h, ce qui est bien différent des trains Amtrak qui passent par Baltimore, qui sont lourds et traînants.

    Informations haut débit

    Mais attendez… Les États-Unis ont inventé Internet. Le pays est toujours le leader des technologies de communication, n’est-ce pas ?

    Hier, le South China Morning Post a jeté un peu plus d’eau froide sur la toile :

    « La Chine lance l’Internet le plus rapide du monde avec une liaison de 1,2 térabit par seconde, avec des années d’avance sur les prévisions

    La Chine a devancé une échéance mondiale en lançant le premier service Internet de nouvelle génération au monde — de 10 fois plus rapide que les principaux axes existants — avec deux ans d’avance sur les prévisions du secteur.

    Le réseau dorsal — ainsi appelé parce qu’il constitue la principale voie de transmission de données entre les villes — peut transmettre des données à une vitesse de 1,2 térabit (1 200 gigabits) par seconde entre Pékin, dans le nord, Wuhan, dans le centre de la Chine, et Guangzhou, dans la province méridionale du Guangdong.

    La plupart des réseaux dorsaux de l’Internet dans le monde ne fonctionnent qu’à 100 gigabits par seconde. Même les États-Unis n’ont que récemment achevé la transition vers leur réseau Internet2 de cinquième génération à 400 gigabits par seconde. »

    Ce qui ne veut pas dire que toute la technologie américaine est aussi décrépite qu’Amtrak.

    Mais il y a toujours une suite à l’histoire… Rendez-vous demain.




    Au-delà de 1984 d’Orwell, la 5G et le lancement de la 6G : « Il est facile de démolir une société numérique ». La CNUCED tente de réaliser ce scénario catastrophique

    [Source : Les moutons enragés]

    “L’enfer est vide et les diables sont tous là.”

    William Shakespeare, « La Tempête », 1623

    L’analyse contemporaine de Peter Koenig sur « La tempête 2020-2030 »


    Par Peter Koenig

    De la 5G à la 6G

    Nous, le peuple, sommes engagés dans une course contre les mondialistes engagés dans la dépopulation ; contrôler les survivants, nous exploiter, nous déshumaniser et, à terme, nous numériser, afin que nous puissions être contrôlés à distance par la 5G ;

    Et maintenant, tout juste « lancée » par la Chine, la 6G. Voir La Chine lance une dorsale Internet de nouvelle génération à ultra haut débit – SHINE News .

    Personne ne sait vraiment, ou du moins n’a dit publiquement ce que la 6G est censée faire, ce que la 5G ne peut pas déjà faire. Au fait, l’impact sanitaire de la 6G a-t-il été étudié ? Peut-être. Mais personne ne divulgue les résultats.

    Voici comment Qualcomm décrit la 5G :

    Réseau mobile de 5e génération. Il s’agit d’une nouvelle norme sans fil mondiale après les réseaux 1G, 2G, 3G et 4G. La 5G permet un nouveau type de réseau conçu pour connecter pratiquement tout le monde et tout, y compris les machines, les objets et les appareils. Regardez ça.

    Personne n’a ouvertement parlé de l’impact de la 5G sur la santé, mais cela a été étudié. Pourtant, les études ne sont pas révélées au public.

    [Voir :
    Preuve d’un lien entre la Covid-19 et l’exposition aux rayonnements radiofréquences des communications sans fil, y compris la 5G
    Les pompiers californiens rendus malades par la 5G nous alertent
    Pourquoi les ondes artificielles sont les plus dommageables
    Champs électromagnétiques artificiels et naturels : pourquoi la Wi-Fi, le Bluetooth et les téléphones portables endommagent-ils les cellules ?
    Pourquoi les scientifiques s’inquiètent-ils de la 5G ?
    Les effets des ondes sur l’organisme
    Danger 5G : 13 raisons pour lesquelles la technologie sans fil 5G sera une catastrophe pour l’humanité
    Premières victimes reconnues des antennes 5G
    Paquet d’ondes radio]

    Au-delà du 1984 de George Orwell

    Il y a « deviner » ; et les scientifiques qui présentent la vérité décrivant l’impact causé par ces ultra-micro-ondes sur la faune et les humains sont le plus souvent qualifiés de « théoriciens du complot ».

    C’est l’expression « taisez-vous » pour tout ce que le courant dominant, la Cabale, Matrix et les mondialistes ne veulent pas que le public sache. Nous sommes bien au-delà de « 1984 » de George Orwell.

    Le réseau mobile de 6e génération ou 6G est environ 100 fois plus rapide et plus puissant que la 5G. Il pourra tout numériser.

    Voici ce que RantCell a à dire à propos de la 6G :

    Fonctionnant sur des bandes de fréquences térahertz, la 6G fournira un débit de données maximal de 1 000 gigabits/s avec une latence aérienne inférieure à 100 microsecondes. Lorsque nous parlons de vitesse du réseau 5G par rapport à la 6G, la vitesse de la 6G devrait être 100 fois plus rapide que celle de la 5G, avec une fiabilité améliorée et une couverture réseau plus large. Regardez ça.

    Nous, le peuple, sommes engagés dans une course : la vie contre la mort. Si nous nous réveillons et réagissons, le projet des mondialistes, à savoir le projet des protagonistes diaboliques de l’ Agenda 2030 de l’ONU et de la Grande Réinitialisation, sera « voué à l’échec ».

    Mais si nous continuons à nous laisser duper, nous, le peuple, « irons en enfer ».

    C’est la raison pour laquelle l’ensemble du système des Nations Unies cherche désespérément à numériser le monde. Le plus vite sera le mieux, il se peut que nous n’ayons pas assez de temps pour que nous, le peuple, nous réveillions en masse pour reprendre notre monde et nos vies avant qu’il ne soit trop tard.

    Le complexe financier, militaire, informatique, médiatique et pharmaceutique nomme la CNUCED

    Par conséquent, les Nations Unies, l’organisme politique sous le contrôle total de la cabale mondialiste (ouvertement dirigée par Washington), mais en réalité, par le puissant complexe financier, militaire, informatique, médiatique et pharmaceutique (FMIMPC) , a nommé l’un de ses sous-ministres. agents, la Conférence des Nations Unies sur le commerce et le développement (CNUCED) comme porte-drapeau – du moins pour l’instant – de l’assaut meurtrier de la toute-numérisation.

    La CNUCED – en dérogation flagrante à son mandat historique en faveur des pays en développement, à savoir du Sud global –, uniformisera les règles du jeu, comme on dit, au nom de l’ensemble du système des Nations Unies en annonçant dans un communiqué de presse à Genève le 15 novembre 2023 , sa e-Week du 4 au 8 décembre 2023, dans le cadre d’une refonte majeure de sa série annuelle de Semaines du commerce électronique qui a débuté en 2016.

    La Secrétaire générale de la CNUCED, Rebecca Grynspan , a déclaré :

    « L’économie numérique joue un rôle essentiel dans la promotion des objectifs de développement à tous les niveaux. Grâce à des discussions inclusives et multipartites, nous pouvons construire ensemble un avenir numérique mondial qui profite à tous.

    La tristement célèbre semaine électronique de la CNUCED s’appelle

    « E-Week 2023 de la CNUCED pour mobiliser un soutien mondial en faveur d’une économie numérique plus inclusive. »

    Sous-titré :

    « Plus de 3 000 parties prenantes de 130 pays examineront comment transformer les opportunités numériques en gains de développement partagés et réduire les fractures existantes pour un avenir durable. »

    Le texte du communiqué de presse regorge de slogans, de subtilités et de « non-sens » (discours insensés pour les « gnomes vendus aux systèmes »).

    Par exemple….

    « La conférence a pour thème «Façonner l’avenir de l’économie numérique ». Les sujets comprendront plus de 150 sessions axées sur la résolution des problèmes urgents liés à la numérisation. Les sujets clés porteront sur la gouvernance des plateformes, l’impact de l’intelligence artificielle (IA) sur le développement, les pratiques numériques respectueuses de l’environnement, l’autonomisation des femmes grâce à l’entrepreneuriat numérique et l’accélération de la préparation au numérique dans les pays en développement.

    Cette phrase d’introduction manque à peine d’un des jargons mondialistes dénués de sens, qui sont désormais courants et circulent dans l’esprit des gens, sans qu’ils réfléchissent à ce qu’ils signifient réellement.

    Attendez une minute, ils ont oublié le terme « durable ». Cela apparaîtra sûrement plus tard dans le texte.

    La CNUCED et le « terrain de jeu numérique »

    Personnes très importantes (VIP) présentes. Ils parlent également de plusieurs intervenants de haut niveau comme Amandeep Sing Gill , l’envoyé du secrétaire général de l’ONU pour la technologie ; Nizar Ben Neji , ministre tunisien de la communication et des technologies ; ainsi que Henry Puna , secrétaire général du Forum des îles du Pacifique ; et bien d’autres IT-VIP.

    Le potentiel de l’IA. Ils ne manquent pas d’ exploiter le potentiel de l’intelligence artificielle (IA) , rappelant au monde que le temps presse alors que le monde fait face aux incertitudes entourant les technologies émergentes, y compris l’adoption rapide de l’IA, qui révolutionne de plus en plus l’économie numérique.

    C’est clair : notre avenir, l’avenir du peuple, est conçu comme un avenir numérique. Et cela, sans aucune concertation. L’organisme des Nations Unies et ceux qui tirent ses ficelles envisagent de décider pour nous, le peuple. Mais seulement si nous les laissons faire.

    L’égalisation des règles du jeu numérique se concentrera sur les flux massifs de données provenant de l’économie numérique et appellera des réponses de gouvernance mondiale à la concentration du marché et à la répartition inégale des bénéfices.

    Ils affirment que plus de 70 % des revenus publicitaires numériques mondiaux sont reversés à seulement cinq plateformes numériques.

    Alors, que comptent-ils faire à ce sujet ? Rien. Car ces cinq plateformes numériques contrôlent déjà le monde – Alphabet, Amazon, Apple, Meta et Microsoft . Ces mastodontes contrôlent environ 9 000 milliards de dollars de communications informatiques. Et maintenant, ajoutez « X » (ancien Twitter ) et l’horizon du changement semble ultra sombre, surtout pas pour un organisme mineur de l’ONU, appelé CNUCED.

    Ce n’est de loin pas tout.

    À l’ordre du jour figure également un autre slogan : Exploiter la promesse numérique, qui prédit et promet que l’économie numérique basée sur les données recèle un vaste potentiel permettant aux pays de stimuler la croissance économique, de favoriser l’innovation et de réduire les obstacles géographiques et physiques au développement inclusif.

    Voici la cerise finale sur le gâteau :

    La numérisation pour le développement – ​​la plateforme de la semaine électronique de la CNUCED pour un dialogue constructif et inclusif vise à générer des idées et des actions qui peuvent alimenter les efforts mondiaux, en particulier le Pacte numérique mondial des Nations Unies en cours, visant à catalyser un avenir numérique ouvert, libre et sécurisé pour tous. , en vue du Sommet du futur de l’ONU de 2024 .

    Et pour tout cela, ils ont besoin de partenariats plus solides ; en particulier avec les multiples crises mondiales qui se déroulent sur les fronts géopolitiques, économiques et climatiques, les pays doivent prendre des décisions cruciales pour tracer la voie de la numérisation vers un développement équitable et durable .

    Ils parlent peut-être du pacte contraire à l’éthique et illégal de 2019 entre le Forum économique mondial (WEF) de Klaus Schwab et les Nations Unies, ainsi que des guerres et des conflits mondiaux sans raison provoqués par l’homme, du chaos et des meurtres, juste pour tenir la population à distance. confus et distrait.

    Ceci complète le slogan : l’équité et la durabilité ne sont pas oubliées.

    « Démanteler une société numérique »

    En lisant entre les lignes et au-delà des slogans et du jargon numérique de la propagande, il n’est pas difficile de constater que nous nous dirigeons de plus en plus rapidement vers l’asservissement numérique.

    Considérez ce que Tucker Carlson a dit dans une récente interview : il est facile de « détruire une société numérique ».

    Pensez-y.

    Si tout autour de nous est géré par des signaux numériques contrôlés par la « Cabale mondialiste » (à savoir le FMIMPC), un ou quelques interrupteurs peuvent désactiver nos différents réseaux :

    • approvisionnement en eau, électricité, gaz, énergies de toutes sortes,
    • approvisionnement alimentaire,
    • livraisons de carburant,
    • des signaux de trafic,
    • tous les transports,
    • toutes les communications,
    • l’argent sur nos comptes, et bien plus encore.

    Les gens mourraient comme des mouches. Il n’est pas nécessaire d’avoir une explosion nucléaire pour éradiquer la population mondiale, ni les soi-disant « mangeurs inutiles » (une citation de l’Israélien Yuval Noah Harari du WEF ), qui pourraient également mettre en danger ceux qui contrôlent les interrupteurs.

    Et nous, le peuple, serions complètement impuissants.

    À présent, il devrait être clair pour nous tous ce qui est progressivement et, à bien des égards, imperceptiblement préparé pour nous : Nous, le Peuple, sommes le « Mal pur ».

    C’est Nous qui sommes dans la Matrice. Les élites qui contrôlent les quelques commutateurs pour exécuter la fin du jeu sont en dehors de la matrice. Ils garderont leurs lignes d’approvisionnement ouvertes – de tout, dans l’espoir de vivre dans un paradis où nous, le peuple, ne possédons rien mais sommes heureux.

    Ils contrôlent à distance la Matrix. Nous, les gens autoproclamés « aux pilules rouges », pensions que nous étions à l’extérieur et que nous pouvions observer le chaos se créer à l’intérieur.

    C’est l’inverse.

    Ne vous laissez pas berner. Il s’agit d’une confrontation entre les élites puissantes, à savoir le complexe financier, militaire, informatique, médiatique et pharmaceutique (FMIMPC) et nous, le peuple , à savoir l’humanité agissant dans le monde entier à la base de la société.


    Peter Koenig est analyste géopolitique et ancien économiste principal à la Banque mondiale et à l’Organisation mondiale de la santé (OMS), où il a travaillé pendant plus de 30 ans à travers le monde. Il est l’auteur de Implosion – Un thriller économique sur la guerre, la destruction de l’environnement et la cupidité des entreprises ; et co-auteur du livre de Cynthia McKinney « When China Sneezes : From the Coronavirus Lockdown to the Global Politico-Economic Crisis » (Clarity Press – 1er novembre 2020).

    Peter est chercheur associé au Centre de recherche sur la mondialisation (CRG). Il est également chercheur principal non-résident de l’Institut Chongyang de l’Université Renmin de Pékin.


    L’image présentée provient de Children’s Health Defense.

    La source originale de cet article est Global Research
    Copyright ©Peter Koenig , Recherche mondiale, 2023

    Voir aussi à propos des ondes :
    Les effets des micro-ondes pulsées et des ondes électromagnétiques à très basse fréquence sur le cerveau humain ? Les gouvernements « classifient » régulièrement les informations relatives à la manipulation du système nerveux humain




    La fraude qu’est la virologie expliquée en 19 minutes

    [Source : LeLibrePenseur.org via Profession Gendarme]

    [Note de Joseph : en préambule, voici ci-après une petite présentation tirée d’un récent courriel écrit à destination d’une doctoresse pour répondre à une vidéo sur le virus du singe.

    Le prétendu virus du singe n’a pas plus été réellement isolé que les autres prétendus virus pathogènes.

    Les séquences génétiques prétendument virales contenues dans les banques informatiques de gènes ne sont que des séquences illusoires, obtenues suite à une mauvaise recette de cuisine (nommée « culture virale ») qui contient un mélange de cellules (celles de soi-disant « culture » — souvent des cellules VERO provenant de rein de singe vert —, celles d’embryon de bœuf, et divers composants génétiques en provenance des tissus prétendument infectés et qui peuvent aussi contenir n’importe quoi présent dans l’environnement de la personne chez qui ces tissus ont été prélevés, comme des cellules d’animaux domestiques) et différentes substances toxiques.

    De cette soupe on ne sort aucun virus réellement isolé, purifié et caractérisé chimiquement, mais on prélève, suite à une centrifugation, des bouts de tissus ou de cellules dont la densité correspond à celle du supposé virus. Et cerise sur le gâteau, à partir de ce méli-mélo génétique on procède au final à un séquençage informatique qui n’est qu’une moulinette logicielle tournée suffisamment longtemps pour arriver à reconstituer un puzzle génétique par collage de bouts de chaînes génétiques de plusieurs dizaines de codons, par invention des parties manquantes et par rabotage ou moyennage des parties qui ne collent pas bien pour les forcer à se raccorder et à coller au modèle génétique du supposé virus cherché dans la soupe. De plus, le modèle génétique viral est lui-même le résultat d’une opération similaire.

    Quand par une telle méthode informatique on reconstitue un pourcentage suffisant du puzzle (par exemple 99,7 %) on déclare avoir trouvé le virus cherché. Si le pourcentage est un peu trop bas, on déclare que l’on a découvert un « variant » du virus. On est dans la même logique que dans l’exemple suivant :

    On cherche le roman Germinal de Zola dans une bibliothèque contenant 10 000 livres. Pour cela on coupe les romans en morceaux pour en analyser les phrases (équivalent de bouts de code génétique, le livre lui-même étant le code génétique complet d’un virus qui serait effectivement isolé). On donne les millions de bouts de papier à un robot pour qu’il reconstitue le roman Germinal à partir du modèle présent dans la bibliothèque virtuelle logicielle. Étant plus rapide qu’un être humain, à partir d’un certain nombre d’heures, il finit par arriver à recoller les morceaux de papier déchirés et à rafistoler tant bien que mal 99,7 % du roman cherché, ceci en ajoutant des mots manquants et d’autres fois en rabotant des parties un peu trop grosses pour bien entrer dans les trous. Alors le robot déclare avoir trouvé Germinal dans la bibliothèque réelle. Pourtant, ce roman pourrait ne pas être présent dans la liste des ouvrages répertoriés et à aucun moment on ne s’en est assuré.

    À aucun moment les virologues n’effectuent les indispensables expériences de contrôle comme celle qui consiste à pratiquer la « culture virale » sans tissus prétendument infectés. Quand on fait une telle expérience (ce qu’a réalisé Stefan Lanka), on obtient exactement le même résultat sur les cellules de prétendue culture : elles meurent pareillement en délivrant des exosomes pris pour des virus pathogènes, alors qu’il n’y a aucun tissu en provenance d’un être humain. Elles meurent simplement et principalement à cause des poisons présents dans la soupe.

    Les virologues recourent à des raisonnements circulaires tels que le suivant. Ils supposent notamment la présence d’un virus dans le tissu supposément « infecté », obtiennent la mort des cellules de culture, et en déduisent que c’est ce virus qui a tué ces cellules. S’ils faisaient l’expérience de contrôle mentionnée ci-dessus, ils obtiendraient exactement la même mort des cellules de culture et pourraient ainsi constater que cette mort n’est pas due à la présence d’un supposé virus. Ils ont inventé les tests de supposés « anticorps » parce qu’ils ne parvenaient pas à trouver des virus chez les personnes malades qui pourtant d’après leur théorie devraient être envahies de virus. La présence de ces supposés « anticorps » était alors pour eux la preuve (indirecte) de la présence du virus chez le malade.

    Quant aux tests PCR, ils ne font que multiplier des chaînes génétiques non spécifiques (n’appartenant pas à un virus réellement isolé et purifié), en introduisant des erreurs à chaque cycle d’amplification. Et au final, on y cherche seulement des « amorces » supposées spécifiques au virus.

    Les virologues ne sont jamais parvenus à trouver Germinal (un virus pathogène donné, n’importe lequel) dans leur bibliothèque (chez un être humain ou un animal) et ils ont donc inventé des méthodes pour prétendre qu’il existait quand même. Alors que la virologie a été scientifiquement réfutée il y a près de 70 ans ! Les maladies dites « virales » ne sont jamais produites par des virus pathogènes, mais par d’autres causes. Dans la plupart des cas, y compris pour la grippe, il n’existe qu’une contagion apparente, les gens étant exposés à des causes communes (notamment le retour du froid) et aucune expérience scientifiquement valide n’a pu démontrer la moindre contagion naturelle à partir de personnes ou de matériel supposément infectés.

    Le dossier Vaccins et virus contient des informations complémentaires sous diverses formes, dont Un adieu à la virologie.

    Un des arguments qu’opposent les gens crédules de l’hypothèse virale est celui des labos P4 et des armes bactériologiques. Une réponse y est donnée dans l’article C’est l’heure du conte « Gain de Fiction »* avec RFK Jr. et ses amis !. Un autre argument est celui de se faire inoculer la rage ou le SIDA par exemple. Tout ce que l’on se ferait ainsi inoculer est une mixture empoisonnée, mais pas de virus qui n’ont jamais pu être réellement isolés, purifiés et caractérisés.

    Voir aussi :

    ]






    Compteurs Linky : « C’est un outil de contrôle des populations ! »

    [Source : Tocsin]

    Le Réseau National Anti-Linky porte un contentieux devant le Conseil d’État Avec Dominique Humbert, Président de Stop Linky-5G 88 et membre du Réseau National Anti-Linky.




    Le portefeuille d’identité numérique arrive, et avec lui, la prison européenne à ciel ouvert

    [Source : h16free.com]

    Par Hashtable

    Ah, l’Union Européenne, c’est une chose subtile qui a bien du mal à gérer des afflux d’immigrants clandestins, mais qui prétend, sans sourciller, réglementer les boîtes de camembert et qui, pour faire bonne mesure, entend construire la prochaine prison numérique à ciel ouvert sur tout le territoire européen.

    Une prison numérique à ciel ouvert ? Diable, n’est-ce pas un peu exagéré ?

    Il suffit en réalité de constater le niveau de frétillance élevé du Commissaire Breton pour comprendre que non : ce dernier a tout récemment annoncé, un sourire extatique vissé aux lèvres, que le Parlement et le Conseil européens étaient parvenus à un accord sur l’identité numérique européenne, la fameuse « #eID ». Avec elle, bientôt, toute personne vivant dans l’UE disposera bientôt d’un portefeuille numérique.

    La joie de ceux qui nous dirigent doit toujours alerter et lorsqu’elle concerne des factotums non élus, elle doit même déclencher une saine répulsion.

    Bien sûr, si l’on s’en tient aux petits textes acidulés de présentation du projet par les institutions européennes, tout est pour le mieux : la mise en place de ce portefeuille numérique ouvre les portes à de grandes et belles réalisations, facilitant la vie de tous dans des dizaines d’aspects différents. Exactement comme le « pass vaccinal » qui devait grandement faciliter la vie de ceux qui s’étaient fait injecter un produit mystère, ce nouveau « wallet » autorisera son porteur à réaliser toute une série d’opérations qui, sans lui, seraient un peu plus compliquées ou bureaucratiques.

    Ah oui, vraiment, ce « portefeuille numérique », ça va être commode, et ce sera plus sécurisé. Que c’est pratique !

    Mais voilà : comme une lecture attentive des textes de loi le laisse comprendre, ce « portefeuille numérique » contiendra effectivement tout ce que le gouvernement veut savoir sur vous, vos informations personnelles, vos données biométriques et médicales et, bien sûr, l’intégralité de votre patrimoine financier sous forme d’euros numériques, c’est-à-dire cette monnaie numérique de Banque Centrale (CBDC) dont les gouvernants ont la volonté qu’elle remplace complètement l’argent liquide à moyen terme.

    Or, ceci donnera aux administrations et surtout à ceux qui les dirigent, élus ou non, le pouvoir énorme de suivre vos moindres faits et gestes, de savoir exactement ce que vous faites avec l’argent qu’ils vous autoriseront (ou non) à avoir, voire flécher vos dépenses (ceci, vous y avez doit, cela, non), jusqu’à l’interdiction pure et simple dans les cas les plus graves (qui ne manqueront pas, c’est garanti sur facture).

    Avec ce « wallet », chaque gouvernement européen sera en mesure d’espionner à la fois ses propres citoyens et les résidents de l’Union Européenne sur leur sol en leur fournissant même les moyens techniques d’intercepter le trafic web crypté (oui, oui, il y a bien des dispositions en ce sens). Ceci ne signifie rien de moins que la fin de notre vie privée, et, en pratique, le début d’une prison à ciel ouvert pour les Européens.

    Il ne faut en effet pas être trop malin ni particulièrement doué pour comprendre les dérives possibles de ce genre de procédés. Après tout, un autre pays a devancé les frétillantes idées européennes, c’est la Chine : par l’utilisation quasi universelle de différents procédés — à commencer par l’application WeChat — la dictature communiste a très concrètement mis en place un contrôle social numérique, complet et efficace pour garantir la bonne soumission du peuple aux desiderata des dirigeants.

    Pour une Union européenne qui, ces dernières années, a donné tous les signes de virer vers l’autocratie collectiviste (le passage pandémique ayant largement accéléré ses velléités), la mise en place de ce « portefeuille numérique » est l’étape indispensable pour aboutir exactement au même résultat que la Chine communiste.

    Dans un premier temps, il s’agira de récompenser le bon citoyen, bien conforme, voire conformiste, en lui donnant accès à des procédures facilitées, à des aides ou des bonus alléchants. Petit à petit, les citoyens réfractaires ou simplement largués par les technologies afférentes se retrouveront dans la zone grise des demi-mesures, des arrangements bureaucratiques en attendant qu’ils s’adaptent ou qu’ils périssent. Enfin, l’étape ultime sera atteinte lorsqu’à la place de bonus, ce seront des sanctions et des punitions qui apparaîtront lorsqu’on refusera d’utiliser les passerelles technologiques alors officiellement imposées partout, pour tous.

    Présentées comme commodes et permettant de vous protéger (« c’est important, la sécurité, voyez m’ame Michu »), ces technologies seront largement incitées puis, rapidement, imposées et enfin sanctionnées en cas de non-utilisation ou de contournement.

    Bien sûr, quelques citoyens, des experts en sécurité informatique et même des parlementaires européens, conscients de l’énorme piège qui se met en place, ont déjà tenté d’alerter l’opinion publique. Les médias de grand chemin, fidèles à leur habitude d’aplatissement supersonique, de veulerie survitaminée et d’inutilité en or massif, se sont empressés de ne pas en parler, ou ont essentiellement classé les dérives potentielles dans la catégorie des « théories du complot », même si on les a pourtant observées avec le pass vaccinal…

    À en juger par les mines un peu trop réjouies des dirigeants européens à l’annonce d’un prochain vote favorable du Parlement européen, on comprend que les loups se pourlèchent déjà les babines du dîner de moutons qu’ils vont s’enfiler dans les prochaines années.

    Cependant, pour les ovins, l’affaire est certes mal enquillée, mais il n’est pas encore trop tard pour bien faire comprendre son désaccord.

    On pourra ainsi contacter son député européen (en retrouvant son e-mail ici) pour lui expliquer que ce genre d’abominations liberticides lui fera perdre son siège. Cela peut être étendu aux représentants locaux au niveau national. Après tout, ça changera les députés, les maires ou les sénateurs des demandes incessantes pour des subventions, des places en crèche ou des logements sociaux…

    L’expérience du pass vaccinal, tant national qu’européen, fut douloureuse et doit servir : quoi qu’il arrive, ne vous conformez pas. N’utilisez pas ce passeport numérique, véritable usine de pavés pour l’enfer à l’échelle continentale. Arrêtez le conformisme, ne suivez pas le troupeau, car sa funeste destination ne fait plus aucun doute.

    Pour ceux qui le peuvent, contournez-en l’usage : prétendez n’avoir aucun smartphone, refusez d’utiliser Internet pour vos interactions avec les administrations et à plus forte raison les entreprises privées (quitte à boycotter celles qui s’afficheront un peu trop volontaires dans le déploiement et l’usage de cette future prison numérique).

    De la même façon, rabattez-vous dès que possible sur l’argent liquide pour retarder l’avènement du système d’« argent numérique » et, si vous le pouvez, familiarisez-vous avec les cryptomonnaies et leur usage. Des collectifs existent pour vous y aider, contactez-les, entraînez-vous.

    L’identité numérique européenne arrive et le pire n’est pas à craindre : il est certain. Préparez-vous en conséquence.




    En France, la police nationale utilise illégalement un logiciel de reconnaissance faciale

    [Source : Disclose]

    Par Pierre Leibovici

    En 2015, les forces de l’ordre ont acquis, en secret, un logiciel d’analyse d’images de vidéosurveillance de la société israélienne Briefcam. Depuis huit ans, le ministère de l’Intérieur dissimule le recours à cet outil qui permet l’emploi de la reconnaissance faciale.

    C’est devenu une habitude. Ce mardi 14 novembre, comme ce fut le cas lors de l’édition précédente, Gérald Darmanin inaugure le salon Milipol, au parc des Expositions de Villepinte (Seine-Saint-Denis). Consacré à la sécurité intérieure des États, ce salon est une vitrine mondiale pour des entreprises souvent inconnues du grand public. C’est le cas de Briefcam, une société israélienne spécialisée dans le développement de logiciels destinés à la vidéosurveillance algorithmique (VSA). Grâce à l’intelligence artificielle, cette technologie permet d’analyser des images captées par des caméras ou des drones et de détecter des situations jugées « anormales ».

    Jusqu’en mai dernier, la VSA ne pouvait être utilisée par la police nationale que dans de très rares cas. Mais à l’approche des Jeux olympiques et paralympiques de Paris, le gouvernement est parvenu à faire adopter une loi au parlement qui autorise son expérimentation par la police nationale à une large échelle, et ce, jusqu’au 31 mars 2025. Face aux risques d’atteinte à la vie privée, les député·es ont néanmoins interdit le recours à la reconnaissance faciale, qui permet d’identifier une personne sur des images à partir des traits du visage. Un outil ultra-intrusif que certains logiciels commercialisés par Briefcam permettent d’activer en quelques clics. Et que les services de Gérald Darmanin connaissent bien.

    Un logiciel déployé au niveau national

    D’après des documents internes au ministère de l’Intérieur obtenus par Disclose, les forces de l’ordre utilisent les systèmes de Briefcam depuis 2015, dans le plus grand secret. Le logiciel en question, baptisé « Vidéo Synopsis », permet de traquer une personne sur un réseau de caméras grâce, par exemple, à la couleur de son pull. Il peut également suivre un véhicule à l’aide de sa plaque d’immatriculation ou examiner plusieurs heures de vidéos en quelques minutes. Le slogan de Briefcam, rachetée par le géant de la photo Canon en 2018 : « Transformer la vidéosurveillance en intelligence active ».

    Il y a huit ans, la direction départementale de sécurité publique (DDSP) de Seine-et-Marne est choisie pour expérimenter le logiciel israélien. Deux ans plus tard, en 2017, l’application est déployée plus largement. Les services de police du Rhône, du Nord, des Alpes-Maritimes, et de Haute-Garonne en sont à leur tour équipés. Ainsi que le service interministériel d’assistance technique (SIAT), une unité de police en charge des infiltrations, de la mise sur écoute et de la surveillance de la grande criminalité.

    « Il semble préférable de ne pas en parler »

    Un haut fonctionnaire de la police nationale

    Dans la foulée, ce sont les services de la police judiciaire, les préfectures de police de Paris et Marseille, la sûreté publique et la gendarmerie nationale qui vont être dotés du logiciel de Briefcam sur des ordinateurs dédiés. Une installation massive qui s’est faite en dehors du cadre légal prévu par une directive européenne et la loi française Informatique et Libertés.

    Avant d’utiliser une technologie aussi intrusive que celle proposée par Briefcam, le ministère de l’Intérieur aurait dû mener une « analyse d’impact relative à la protection des données » et la remettre à une administration indépendante : la Commission nationale de l’informatique et des libertés (CNIL). Or, la Direction générale de la police nationale (DGPN), placée sous l’autorité directe de Gérald Darmanin, n’avait toujours pas réalisé cette analyse d’impact en mai 2023. Pas plus qu’elle n’a averti la CNIL. Fin 2020, un cadre de la police invite ainsi à la discrétion : « Certains services ont l’outil Briefcam, mais celui-ci n’étant pas déclaré à la CNIL, il semble préférable de ne pas en parler ». Ou encore ce message envoyé quelques mois plus tard par un autre gradé, rappelant que :

    « Sur le plan juridique (…) l’application Briefcam n’a jamais été déclarée par la DGPN ».

    Contactée par Disclose, la CNIL déclare, embarrassée, qu’elle « ne dispose pas d’éléments permettant d’infirmer ou de confirmer que la police nationale utilise Briefcam. » La DGPN n’a pas répondu à nos questions.

    L’option reconnaissance faciale activable en quelques clics

    La popularité de Briefcam parmi les services de la police pourrait s’expliquer par l’utilisation hors de tout cadre légal d’une de ses fonctionnalités phares : la reconnaissance faciale. Celle-ci permet « de détecter, de suivre, d’extraire, de classer, de cataloguer » une personne en fonction de son visage, explique l’entreprise sur son site Internet. Et pour l’utiliser, rien de plus simple : il suffit de sélectionner « un ou plusieurs visages » avant de cliquer sur « le bouton reconnaissance faciale affiché à droite de la zone de lecture », comme l’indique le manuel d’utilisation transmis à Disclose par la Quadrature du Net, une association de défense des droits et libertés sur Internet. En quelques clics, le tour est joué.

    Cette possibilité offerte par Briefcam a d’ailleurs été mise en avant comme un véritable « plus » par le service en charge des outils technologiques au sein de la DGPN. Dans un courriel envoyé en novembre 2022, un haut gradé de la police explique que le logiciel possède des « fonctionnalités comme : les plaques d’immatriculation, les visages », mais aussi « des fonctionnalités plus “sensibles” » telles que la « distinction de genre, âge, adulte ou enfant, taille ». Il précise enfin que certains modules de l’application permettent de « détecter et d’extraire des personnes et objets d’intérêts a posteriori », mais aussi de faire de l’analyse vidéo en « temps réel ».

    Ce possible recours à la reconnaissance faciale inquiète au sein même de l’institution. Dans un « point de situation juridique » daté de mai 2023, un cadre de la direction nationale de la sécurité publique (DNSP) alerte en effet sa hiérarchie :

    « Quel que soit le logiciel utilisé (Briefcam en particulier), il est interdit de recourir à un quelconque dispositif de rapprochement de visage ou de reconnaissance faciale », en dehors d’un cadre légal strict.

    Briefcam équipe la police municipale dans près de 200 communes

    En France, la reconnaissance faciale n’est autorisée qu’à de rares exceptions. Elle peut s’inscrire dans le cadre d’enquêtes judiciaires ou administratives « sanctionnant un trouble à l’ordre public ou une atteinte aux biens, aux personnes ou à l’autorité de l’État », comme le souligne un rapport parlementaire d’avril 2023. Dans ce cas, les enquêteurs peuvent s’appuyer sur le TAJ, le traitement des antécédents judiciaires, qui comptait, en 2018, environ huit millions de fiches avec des photos de visages. L’autre cas où la reconnaissance faciale est autorisée concerne le système de passage rapide aux frontières extérieures (Parafe), soit les portiques de sécurité qui comparent le visage des voyageur·euses à leur passeport biométrique.

    Pourtant, selon une source bien informée au sein de la police nationale, la reconnaissance faciale de Briefcam serait activement utilisée. Sans contrôle ni réquisition judiciaire. « N’importe quel policier dont le service est équipé peut demander à recourir à Briefcam, en transmettant une vidéo ou photo », assure notre interlocuteur. La DGPN n’a pas donné suite aux questions de Disclose sur ce point. Quant à Briefcam, son directeur des ventes en Europe, Florian Leibovici, reste évasif :

    « Ce type de client reste confidentiel et nous n’avons que très peu d’informations sur la façon dont notre outil est utilisé ».

    La société Briefcam, créée en 2008 par trois enseignants de l’école d’informatique et d’ingénierie de l’Université hébraïque de Jérusalem, n’équipe pas seulement les forces de l’ordre françaises. D’après un document de présentation confidentiel obtenu par Disclose, Briefcam a assisté des services de police en Israël, aux États-Unis, au Brésil, mais aussi à Taïwan ou Singapour. Selon le centre de recherche indépendant Who Profits, Briefcam serait également utilisé par le ministère israélien du Logement pour surveiller des zones palestiniennes de Jérusalem-Est occupées par des colons.

    En France, « plus d’une centaine de villes » ont équipé leur police municipale avec l’application Briefcam, selon son représentant en Europe, Florian Leibovici. C’est notamment le cas de Nice, Roanne, Aulnay-sous-Bois, Perpignan ou Roubaix. Les algorithmes de Briefcam scrutent également les visiteurs du parc d’attractions du Puy du Fou et, bientôt, les élu·es de l’Assemblée nationale. Une implantation qui fait de la société l’un des leaders sur le marché hexagonal.

    Du côté du ministère de l’Intérieur, on ne semble pas disposé à se passer du logiciel israélien de sitôt. Avant l’été, la direction centrale de la sécurité publique (DCSP) a validé le renouvellement de la licence Briefcam pour les services de sûreté départementale du Rhône, du Nord et de Seine-et-Marne. Lesdites licences arrivent à échéance à la fin de l’année 2023. Pour continuer à les utiliser, la hiérarchie policière a pioché dans le « fonds concours drogue ». Une enveloppe, alimentée par les saisies liées au trafic de stupéfiants, qui doit normalement servir la lutte contre le trafic de drogue et la prévention contre les addictions.


    Enquête : Mathias Destal, Clément Le Foll, Geoffrey Livolsi
    Édition : Pierre Leibovici
    Photo de couverture : Briefcam




    Transhumanisme

    [Source : arcaluinoe.info]

    Par Scott Howard

    Bonjour à tous et merci d’avoir pris le temps de m’écouter aujourd’hui. Je remercie tout particulièrement Iurie Rosca d’avoir organisé cette conférence et de m’avoir invité à enregistrer un message pour vous tous. Mon intervention portera sur le thème de la vision de la classe dirigeante pour une soi-disant Grande Réinitialisation, motivée en grande partie par l’idéologie du transhumanisme. Je suis un auteur basé dans le Nebraska, auteur de trois livres, tous publiés par Antelope Hill : The Transgender-Industrial Complex [Le complexe industriel transgenre] (qui a été banni d’Amazon par une campagne de censure coordonnée menée par au moins une personne explicitement nommée dans le livre), The Open Society Playbook [Le guide de l’Open Society, ou Le guide de la société ouverte], et le texte le plus pertinent pour le thème de cette conférence, The Plot Against Humanity [Le complot contre l’humanité].

    Comme l’écrit Mark O’Connell dans son livre To Be a Machine [Être une machine] à propos des transhumanistes, « ils croient que nous pouvons et devons éradiquer le vieillissement comme cause de décès ; que nous pouvons et devons utiliser la technologie pour augmenter nos corps et nos esprits ; que nous pouvons et devons fusionner avec les machines, en nous refaisant nous-mêmes, finalement, à l’image de nos propres idéaux les plus élevés. » Selon un article de Robin McKie paru en 2018 dans The Guardian et intitulé « No death and an enhanced life: Is the future transhumanism? » [Pas de mort et une vie améliorée : l’avenir est-il au transhumanisme ?] :

    Les adeptes du transhumanisme envisagent un jour où les humains se libéreront de toutes les contraintes corporelles. [Ray] Kurzweil et ses disciples pensent que ce tournant sera atteint vers 2030, lorsque la biotechnologie permettra une union entre les humains et des ordinateurs et systèmes d’intelligence artificielle véritablement intelligents. L’esprit humain-machine qui en résultera sera libre de parcourir l’univers qu’il aura lui-même créé, en se téléchargeant à volonté sur un « substrat informatique suffisamment puissant ». Nous deviendrons des dieux.

    Ray Kurzweil a intitulé son livre de 2005 The Singularity is Near: When Humans Transcend Biology [La singularité est proche : quand les humains transcendent la biologie], dans le but exprès de faire référence au cri de Jean le Baptiste : « Le royaume des cieux est proche ». C’est en effet avec de telles prétentions messianiques que les maîtres de l’humanité autoproclamés s’apprêtent à refaire notre planète et notre biologie — quand ils ne se passent pas carrément de cette dernière. Ce n’est pas une coïncidence si l’Internet des objets (IoT — the Internet of Things) du Forum économique mondial, avec son vaste réseau de capteurs et la libre circulation de l’information, engendre par « nécessité » l’Internet de tous les objets (IoAT — the Internet of All Things), la mise en ligne d’un réseau global représentant le coup de grâce de l’humanité et — très probablement — de toute la matière vivante. L’IoAT pourrait bien, comme l’écrit Yuval Noah Harari dans son livre Homo Deus,

    s’étendre à toute la galaxie et même à tout l’univers. Ce système cosmique de traitement des données serait comme Dieu. Il sera partout et contrôlera tout, et les humains sont destinés à s’y fondre.

    Certains transhumanistes parlent déjà de l’être humain comme d’un organisme piratable, qui peut être commandé par l’algorithme et modifié d’innombrables façons. Selon Yuval Noah Harari, participant au Forum économique mondial et conférencier, « pirater un être humain, c’est apprendre à le connaître mieux qu’il ne se connaît lui-même. Le monde est de plus en plus découpé en sphères de collecte de données, de récolte de données… Il s’agit de données sur ce qui se passe à l’intérieur de mon corps. Ce que nous avons vu jusqu’à présent, ce sont des entreprises et des gouvernements qui collectent des données sur les endroits où nous allons, les personnes que nous rencontrons, les films que nous regardons. La prochaine étape sera la surveillance sous la peau. Il ajoute : « Il est certain que nous sommes arrivés à un point où nous avons besoin d’une coopération mondiale. On ne peut pas réguler le pouvoir explosif de l’intelligence artificielle au niveau national. » Nous serions bien avisés de lire entre les lignes et de reconnaître que lorsque Harari parle de réglementer, il faut entendre « utiliser ». En outre, faisant écho à Kurzweil, Harari déclare : « Ce n’est pas seulement une dystopie, c’est aussi une utopie. » Dans une vision de l’avenir, cela signifierait une bifurcation claire de l’humanité entre les dieux et les simples mortels. Dans un autre scénario potentiel, une superintelligence créée par l’homme pourrait surpasser ses capacités au point de rendre les humains obsolètes et de les éliminer complètement.

    Nous sommes, sans aucun doute, à l’aube d’un « meilleur des mondes », bouleversé par les forces libérées par la pandémie de Covid-19. Que le virus ait été libéré intentionnellement ou que les pouvoirs en place n’aient tout simplement pas voulu gaspiller une bonne crise n’a pas d’importance à ce stade ; ce qui est de la plus haute importance, c’est de savoir où nous sommes conduits, par qui et pourquoi. Le virus s’est avéré être la justification pour catalyser certaines choses et en accélérer d’autres qui se construisaient tranquillement dans l’ombre — mais pas tout à fait dans la clandestinité — depuis un certain temps. Une alliance impie — avec de nombreux recoupements — de technocrates, d’eugénistes, de collectivistes, d’occultistes, de déviants et de transhumanistes forme le noyau de ce qui est considéré comme la classe dirigeante permanente de l’humanité, à condition qu’elle ne précipite pas la disparition de l’espèce telle que nous la connaissons ou qu’elle ne la précipite pas tout court.

    Dans Le complot contre l’humanité, mon point de départ a été l’exploration du réseau de contrôle et de ses objectifs à travers les interconnexions profondes de l’establishment du Covid avec les gouvernements, les universités, les organisations non gouvernementales (ONG) bien financées, les sociétés privées et la haute finance, y compris les entités qui permettent aux gouvernements de surveiller les citoyens et d’imposer un conformisme dans les attitudes et les comportements. Ces tendances sont de plus en plus évidentes dans tout l’Occident et sont particulièrement bien accueillies par la gauche politique. Il est clair que ces « élites » voient dans la crise du Covid une occasion en or de renforcer le contrôle et le conformisme, non seulement dans les sociétés occidentales, mais aussi dans le monde entier. Bien que la question de savoir s’il s’agira d’un bloc mondial continu, de deux ou plusieurs factions concurrentes ou d’un autre scénario reste ouverte, dans tous les cas prévus, le résultat sera une perte totale de vie privée, d’individualité, de sens et, très probablement, de notre humanité même.

    Il existe de multiples voies par lesquelles cette issue pourrait se produire, allant d’un conflit et d’un bouleversement mondial massifs, faisant apparaître soudainement comme acceptables, en comparaison, les alternatives au transhumanisme qui seraient autrement peu agréables pour de nombreuses personnes, à la lente descente vers une course de limaces accros à la dopamine de l’avenir. Peu importe, on nous promet que cet avenir sera glorieux et utopique. Malgré l’apocalypse climatique imminente dont on nous rebat les oreilles, les « élites » promettent néanmoins d’avoir transformé la Terre en un paradis édénique d’ici à 2030. Toutes les institutions qui montent à bord du train 2030 sont des institutions telles que les Nations Unies et leurs diverses filiales, le Groupe de la Banque Mondiale, l’OTAN, le Forum Économique Mondial, un grand nombre de gouvernements nationaux, et la liste est encore longue. Le Sierra Club décrit l’année 2030 dans sa Vision stratégique 2030 en ces termes : « Elle est destinée à fournir un récit cohérent sur notre vision, nos valeurs et nos priorités ». Le récit est assez cohérent, car pratiquement toutes les institutions dignes d’intérêt sont constamment sur la même longueur d’onde : justice sociale, changement climatique, pandémies, droits des transgenres. Comme l’a écrit Steve MacFeely dans un document d’analyse de la politique internationale de novembre 2018 de Friedrich Ebert Stiftung intitulé « L’Agenda 2030 : Un défi statistique sans précédent » :

    Début 2016, les Objectifs de développement durable (ODD) de l’Organisation des Nations unies (ONU) ont remplacé les Objectifs du millénaire pour le développement (OMD), en place depuis le début du siècle… Ces 17 objectifs et leurs 169 cibles sont universels, intégrés et transformateurs. Ils s’appliquent à toutes les nations et couvrent l’ensemble du programme de développement durable : la pauvreté, le développement humain, l’environnement et la justice sociale.

    L’internet des objets (IoT), la quatrième révolution industrielle et la grande réinitialisation sont des concepts qui doivent leur genèse ou leur popularisation au Forum Économique Mondial (FÉM) et à son fondateur et président exécutif, Klaus Schwab. L’IoT est, selon Alexander S. Gillis, « un système de dispositifs informatiques interconnectés, de machines mécaniques et numériques, d’objets, d’animaux ou de personnes qui sont dotés d’identifiants uniques (UID) et de la capacité de transférer des données sur un réseau sans nécessiter d’interaction d’humain à humain ou d’humain à ordinateur. » Pour Devon McGinnis de Salesforce, la quatrième révolution industrielle est « une façon de décrire l’effacement des frontières entre les mondes physique, numérique et biologique. C’est une fusion des progrès de l’intelligence artificielle (IA), de la robotique, de l’Internet des objets (IoT), de l’impression 3D, du génie génétique, de l’informatique quantique et d’autres technologies », y compris la blockchain. Enfin, le Great Reset est une initiative du FÉM lancée en juin 2020 capitalisant sur la pandémie de Covid-19 qui lie explicitement le « rétablissement » de la pandémie aux différents éléments constitutifs de la quatrième révolution industrielle ; pour Schwab, « le monde doit agir conjointement et rapidement pour réorganiser tous les aspects de nos sociétés et de nos économies, de l’éducation aux contrats sociaux en passant par les conditions de travail. Chaque pays, des États-Unis à la Chine, doit participer, et chaque industrie, du pétrole et du gaz à la technologie, doit être transformée. En bref, nous avons besoin d’une “grande remise à zéro” du capitalisme ». En d’autres termes, le monde d’avant doit disparaître. L’ère précédente — le néolibéralisme — touche rapidement à sa fin et cède la place à l’ère transhumaniste et bionumérique. Par le biais de diverses idéologies qui se croisent et de leurs applications, nous sommes dirigés vers une ruche bionumérique. Si tout cela vous semble un peu conspirationniste, c’est bien le cas. Mais toutes les conspirations ne sont pas de simples « théories » ou de la fiction sauvage.

    À la fin de mon premier livre, The Transgender-Industrial Complex, j’ai intentionnellement élargi le champ d’application pour illustrer le fait que, malgré l’endoctrinement auquel nous sommes soumis afin de nous rendre toujours plus spécialisés et plus généralement inutiles, les « maîtres de l’humanité » ne sont pas cloisonnés ; leur projet est global, et le transgendérisme n’est qu’un aspect des efforts déployés pour refaire (ou défaire, selon le cas) complètement l’Humanité. Qu’il s’agisse d’ingénieurs informatiques ou d’ingénieurs sociaux, il existe une croyance générale selon laquelle, si nous parvenons à construire le bon système, nous pourrons enfin tout avoir. C’est le rêve terrestre utopique qui n’est en fait guère plus qu’une illusion, comme il l’a toujours été. La classe dirigeante est enragée dans sa foi en le transhumanisme, et possédée par sa ferveur religieuse, elle vise à convertir le monde entier par tous les moyens nécessaires.

    Dans mon deuxième livre, The Open Society Playbook, j’ai schématisé exactement comment la structure du pouvoir « ouvre » une société au féminisme, à l’immigration de masse, aux « droits » des LGBTQ, et à tout ce que nous reconnaissons comme destructeur pour le tissu d’une société saine et fonctionnelle. La société ouverte est permissive à l’égard de tout ce qui est contraire à ses anciennes valeurs fondamentales et à son peuple, arborant un visage souriant alors qu’elle vous poignarde dans le dos. C’est l’une des principales caractéristiques de l’ère du néolibéralisme, avec son confort moelleux tout au long de la marche vers l’atomisation. Plus de choses, moins de sens, et un lent broyage constant de l’individu et de la communauté — et en particulier de la famille. C’est ainsi que l’Occident est arrivé au point d’inflexion de 2020 et qu’il s’est avéré largement incapable d’opposer une résistance appréciable aux abus auxquels nous avons été continuellement soumis. Si vous ne comprenez pas ce qui est bien, vous ne pouvez pas comprendre ce qui est mal, surtout si le mal porte des gants. Atomisée et terrifiée, une telle population est très facile à contrôler — et si elle croit que la plus grande vertu est de soutenir ce qui la détruit, c’est encore mieux.

    [Voir aussi :
    L’atomisation de l’Homme et de l’Humanité]

    Bien qu’il n’y ait pas d’uniformité totale dans la mesure où il existe des sous-ensembles au sein de l’establishment qui se disputent la position d’hégémon ultime avec des visions parfois concurrentes, l’orientation générale reste uniforme dans son soutien aux politiques nocives qui ont été au cœur du néolibéralisme, de l’ouverture des frontières à l’érosion des libertés civiles en passant par l’accumulation de vastes quantités de richesses dans un nombre de plus en plus restreint de mains. Pour les transhumanistes, alors que le mondialisme se transforme en confinements, en scores de crédit social et en injections forcées, nous ferions bien de nous rappeler que ces mains sont les architectes de ce système et les bénéficiaires évidents ; les seuls vrais désaccords portent sur la manière dont ils se répartiront le pouvoir, sur qui occupera le sommet et sur la forme que prendra l’Humanité elle-même. Il s’agit d’un processus long et progressif, et la création d’une « société ouverte » avec un terrain fertile pour la suite est une étape essentielle dans l’agenda de sa mise en œuvre en Occident et dans le monde entier.

    Étant donné la nature relativement brève de cet exposé, je n’ai pas pu l’approfondir de manière exhaustive, mais j’espère sincèrement vous avoir donné une idée de la menace existentielle à laquelle nous sommes confrontés sous la forme de cet agenda et de l’idéologie du transhumanisme. Si vous accordez de l’importance à la liberté et à la souveraineté humaine — si vous croyez que vous avez une âme et qu’elle a de la valeur — alors il vous incombe de résister à cet agenda de toutes vos forces. Nous devons tous le faire. Je vous remercie de m’avoir accordé votre temps et je vous souhaite bonne chance.






    Le Cancer revisité

    [Source : wissenschafftplus.de numéro Juillet-Septembre 2023]

    [Traduction : Jean Bitterlin]

    Par le Dr Stefan Lanka

    Diagnostic du cancer et peur

    Diagnostic de cancer et anxiété, veuillez résoudre les deux

    La peur primitive de son propre corps, qui sommeille inconsciemment chez l’être humain depuis des siècles et qui s’est développée au fil de l’histoire, est particulièrement forte lors des diagnostics de cancer. À cause de ces diagnostics, les gens croient que le mal qui sommeille dans leur corps s’est réveillé et qu’il est devenu plus fort que ce qui est sain.

    Le cancer apparaît comme une confirmation de la prophétie. Les traitements mortels sont acceptés. La souffrance et la mort qui en résultent sont la preuve finale. Rien n’est remis en question. Les personnes concernées, les familles, l’entourage, désormais la majorité de la population, s’identifient à leurs bourreaux. Le syndrome de Stockholm. C’est la raison pour laquelle la dictature des partis fonctionne. [Dans l’esprit des gens] Seul l’État peut lutter contre le cancer et les épidémies. Autrefois, on gouvernait avec une violence ouverte, aujourd’hui avec une violence cachée. Ce faisant, la majorité effrayée à mort, aujourd’hui 70 % (de la population — NDT), ne veut pas voir, par gratitude pour ses soi-disant protecteurs, que nous sommes gouvernés via le lobbying = corruption par des personnes qui n’ont jamais été élues.

    Revenons à la biologie : dans le cas des diagnostics de cancer, contrairement aux allégations d’épidémie, il faut ajouter que la personne concernée se sent toute seule, totalement isolée et « exposée ». Cela va toujours « aux reins », c’est souvent la seule cause de décès. Si le rein se « ferme », le taux de filtration est augmenté pour retenir l’eau, l’élixir de vie central. Les symptômes et les douleurs peuvent ainsi augmenter jusqu’à devenir insupportables. La mort survient alors sous l’effet de la drogue légale.

    À retenir : apprenez à connaître la biologie réelle avant de vous faire piéger par des diagnostics mortels.

    Conseil : les symptômes qualifiés de cancer ont un sens biologique comme tous les autres symptômes. Ils peuvent nécessiter un traitement et devenir dangereux si les situations de choc persistantes sous-jacentes (« conflits biologiques ») persistent pendant de longs mois, années et avec une grande intensité. Il faut, comme pour tous les symptômes, que la phase « conflictuelle » soit courte, que le conflit sous-jacent soit résolu. La guérison qui s’amorce alors en 0,5 à 12 heures doit être accompagnée de manière judicieuse, avec des mesures appropriées, des médicaments, des analgésiques, afin de ne pas stopper ou chroniciser la guérison.

    Cancer et métastases —Un deuxième diagnostic fatal

    Après un premier diagnostic « Cancer », de plus en plus de personnes remettent en question les diagnostics et les propositions de traitement. Après le deuxième diagnostic, c’est-à-dire l’affirmation que le cancer s’est propagé, presque tous abandonnent. Pourquoi ? Le deuxième diagnostic est perçu comme la preuve que le premier diagnostic, le pronostic et les recommandations thérapeutiques étaient corrects : Le mal est devenu super-méchant et s’est mis à pérégriner.

    Le premier diagnostic provoque souvent d’autres « conflits biologiques ». Grâce aux examens les changements physiques qui en résultent deviennent visibles. Celui qui est « frappé » par ce diagnostic, par exemple parce qu’il pense qu’il ne peut plus se nourrir, a une croissance dans le foie. En cas de peur de la mort, les poumons réagissent. En cas d’effondrement de l’estime de soi, ce sont les os. En cas d’effondrement de l’estime de soi qui touche la personnalité, ce sont les vertèbres lombaires. Etc., pp.

    Comme toutes les modifications du corps s’accompagnent toujours de signaux spécifiques aux endroits correspondants dans le cerveau, celui qui sait reconnaît que, où et pourquoi il y a une croissance ou une dégradation accrue dans le corps. Le médecin conventionnel est contraint, par sa vision purement matérielle, d’interpréter ces signaux dans le cerveau comme des métastases. Les métastases n’ont jamais été détectées. Elles sont les virus des oncologues. Cette calamité, sous sa forme actuelle, a commencé en 1858.

    À retenir : la connaissance est le plus grand guérisseur, l’ignorance est la cause de tous les problèmes (sagesse de l’Inde ancienne).

    Conseil : en plus de la biologie réelle, intériorisez notre histoire. Vous trouverez ainsi une sécurité supplémentaire, car vous comprendrez d’où viennent et se sont développées les idées de malignité dans le corps. Depuis 2003, j’en parle avec beaucoup d’autres dans le magazine WissenschafftPlus.


    La mort de Dirk Hamer

    En raison de l’actualité :
    Le roi qui n’en a jamais été un.
    La mort de Dirk Hamer sur Netflix. Une prise de conscience résultante pour la bénédiction de tous les êtres humains.

    Netflix présente un documentaire sur les raisons de la mort de Dirk Hamer. Il a été touché par une balle tirée par le prince héritier d’Italie et a succombé plus tard à ses blessures. La balle était destinée à quelqu’un d’autre ou devait dissuader ou punir ce dernier et son groupe de voyage en bateau à moteur. Des membres du groupe de touristes avaient auparavant insulté gravement le prince héritier et sa famille dans un restaurant de luxe, ce qui n’apparaît pas dans ce documentaire, et ils avaient volé sa chaloupe et ne l’avaient pas ramenée.

    Sur le plan pénal, le prince héritier, qui faisait entre autres le commerce d’armes de guerre lourdes, n’a pas été sanctionné, contrairement à tous les faits et à la loi. Il a cependant admis plus tard, ce qui a été documenté par un enregistrement vidéo, avoir atteint Dirk Hamer avec une balle de son fusil. Suite à la mort de son fils Dirk, son père, le génie exceptionnel et médecin Dr Ryke Geerd Hamer, a développé un cancer des testicules. Il a reconnu le « cancer » comme une réaction « psychosomatique » au « choc conflictuel biologique » de la mort de son fils.

    Au moyen de la technique du scanner cérébral CT (NdT : CT pour tomographie assistée par ordinateur), le Dr Hamer a pu prouver que toutes les « maladies », à l’exception des carences et de l’intoxication, et notamment les modifications psychiques, ne sont pas malignes ou défectueuses, mais qu’il s’agit de programmes biologiques spéciaux judicieux, en abrégé SBS (NdT : SBS pour Sinnvolle Biologische Sonderprogramme). Ces SBS aident la personne concernée à survivre dans une situation existentielle et s’inversent lorsque les conflits biologiques ou les traumatismes sont effectivement résolus ou transformés mentalement en quelque chose de neutre ou de positif.

    La quintessence : dans la biologie réelle, le mal, « l’incurable » et les porteurs de défauts matériels comme les virus n’existent pas. La biologie réagit toujours de manière sensée, toujours en symbiose, toujours en se tournant vers la préservation et le développement = l’amour. Plus encore : si je connais ma biologie, je me comprends, je comprends l’autre et je ne porterai plus de jugement. C’est une condition préalable au revirement et au pardon, à la capacité de paix de l’être humain. C’est ce que Dirk Hamer nous a offert à tous. Par sa souffrance, sa mort et par son père. Deux pour tous. Trois, car un grand merci et un grand respect reviennent à la sœur de Dirk, Birgit Hamer, qui a obtenu la justice avec un engagement total et qui diffuse avec ce documentaire la connaissance essentielle de son père, grâce à laquelle beaucoup de choses peuvent être déduites d’elles-mêmes.

    À retenir : les connaissances libérées par la mort de Dirk permettent la rédemption du mal dans le domaine de la médecine et au-delà.

    Conseil : Offrez-vous la joie de vivre et la confiance en comprenant et en dissipant les peurs injustifiées. Pour cela, recherchez sur Internet les détails du système de connaissance du Dr Ryke Geerd Hamer, avant que le complexe numérique-financier n’entrave ou n’empêche encore plus, par le biais de « l’IA », la découverte de ces connaissances.

    Foi et santé
    Comment cela fonctionne-t-il ?

    Du point de vue de la biologie réelle, l’influence positive de la foi sur la santé est bio-logique. Si JE me sens désiré, intégré dans l’information et l’énergie, libre, avec des tâches à accomplir dans la vie, je peux plus rapidement résoudre de fait des expériences menaçantes pour mon existence (= conflits biologiques), les transformer mentalement vers le bas ou les dissoudre que quelqu’un qui se sent comme un assemblage de molécules créé par hasard. La phase conflictuelle se raccourcit, l’intensité du vécu diminue et, par conséquent, la durée et le degré de plainte de la phase de rétablissement (« maladie »).

    Cela peut aller au point que, par exemple, les brûlures, les marches sur les braises, les effets des radiations, etc. ne laissent aucune trace. Dans le tableau de la « biologie réelle » du Dr Ryke Geerd Hamer, on voit toutes les zones du corps et des organes listées, dans quel type de « conflits biologiques » elles réagissent et de quelle manière. Comme non seulement il ne suffit pas d’un événement, mais d’un mot, pour lancer un « programme », c’est-à-dire des changements et des symptômes significatifs, il est prouvé :

    Il existe dans chaque partie du corps une intelligence qui comprend les mots et le contexte et qui a la capacité d’augmenter ou de diminuer des structures et des fonctions matérielles très complexes : pour permettre à l’homme de survivre même dans des situations extrêmes. Cet ensemble de potentialités informationnelles, énergétiques et matérielles est l’esprit actif. Cet esprit est-il aussi devenu notre « chair » ?

    À retenir : le corps est le traducteur de l’âme dans le visible. Christian Morgenstern

    Conseil : « Croire et faire confiance » est la formule la plus courte qui soit efficace. Elle est signée Bruno Gröning.

    [Voir aussi :
    Une autre vision du cancer
    et
    La Nouvelle Biologie]




    Gates produira beaucoup plus de mal que de bien avec son IA

    [Source : anguillesousroche.com]

    Un rapport du BMJ prévient que l’incursion de la Fondation Gates dans le domaine de « l’IA pour la santé mondiale » produira beaucoup plus de mal que de bien

    Une critique familière à l’égard de la Fondation Gates.

    L’« initiative IA » de la Fondation Gates est examinée et critiquée de divers points de vue. Aujourd’hui, un trio d’universitaires a donné son point de vue sur l’utilisation controversée de l’IA pour faire progresser la « santé mondiale ».

    Cette réaction, rédigée par des chercheurs de l’université du Vermont, de l’université d’Oxford et de l’université du Cap, semble avoir été motivée par une annonce faite au début du mois d’août.

    À l’époque, la Fondation Gates a fait savoir au monde entier qu’elle mettait en place un nouveau programme, d’une valeur de 5 millions de dollars, destiné à financer 48 projets dont la tâche était de mettre en œuvre des modèles de langage à grande échelle (LLM) « dans les pays à faible revenu et à revenu intermédiaire afin d’améliorer les moyens de subsistance et le bien-être des communautés à l’échelle mondiale ».

    Chaque fois – et cela fait maintenant plusieurs fois – que la Fondation choisit de se présenter comme le « bienfaiteur » des « pays à revenu faible ou intermédiaire » (c’est-à-dire les pays non développés ayant peu de recours pour se protéger de nombreuses choses, y compris l’apparent complexe du « sauveur » de Bill Gates), les observateurs critiques de l’organisation et des « expériences » de son fondateur se sentent quelque peu, voire beaucoup, mal à l’aise.

    Mais les sentiments sont une chose et les faits scientifiques, espérons-le, en sont souvent une autre, et le document, dont l’essentiel est disponible dans un article, pose la question suivante : la Fondation Gates essaie-t-elle de « sauter les inégalités mondiales en matière de santé » ?

    Comme on dit dans le sud des États-Unis, l’anatomie d’une grenouille est-elle étanche ?

    Mais en langage scientifique, l’initiative annoncée le 9 août est très probablement un autre projet de la Fondation Gates qui, tout en faisant toutes les bonnes promesses – améliorer la vie et le bien-être des gens dans le monde entier, en particulier des pauvres ou de ceux qui frôlent la pauvreté (et donc évidemment très vulnérables, en particulier à un « altruisme » douteux) -, pourrait donner des résultats très différents.

    L’étude ne mâche pas ses mots. Extrait d’un article connexe :

    « Il y a au moins trois raisons de croire que l’imposition sans entrave de ces outils dans des systèmes de prestation de soins de santé déjà fragiles et fragmentés risque de faire beaucoup plus de mal que de bien. »

    « La recherche s’intéresse ensuite à la nature même de l’”IA”, c’est-à-dire à l’apprentissage automatique. Si vous introduisez des données biaisées ou de mauvaise qualité dans une machine qui est censée “apprendre”, vous en obtiendrez une reproduction, peut-être même pire qu’avant », expliquent les auteurs.

    Ainsi, si nous devons croire ce que font de nombreux chercheurs et activistes, à savoir que « le monde et l’économie politique qui le gouverne sont structurellement racistes », à quoi peut-on s’attendre comme résultat de l’apprentissage de l’« IA », à partir de cet énorme ensemble de données particulier ?

    Et puis, une autre raison « de s’opposer au déploiement inconsidéré de l’IA dans la santé mondiale », selon ce document, « est l’absence presque totale de réglementation et de contrôle réels et démocratiques – une question qui s’applique à la santé mondiale de manière plus générale ».

    On ne s’attendrait pas nécessairement à ce que des scientifiques s’expriment aussi profondément, mais c’est pourtant ce qu’ils font :

    « En fin de compte, les bords durs et tranchants du capital, du commandement et du contrôle sont entre les mains d’un très petit nombre d’entités et d’individus, notamment la société Microsoft elle-même, qui a investi plus de 10 milliards de dollars dans l’OpenAI. »

    Comment dit-on “mic drop”(([1] Un mic drop est le fait de lâcher son micro à la fin d’une performance ou d’un discours jugé particulièrement réussi par la personne qui l’a réalisé. Utiliser l’expression (initialement afro-américaine) « mic drop » est une façon de clore une discussion au sens propre ou figuré avec confiance et arrogance.)) – en langage scientifique ?

    Lire aussi : Un responsable africain s’en prend à Bill Gates et George Soros : « Mon continent n’est pas votre laboratoire climatique géant »

    Source : Reclaim The Net – Traduit par Anguille sous roche




    Pour certains, le consensus fait office de vérité

    [Source : ripostelaique.com]

    Par Jean Saunier

    Monsieur ARN messager commente :

    « Une grande majorité de Français sont favorables à la contraception, à l’avortement et à l’euthanasie et c’est très bien comme cela ».

    Autrement dit, le consensus fait office de vérité, l’opinion majoritaire sert l’évidence, sans discussion, sans argument.
    De même, les Français ont peur du Covid, pandémie mortelle, et acceptent toutes les mesures sanitaires : port du masque, tests de dépistage, injections répétées. Pourtant des scientifiques remettent en cause et démontrent l’inutilité et les dangers de ces mesures.

    De même, les Français ont peur du réchauffement climatique, déplorent les causes anthropiques de ce phénomène, et adoptent les solutions dites écologiques : voitures électriques, éoliennes, panneaux solaires. Pourtant, des scientifiques affirment le rôle bénéfique du CO2 et dénoncent les méfaits de ces solutions.
    De même, les Français approuvent les réformes sociétales liées à la théorie du genre : mariage homo, éducation à la sexualité, LGBTisation de la société, transgenrisme, sexualisation des enfants, propagande homosexuelle dans les écoles, procréation artificielle, transhumanisme. Pourtant, des scientifiques expliquent que ces réformes sont contraires à l’ordre naturel.

    Mais relativement à ces sujets, une pensée unique idéologique impose sa vision de tous les problèmes qui se posent. Plus de contestation possible. Plus de débat constructif. Une seule vérité, une vérité absolue. Les Français acculturés, matraqués, conditionnés, endoctrinés, se comportent comme des moutons, allusion aux moutons de Panurge mis en scène par Rabelais dans le Quart Livre en 1552. Panurge, compagnon de Pantagruel, jette un mouton à la mer, et le troupeau entier suit ce mouton, emportant sur son passage le marchand Didenaud qui s’est moqué de Panurge et le reste de l’équipage.

    De plus en plus, les Français se comportent ainsi, en « suiveurs », c’est-à-dire suivent l’opinion générale sans chercher à se forger une critique propre, suivent la majorité sans se poser de questions. Cette attitude peut entraîner une submersion générale de la population française, comme la noyade des moutons de Panurge.
    Le programme transhumaniste a d’abord porté sur l’espèce humaine et les races, c’était l’eugénisme. Ses promoteurs sont tous issus de la libre pensée et de la franc-maçonnerie.

    Herbert Spencer, philosophe anglais (1820-1903), ajoute à la loi de l’évolution celle de la « survie du plus apte », en 1864. Au sein de l’espèce humaine, la sélection naturelle s’opère par la concurrence entre personnes, sociétés ou races, ce qui assure l’élimination des plus faibles et le triomphe des plus aptes, et engendre le progrès.
    Thomas Huxley, grand-père de Julian et de Aldous (1825-1895), et Ernst Haeckel, biologiste allemand, eugéniste radical, favorable au suicide et à l’euthanasie (1834-1919), développent toute une philosophie moniste autour de l’évolutionnisme. Philosophie fondée sur l’idée d’une continuité et d’une unité fondamentale de la nature organique et de la nature inorganique, sur l’abolition des frontières entre le végétal et l’animal, entre l’animal et l’humain. Philosophie qui reconnaît l’animalité humaine et n’accepte pas la naturalité de l’homme tel qu’il existe. Haeckel fut membre de la Ligue pangermaniste, et de la Société allemande d’hygiène raciale qui contribuèrent toutes deux à la doctrine nazie.

    En France, Clémence Royer, fondatrice de l’obédience maçonnique Droit humain (1830-1902), introduit l’eugénisme radical. Elle traduit L’origine des espèces de Darwin et dénonce les « représentants déchus ou dégénérés de l’espèce ».
    Paul Robin, anarchiste proche de Bakounine, pionnier de l’éducation libertaire, eugéniste (1837-1912), fonde en 1896 une Ligue pour la Régénération humaine qui promeut la contraception, l’avortement et la liberté sexuelle. Il souhaite œuvrer à l’émergence d’une « nouvelle race, scientifiquement tant améliorée » que disparaîtraient tous les « résidus d’une fausse civilisation ». Pour lui, le respect « de la chasteté, de la pureté, est le dernier lambeau le plus résistant à la destruction des doctrines métaphysiques qui ont toujours opprimé les humains ».
    Charles Richet, prix Nobel de médecine en 1913 et vice-président de la Société française d’eugénisme (1850-1935), préconise « l’élimination des races inférieures et des anormaux ».

    Tous sont persuadés d’avoir découvert la vérité du progrès humain, comme les genristes, les libertaires, les avorteurs, les transhumanistes d’aujourd’hui. Tous détestent le christianisme et son ordre naturel. Tous dénoncent le caractère antinaturel de la charité envers les faibles.

    Margaret Sanger, fondatrice du Planning familial (1879-1966), veut séparer la sexualité et la procréation, elle dit en 1922 : « aucun espoir de progrès n’est possible tant que l’on n’atteint pas une nouvelle conception du sexe, qui ne soit pas simplement un acte procréatif, une nécessité biologique pour la perpétuation de la race humaine, mais un mode d’expression psychique et spirituelle ».
    Le contrôle de la procréation a donc une double finalité. Finalité eugénique : « prévenir la naissance de ceux qui transmettraient une imbécillité à leur descendance ». Finalité spirituelle : « un instrument de libération et de développement humain ».
    Pour Margaret Sanger, « par le sexe, l’humanité peut atteindre la plus grande illumination spirituelle qui va transformer le monde, qui va illuminer l’unique chemin vers un paradis terrestre ». Toujours cette illusion millénariste et socialiste de paradis terrestre.

    Julian Huxley, premier directeur de l’UNESCO, théoricien de l’eugénisme (1887-1975), milite également pour la diffusion de la contraception et de l’avortement, comme moyens de limitation des naissances des êtres « inférieurs ». Il recommande d’agir sur la sexualité, en la stérilisant, et aussi sur la procréation, en la sélectionnant. N’est-ce pas ce qui se passe aujourd’hui ? Les injections géniques n’ont-elles pas pour fonction entre autres de stériliser la jeunesse ? L’avortement généralisé n’opère-t-il pas une sélection de l’espèce humaine ?

    Pour Julian Huxley, « toutes sortes de possibilités pourraient émerger » si la société adoptait le système recommandé par Hermann Müller consistant à « séparer les deux fonctions de la sexualité et de la reproduction » et d’utiliser pour la procréation les gamètes de « quelques mâles hautement doués ». Cette séparation améliorerait non seulement la race humaine, mais rendrait les relations sociales plus altruistes, car moins marquées par la concurrence sexuelle, à l’instar des sociétés de fourmis ou d’abeilles. Les vœux de Huxley n’ont-ils pas été exaucés ? La procréation artificielle et le choix des gamètes ne sont-ils pas mis en œuvre par une certaine caste ? Quant aux relations sociales plus altruistes, on risque d’attendre longtemps.

    Hermann Müller (1899-1965), chimiste suisse, prix Nobel en 1948, proposa la création d’une banque de sperme dans le but de collecter et de diffuser les semences d’hommes supérieurs. En 1936, il proposa à Staline de contribuer et d’employer cette banque de sperme pour régénérer la population de l’URSS. Avec de telles références, on peut évidemment vulgariser et propager l’avortement, accréditer les thèses relatives à l’euthanasie et à l’eugénisme. Les idéologues
    mondialistes n’ont-ils pas pour mission de régénérer l’humanité ?

    La « Ligue mondiale pour la réforme sexuelle », fondée en 1928, milite à la fois pour la contraception, l’eugénisme, et l’acceptation « des personnes sexuellement anormales ». D’où le lien entre eugénisme et révolution sexuelle. Margaret Sanger, les héritiers de Paul Robin, Julian Huxley, figurent parmi les membres et les soutiens de cette fondation. Peu après, ces individus s’engagent dans des mouvements en faveur de la légalisation de l’euthanasie. Beaucoup d’entre eux sont issus des sociétés eugénistes. Ils veulent dominer la vie. IIs veulent transcender l’ordre naturel.

    La contraception permet de séparer la sexualité de la procréation, c’est le premier degré.
    La fécondation in vitro permet de séparer la procréation de la sexualité, c’est le deuxième degré.
    La gestation d’avec le corps, gestation par utérus artificiel, appelée ectogenèse, conçue en 1923 par le généticien britannique John Burdon Sanderson Haldane (1892-1945), n’est pas encore réalisée à ce jour, mais est préparée dans des laboratoires, et par la diffusion de sa forme « artisanale », la Gestation pour Autrui, GPA. C’est le troisième degré.

    Julian Huxley, John Burdon Sanderson Haldane, et Hermann Müller se connaissaient bien. En 1939, ils ont cosigné un « manifeste des généticiens » recommandant aux gouvernements d’adopter « une sorte d’encadrement conscient de la sélection » pour rendre possible une amélioration génétique des générations futures.
    Julian Huxley, président de la fondation de l’Union internationale humaniste et éthique, a donné un nom à cette vision prométhéenne de l’humanité, le « transhumanisme », et l’a déclarée « religion de l’avenir ». Humaniste, éthique, ces beaux mots enveloppent l’idéologie eugéniste.
    Eugénisme : il faut cacher ce mot à la connotation nazie répulsive.

    Günthers Anders, philosophe allemand (1902-1992), appelle ce phénomène « la honte prométhéenne ». Un sentiment de faiblesse s’empare de l’homme quand celui-ci compare sa condition biologique à la toute-puissance de la machine. L’homme serait dépassé par sa création, il souhaiterait devenir lui-même une machine. Mais qui est cet homme qui se sent réellement honteux face à ses propres prouesses techniques ? En quoi cette honte pourrait-elle l’aider à surmonter sa condition pour adopter la condition d’une machine ?

    Aldous Huxley, frère de Julian, et petit-fils de Thomas, a exposé cette perception dans le Meilleur des mondes. Il n’a rien inventé, il a écouté ses proches.
    Ces grandes figures ont eu des héritiers, que l’on trouve principalement au sein de la franc-maçonnerie : Pierre Simon, Henri Caillavet, Jean-Louis Touraine, Macron.
    Le 14 octobre 2019, lors d’une conférence à l’école Polytechnique, Laurent Alexandre exprime sa vision de l’homme :

    « … En revanche, vous dans cette salle, vous allez vivre un âge d’or, et nous devons créer une société inclusive… Ce que Harari appelle des dieux et des inutiles, les dieux, vous, qui maîtriserez, contrôlerez, managerez les technologies transhumanistes, et les inutiles, les gens moins favorisés, qui auront du mal dans le monde compliqué dans lequel nous rentrons… »

    « La protection de la planète et la prétendue lutte contre le changement climatique sont des arguments utilisés depuis des années par certaines agences et certaines personnes très puissantes pour vendre la nécessité de réduire la population mondiale et de répandre l’avortement et la contraception… »

    Le monde des Harari, Alexandre, Attali, Macron, est le monde de l’avortement, de l’euthanasie, du transhumanisme, donc de l’eugénisme. Un monde inhumain, barbare, insensible, monstrueux, sanguinaire. Des Français déculturés, manipulés, éduqués, formatés, ayant perdu tout sens de la morale et de l’humanité se rapprochent de ce monde.
    Avortement dans certains cas ciblés, oui, mais quelles sont les conséquences de l’avortement popularisé pour la mère, pour le fœtus, pour la population ?
    Soins palliatifs pour les personnes en fin de vie, oui, mais l’euthanasie légalisée produira des abus incontrôlables.
    En tout cas, ces pratiques relèvent d’un eugénisme intolérable.

    L’erreur est-elle utile à la découverte de la vérité ? Oui assurément. Mais si l’erreur est multiple, la vérité est une. Le dialogue donne lieu à l’approche de la vérité, mais les gaucho-mondialistes refusent l’échange et ne connaissent que l’insulte. En fait, la vérité absolue est inaccessible, hors de portée.




    L’« Identité numérique » de Bill Gates sera obligatoire pour participer à la société

    [Source : The Exposé]

    Par Patricia Harrity

    Le 8 novembre 2023, un événement de lancement virtuel a eu lieu pour ce qui a été appelé l’agenda « 50 en 5 ».

    Les Nations Unies, la Fondation Bill et Melinda Gates et des partenaires de la Fondation Rockefeller lancent une campagne visant à accélérer le déploiement de l’identification numérique, des paiements numériques et du partage des données dans 50 pays sous l’égide de l’infrastructure Publique Numérique (IPN) d’ici 2028. (Source)

    Le Programme des Nations unies pour le développement (PNUD) a annoncé son intention de mettre en place des « cartes d’identité numériques » dans le monde entier d’ici à 2030. Ces cartes seront obligatoires pour les personnes qui souhaitent participer à la vie de la société, affirme Reclaim the Net, qui défend la liberté d’expression et la liberté individuelle en ligne,

    Système de crédit social

    Le mouvement en faveur de l’Infrastructure Publique Numérique (IPN), qui comprend les « cartes d’identité numériques », les passeports vaccinaux et les monnaies numériques des banques centrales (CBDC), est défendu par le Forum Économique Mondial (FÉM) et, sans surprise, soutenu par Bill Gates, les Nations unies et l’Union Européenne (UE).

    Tim Hinchliffe, rédacteur en chef de The Sociable, déclare : « Les partisans de l’IPN sont convaincus qu’il est essentiel pour la participation aux marchés et à la société — tout comme nous l’avons vu avec les passeports-vaccins — mais à une échelle beaucoup plus large ». « Si elle réussit, l’IPN donnera aux gouvernements et aux entreprises le pouvoir de mettre en œuvre des systèmes de crédit social qui peuvent déterminer où et comment vous pouvez voyager, ce que vous êtes autorisé à consommer et comment vous pourrez effectuer des transactions avec votre argent programmable. »

    « Pensez aux traqueurs d’empreinte carbone individuels, aux zones à très faibles émissions (ULEZ) et aux CBDC programmées pour restreindre les achats “moins souhaitables” — tous ces éléments sont mis en avant par les partisans de la grande réinitialisation ». (Source)

    La campagne « 50 en 5 »

    La campagne « 50 en 5 » se présente comme « une campagne de sensibilisation menée par les pays. D’ici à 2028, la campagne “50 en 5″ aura aidé 50 pays à concevoir, lancer et mettre à l’échelle des éléments de leur infrastructure publique numérique », selon l’annonce officielle. Les 50 pays sont désignés comme des bancs d’essai mondiaux (cobayes) et les IAP seront d’abord mis en place en Afrique (subsaharienne, en particulier) et en Inde, mais l’objectif est de déployer les cartes d’identité numériques à l’échelle mondiale d’ici 2030 pour inclure tous les citoyens des États membres des Nations unies, selon Planet Today.

    La campagne « 50 en 5 » est aussi, sans surprise, une collaboration entre la Fondation Bill et Melinda Gates, le Programme des Nations unies pour le développement, l’Alliance pour les biens publics numériques et Co-Develop. Co-Develop a été fondé par la Fondation Rockefeller, la Fondation Bill et Melinda Gates, Nilekani Philanthropies et le réseau Omidyar. La Digital Public Goods Alliance cite les fondations Gates et Rockefeller dans sa feuille de route qui présente des « activités qui font progresser les biens publics numériques », ainsi que d’autres organisations et plusieurs gouvernements. (Source)

    L’IPN est présentée comme un mécanisme d’inclusion financière, de commodité, d’amélioration des soins de santé et de progrès écologique, mais il s’agit d’une « expression globale appliquée à un système de gouvernance technocratique imminent alimenté par trois composants fondamentaux : l’identification numérique, les paiements numériques tels que les monnaies numériques des banques centrales (CBDC), et le partage massif de données ».

    Le Forum Économique Mondial

    Le FÉM a publié une série d’articles en septembre, poussant essentiellement à l’application de l’IPN et, bien sûr, le FÉM est là pour « penser aux enfants » comme les meilleurs d’entre eux, « Les droits des enfants dans le monde peuvent être stimulés en investissant dans les infrastructures publiques numériques », a déclaré une légende dans un article publié le 18 septembre 2023, intitulé@ :

    « Deux tiers des objectifs de développement durable liés à l’enfance ne sont pas en passe d’être atteints : Voici pourquoi nous devons investir dès maintenant dans l’infrastructure publique numérique ».

    « 2023 marque la mi-parcours de la réalisation des objectifs de développement durable (ODD) des Nations unies », nous rappelle le FÉM, cette mi-parcours « est l’occasion “d’évaluer et de recalibrer” les efforts visant à réaliser les droits de chaque enfant, partout », et à sept ans seulement de l’objectif 2030, deux tiers des indicateurs liés à l’enfance ne sont pas en passe d’atteindre leurs cibles, selon un nouveau rapport de l’UNICEF Pour chaque enfant, un avenir durable.

    • 1,9 milliard d’enfants laissés pour compte — Si les progrès récents se poursuivent, seuls 60 pays, qui abritent à peine 25 % de la population infantile, auront atteint leurs objectifs d’ici à 2030, laissant pour compte environ 1,9 milliard d’enfants dans 140 pays.
    • Le monde d’aujourd’hui ne semble pas en mesure d’atteindre les objectifs ambitieux que nous avons fixés pour les enfants en 2015.
    • Faim — Le monde est revenu à des niveaux de faim jamais atteints depuis 2005, et les prix des denrées alimentaires restent plus élevés dans un plus grand nombre de pays que pendant la période allant de 2015 à 2019.
    • Les enfants manquent de compétences fondamentales — Dans le domaine de l’éducation, les données montrent que 600 millions d’enfants et d’adolescents n’acquièrent pas les compétences fondamentales en lecture et en mathématiques et que 11 millions d’enfants supplémentaires âgés de 10 ans n’ont pas ces compétences.

    La « solution » au « problème » ? Le « problème », selon le FÉM, a été la pandémie, bien sûr, qui a « aggravé la situation », et l’infrastructure publique numérique est la « solution », car elle a été identifiée comme une « transition clé nécessaire pour accélérer l’action et les résultats des ODD pour les enfants d’ici à 2030 ».

    Protéger les « droits ou la sécurité des enfants » est une tactique déjà utilisée par les mondialistes non élus, tout en promouvant un système technocratique qui supprimera en fait les droits de tous les individus, y compris les enfants.

    Reclaim the Net, dit en substance que « l’IAP est un mot à la mode utilisé de manière quelque peu intéressante et alarmante par des organisations telles que l’ONU, mais aussi l’Union Européenne (UE), la Fondation Gates et, bien sûr, le Forum Économique Mondial (FÉM) qui n’est jamais tout à fait absent de ce tableau.

    « Ce que les IAP sont censés faire, dans le meilleur des cas, c’est aider le développement de plusieurs façons. Toutefois, ceux qui s’intéressent de plus près aux platitudes et au “langage d’entreprise” émanant de ces organisations rejettent le terme et la politique comme une ruse visant à accélérer l’introduction des cartes d’identité et des paiements numériques, dont l’échéance est fixée à 2030. »

    Ils concluent : « Si vous êtes citoyen d’un État membre de l’ONU, que votre gouvernement (c’est-à-dire vos contribuables) contribue à divers efforts de l’ONU et que vous vous sentez soit mal à l’aise, soit insuffisamment informé à ce sujet, eh bien, tant pis pour vous. Ils vont quand même continuer ». (Source)




    Le désastre économique des voitures électriques

    [Source : fr.irefeurope.org]

    VOITURE ÉLECTRIQUE : 213 149 EUROS DE PERTES PAR EXEMPLAIRE VENDU ! QUI DIT MIEUX ?

    Par Nicolas Lecaussin

    Ça devait être l’avenir de la voiture. Et c’est toujours un objectif pour nos États. Le sera-t-il encore demain ? Les mauvaises nouvelles à propos de la voiture électrique se multiplient. Elle ne fait plus recette sauf auprès de certaines catégories de la population, surtout les plus aisées. Car son coût ne cesse d’augmenter. Selon les dernières données publiées par le Wall Street Journal, Ford Motor Co. a perdu 62 016 $ (58 027 euros) sur chaque véhicule électrique vendu au cours du troisième trimestre. Rivian, un autre constructeur américain, spécialisé dans les camions, les camionnettes et les SUV électriques, a affiché une perte de 30 648 $ (28 676 euros) par véhicule vendu. C’est énorme, mais (presque) rien par rapport à ce que vient d’annoncer Lucid Motors, le constructeur d’automobiles électriques de luxe basé en Californie : il a perdu 227 802 $ (213 149 euros) par voiture vendue au cours du dernier trimestre ! D’ailleurs, Lucid a déclaré une perte nette de 630,9 millions de dollars (590,3 millions d’euros) sur le même trimestre et ses dirigeants ont réduit les prévisions de production.

    On ne peut pas obliger les gens à acheter des voitures électriques. Comme on ne peut pas forcer non plus les constructeurs à en fabriquer malgré les subventions qui leur sont accordées. C’est leur survie qui est en jeu, car lorsque les ventes ne suivent pas, les pertes sont colossales. Mieux vaut arrêter cette fuite en avant. Les consommateurs décideront de la suite.

    NICOLAS LECAUSSIN

    Directeur de l’IREF, Nicolas Lecaussin est diplômé de Sciences-po Paris, ancien président de l’IFRAP (Institut Français de Recherche sur les Administrations Publiques), fondateur de l’association Entrepreneur Junior et auteur de plusieurs ouvrages sur le capitalisme, l’Etat et les politiques publiques. Auteur et co-auteur de plusieurs ouvrages dont : Cet État qui tue la France (Plon, 2005), L’absolutisme efficace (Plon, 2008), Au secours, ils veulent la peau du capitalisme ! (First Editions, 2009), A quoi servent les riches, coauteur avec Jean-Philippe Delsol (Lattès, 2012), L’obsession antilibérale française (Éditions Libréchange, 2014), Anti-Piketty, coauteur avec Jean-Philippe Delsol (Éditions Libréchange, 2015), Echec de l’Etat, coauteur avec Jean-Philippe Delsol (Éditions du Rocher, 2017), Les donneurs de leçons (Éditions du Rocher, 2019).




    La vision mondialiste : Les villes-prisons « 15 minutes » et la fin de la propriété privée

    [Source : alt-market.us]

    Par Brandon Smith

    En règle générale, je constate que chaque fois que le public examine de près un programme particulier promu par les gouvernements et les mondialistes, sa première réaction est de s’indigner, un peu comme le ferait un narcissique lorsqu’il prépare un mauvais coup et qu’il se fait prendre :

    « Comment osez-vous mettre en doute leurs intentions et suggérer qu’ils pourraient être malfaisants ? Comment osez-vous suggérer qu’ils sont autre chose qu’aimants et bienveillants ? Nos “dirigeants” n’ont jamais voulu que le meilleur pour nous, n’est-ce pas ? Ils veulent seulement que nos vies deviennent plus sûres, plus confortables et plus pratiques — c’est ce qui motive vraiment l’élitiste moyen, n’est-ce pas ? »

    De toute évidence, l’Histoire nous raconte un récit bien différent, et je suis stupéfait lorsque quelqu’un essaie d’affirmer que les choses sont différentes aujourd’hui par rapport à il y a 100 ans, 300 ans ou 1000 ans. Il n’y a rien de nouveau sous le soleil. Il y aura toujours des tyrans qui tenteront de gagner de plus en plus de pouvoir et ces tyrans mentiront toujours au public en prétendant qu’ils sont des gens bien qui ont nos intérêts à cœur.

    Lorsque cela ne fonctionne pas et que les citoyens restent sceptiques, les tyrans passent à l’attaque, accusant le public de « théorie du complot ». L’objectif est de se moquer des libres penseurs et de leur faire honte en les réduisant au silence. Pourquoi risquer d’être mis au ban de la société ? Pourquoi risquer de devenir un mème ?

    Cette tactique repose sur l’idée que les grands médias et les fonctionnaires représentent le courant dominant, et donc qu’ils représentent la majorité, et que la majorité représente la réalité. Rien de tout cela n’est vrai ou pertinent, bien sûr. Seuls les faits comptent. La sophistique n’a pas de sens. Les opinions n’ont pas de sens. La vérité devrait être le but, et si ce n’est pas le but de quelqu’un, c’est qu’il est un pourvoyeur de mensonges et qu’il ne doit pas être pris au sérieux. Il n’y a que deux voies à suivre, il n’y a pas d’entre-deux.

    J’admets que l’accusation de « théorie du complot » a une certaine valeur, car chaque fois que ceux de l’establishment l’utilisent, c’est un signe certain que vous êtes trop près de la cible et qu’ils deviennent nerveux. Ils pourraient simplement essayer d’exposer les preuves qu’ils pourraient avoir pour démontrer que votre position est erronée, mais ils ne le font pas vraiment. Au lieu de débattre de vos arguments et de vos preuves, ils essaient de vous décrédibiliser en tant que critique valable et de vacciner le public contre vos idées avant même qu’il n’ait eu l’occasion de les entendre. C’est le comportement des méchants, et non celui des dirigeants bienveillants et attentionnés.

    Si je mentionne cette dynamique, c’est parce qu’il y a un programme qui prime sur tous les autres et qui est agressivement défendu par les médias de l’establishment, et que toute personne qui le remet en question de près ou de loin est automatiquement persécutée en tant que « conspirationniste » ou « négationniste ». Je parle bien sûr de l’agenda du changement climatique.

    J’ai complètement démenti l’idée d’un changement climatique d’origine humaine dans des articles précédents et je ne m’attarderai pas sur ce sujet ici. Au lieu de cela, je veux examiner l’objectif final des politiques de lutte contre le changement climatique — la solution ultime, qui n’est PAS de sauver la planète, mais de dominer la population.

    Les noms utilisés pour la « réinitialisation » du changement climatique varient, mais les mondialistes et l’ONU y font souvent référence sous le nom d’Agenda 2030 ou d’Objectifs de développement durable. Ces programmes portent une façade d’environnementalisme, mais ils sont TOUS enracinés dans l’économie. En d’autres termes, tous les efforts de lutte contre le changement climatique visent à détruire l’industrie et le commerce et à établir un partenariat entre le gouvernement et les entreprises pour dominer la production. Le changement climatique est un cheval de Troie pour introduire l’autoritarisme.

    Je pense que l’un des aspects les plus importants de l’Agenda 2030 pour les mondialistes est ce que l’on appelle la « ville de 15 minutes », un projet qui implique des centaines de maires de villes des États-Unis, d’Europe et d’Asie travaillant en étroite collaboration avec des groupes tels que le Forum Économique Mondial. Dès que cette idée est évoquée de manière négative, les médias se déchaînent avec colère et moquerie, comme s’il ne s’agissait pas d’une question réelle méritant d’être débattue.

    L’establishment brosse un tableau intéressant des villes de 15 minutes — un avenir utopique dans lequel tout ce dont vous avez besoin se trouve à une courte distance de marche et où les transports privés sont superflus (ou interdits). Vous pourriez même vivre dans un méga-complexe, un peu comme un centre commercial géant où vous travaillez également. Vous pourriez passer des mois dans un espace d’un kilomètre carré, sans jamais avoir à sortir pour quoi que ce soit.

    Ce n’est pas un hasard si cette idée a été poussée à fond pendant les périodes de confinement de la pandémie. Le public a été inondé d’une propagande de peur à propos d’un [supposé] virus dont le taux de survie était de 99,8 %, et cette peur a rendu l’idée impensable de rester chez soi en permanence tout à fait envisageable. Les experts des médias continuent de qualifier de théorie du complot le lien entre les confinements Covid et les confinements climatiques, mais l’idée est ouvertement admise dans les livres blancs des Nations unies et du Forum Économique Mondial (FÉM [ou WEF pour World Economic Forum, en anglais, NDT]).

    Certains affirment que la plupart des villes sont déjà des « villes de 15 minutes », où les produits de première nécessité sont tous accessibles à pied. Ces personnes ne comprennent pas ce qu’est réellement une ville de 15 minutes. Comme le soulignent de nombreuses descriptions du projet, il ne s’agit pas seulement de commodité ou de proximité, mais de changer tous les aspects de notre philosophie de vie actuelle. Il ne s’agit pas de gagner en confort, mais de faire toute une série de sacrifices pour apaiser les dieux des émissions de carbone.

    La ville de 15 minutes ressemble davantage à une recette, contenant tous les ingrédients des programmes de lutte contre le changement climatique et d’enfermement des covidés dans une seule vision orwellienne globale. Cela inclut la suppression des véhicules à moteur, la suppression des transports privés et des routes, la ville intelligente et la surveillance par l’IA de la consommation d’électricité de chaque personne, la surveillance de la consommation de produits et de l’« empreinte carbone », la surveillance biométrique au sein d’un paysage urbain compact et empilé, le concept de société sans argent liquide, le culte de l’équité et de l’inclusion, le contrôle de la population, etc.

    C’est le point culminant, le jeu final ; une prison massive sans barreaux. Un endroit où l’on vous conditionne à vous habituer à des limitations artificielles de la vie privée, à l’absence de libertés civiles, à l’absence de propriété privée et à l’absence d’options de travail ou de mobilité. Vous êtes lié à la terre et la terre appartient à l’État (ou à une société). Si vous voulez une comparaison historique, la plus proche que je puisse trouver est le système féodal de l’Europe médiévale [selon l’idée (fausse, d’après certains historiens) que se font les gens de la vie au Moyen-Âge, NDT].

    Dans ces villes, vous êtes un mécanisme de travail, rien de plus. Vous ne serez jamais autorisé à posséder votre propre propriété et donc votre propre travail. Tout ce que vous possédez vous est donné par l’État et peut vous être retiré si vous le défiez. Vous pourrez peut-être quitter le village ou la communauté à laquelle vous êtes lié pendant un certain temps, mais cela changera avec les restrictions croissantes imposées aux mouvements du public en fonction des dictats de l’idéologie climatique.

    Tant que vous êtes productif et soumis, on vous donnera ce dont vous avez besoin pour survivre, mais jamais pour vous épanouir. Dans le cas d’un système féodal technocratique, vous n’auriez aucune garantie que l’État ait besoin de vos services. Dans l’Europe féodale, au moins, le paysan était considéré comme une ressource précieuse en raison de sa population limitée. Dans un monde où de nombreuses personnes sont considérées comme un « excès de population », vous pourriez facilement être remplacé et expulsé de la ville pour mourir de faim.

    En 2016, le Forum Économique Mondial a publié un document intitulé « Bienvenue en 2030. Je ne possède rien, je n’ai aucune vie privée et la vie n’a jamais été aussi belle ». L’article était destiné à promouvoir un concept appelé « économie de partage », qui a été présenté pour la première fois à la presse à Davos. L’article décrit un avenir « hypothétique » dans lequel un système communiste a mis fin à toute propriété privée au nom de la sauvegarde de la planète contre le changement climatique. Les avantages ? Comme dans tous les systèmes communistes, le mensonge consiste à dire que l’on travaillera moins et que la plupart des choses seront gratuites. C’est ainsi que les idéaux collectivistes sont vendus à la population depuis des générations et cela ne fonctionne JAMAIS comme le prétend l’establishment.

    Le WEF fait la promotion de l’économie de partage depuis des années, mais lorsqu’elle s’est généralisée et a été largement critiquée comme étant dystopique, les médias ont une fois de plus enclenché l’interrupteur de la « théorie du complot » et ont attaqué toute personne exposant les implications.

    De nombreuses plateformes ont publié l’article en 2016, mais beaucoup l’ont retiré depuis (Forbes semble avoir effacé sa copie publiée, par exemple). Elles font comme si l’agenda n’avait jamais existé, probablement parce que l’article contient des aveux révélateurs, notamment une allusion au concept de ville de 15 minutes. Extrait de l’article :

    « Ma plus grande préoccupation concerne toutes les personnes qui ne vivent pas dans notre ville. Ceux que nous avons perdus en chemin. Ceux qui ont décidé que c’était trop, toute cette technologie. Ceux qui se sont sentis obsolètes et inutiles lorsque les robots et l’IA ont pris en charge une grande partie de nos emplois. Ceux qui se sont énervés contre le système politique et se sont retournés contre lui. Ils mènent des vies différentes en dehors de la ville. Certains ont formé de petites communautés autonomes. D’autres sont restés dans les maisons vides et abandonnées des petits villages du XIXe siècle.

    De temps en temps, je m’agace du fait que je n’ai pas de véritable vie privée. Je ne peux aller nulle part sans être enregistré. Je sais que, quelque part, tout ce que je fais, pense et rêve est enregistré. J’espère seulement que personne ne l’utilisera contre moi ».

    En d’autres termes, les mondialistes imaginent un avenir où les libres penseurs mécontents et les personnes remplacées par l’IA sont des parias, menant une existence insignifiante dans les friches de l’ancien monde. Pour rester dans le giron du nouveau monde, vous devrez renoncer à toute liberté, même à la liberté de pensée. Gardez à l’esprit que cet article était censé être une promotion « positive » de l’économie de partage et des villes 15 minutes. Pourtant, cet extrait ressemble davantage à une menace.

    Il est important de comprendre que ces villes compactes ne seront pas conçues pour votre confort. Elles ne seront pas conçues pour que vous puissiez avoir toutes les commodités dont vous disposez aujourd’hui à portée de main tout en assurant la « durabilité ». C’est ce que les mondialistes essaient de vendre, mais ce n’est pas ce qui se passera. Ces villes seront plutôt conçues pour mieux vous CONTRÔLER, afin de vous forcer à faire les sacrifices qu’ils disent nécessaires pour que la durabilité soit possible.

    Elles sont présentées à tort comme des « communautés décentralisées », mais c’est exactement le contraire : elles sont totalement centralisées, comme une cage de hamster dont vous êtes l’animal de compagnie. La philosophie de base de ces communautés est la dépendance. Si vous vivez dans un endroit spécialement conçu pour éliminer votre capacité à subvenir à vos besoins, vous êtes un esclave. Bien entendu, même l’esclavage peut paraître noble si les gens sont convaincus que leurs chaînes sont nécessaires pour le bien de la planète.




    Pourquoi tous les « virus » proviennent-ils des laboratoires ?

    [Source : @TheAmir]

    L’histoire de la « fuite du laboratoire » du COVID-19 est diffusée sur les plateformes grand public depuis le début de l’année 2020.

    Cependant, de nombreux membres de la communauté dite « de la liberté » présentent l’histoire comme une dissimulation de haut niveau. Ils affirment que la recherche est devenue incontrôlable et que des « agents pathogènes artificiels » sont en liberté.

    Cependant, sur quelles preuves s’appuient ces affirmations ?
    Comprennent-ils vraiment les articles essentiels de virologie sur le « gain de fonction » ?

    Dans cette vidéo, nous verrons pourquoi tous les « virus » proviennent de laboratoires, mais [aussi] pourquoi vous n’avez rien à craindre.

    Samantha Bailey



    References




    Les leaders mondiaux de l’éolien en difficulté : « Le Titanic éolien coule sous nos yeux ! »

    [Source : epochtimes.fr]

    Par Nathalie Dieul

    Les principaux acteurs de l’éolien connaissent de grandes difficultés. Le leader mondial, le danois Orsted, a perdu 25 % de sa valeur en bourse mercredi 1er novembre en une seule matinée. Le repli de son action est de 55 % dans la dernière année. Du côté du numéro deux mondial, l’allemand Siemens Energy a perdu 33 % en juin 2023 et tout récemment encore 25 % de capitalisation boursière.

    « La filière éolienne danoise, la filière éolienne américaine, la filière éolienne occidentale connaît un krach boursier sans précédent », affirme au micro de Sud Radio Fabien Bouglé, expert en politique énergétique et auteur de Guerre de l’énergie : au cœur du nouveau conflit mondial. »

    L’expert a fait des calculs. Depuis 2020, les quatre principaux fabricants européens et américains d’éoliennes ont connu ensemble 15 milliards de perte. « Le Titanic éolien coule sous nos yeux », en conclut Fabien Bouglé.

    La chute d’Orsted, numéro un mondial

    Orsted avait prévenu que l’entreprise connaissait des difficultés. Dans la nuit précédant le 1er novembre, elle a annoncé qu’elle abandonnait deux énormes projets de fermes éoliennes offshore, Ocean Wind 1 et Ocean Wind 2, dans le nord-est des États-Unis. Dès la matinée, le titre perdait déjà un cinquième de sa valeur en bourse. À la clôture de la séance, Orsted avait perdu 25 % de sa valeur, précise Boursorama.

    Les actions du numéro un de l’éolien offshore ont atteint leur plus bas niveau depuis 6 ans, indique Les Échos. Le repli de l’action est de 55 % sur un an.

    Alors que l’entreprise avait prévu perdre deux milliards de dollars à cause des projets Ocean Wind 1 et 2, elle est revenue sur ses prévisions. C’est finalement une perte deux fois plus importante qui a été annoncée, soit quatre milliards de dollars (3,7 milliards d’euros), explique Philippe Escande, éditorialiste économique au Monde, interrogé par David Jacquot de Boursorama.

    Le cours de l’action de la star de l’éolien a ainsi été divisé par six depuis janvier 2021.

    L’hécatombe chez Siemens Energy

    La situation est tout aussi catastrophique pour le numéro deux mondial, Siemens Energy. Alors que l’Allemagne était le pays pilote en matière d’énergies renouvelables, la filière éolienne allemande s’effondre à la bourse, avec une perte de 80 % de capitalisation boursière.

    « Siemens Energy qui est le premier fabricant d’éoliennes en Allemagne va provisionner 4,5 milliards d’euros de perte », indique Fabien Bouglé. « Siemens Energy a perdu 11 milliards entre deux baisses importantes : 33 % en juin 2023 et tout récemment 25 %. C’est l’hécatombe. »

    Un paradoxe ou un marché artificiel ?

    Comment se fait-il que les leaders mondiaux de l’éolien connaissent autant de difficultés alors que le secteur a été subventionné par les gouvernements, en particulier le gouvernement américain qui a fait de son pays une sorte d’eldorado de l’éolien ?

    Pour Philippe Escande, il s’agit d’un paradoxe qui ne concerne pas que les États-Unis, mais qui est « encore plus fort aux États-Unis parce qu’on a un président américain, Joe Biden, qui a fait de la transition énergétique une priorité, qui déploie des sommes colossales en termes d’argent public pour aider, pour subventionner ces entreprises ».

    L’éditorialiste du Monde parle de restrictions budgétaires partout et d’une équation économique de plus en plus difficile. « On s’aperçoit que ça coûtera plus cher et que l’électricité issue de l’éolien ce ne sera pas une électricité gratuite, loin de là », explique Philippe Escande.

    Pour Fabien Bouglé, le problème provient justement des subventions qui ont été données au secteur de l’éolien. Rien qu’en Allemagne, on parle de 520 milliards d’euros. « C’est un marché artificiel. Le marché de l’exploitation des éoliennes ne naît que parce que les états occidentaux ont mis des subventions dans ces éoliennes, des subventions énormes », affirme l’expert en politique énergétique.




    Septembre 2001 aux États-Unis : analyse physique des évènements

    Par François ROBY et Christian DARLOT

    [Révision novembre 2023]

    Résumé :

    La version officielle de la destruction des tours de Manhattan, en septembre 2001, est incompatible avec les lois de la Physique. Mais les principes fondamentaux de la Physique permettent, par une analyse simple, d’identifier le procédé de destruction.

    François ROBY est enseignant-chercheur en Physique ; Christian DARLOT est chercheur en Physiologie.

    Table des matières

    Les attentats du 11 septembre 2001, à Manhattan et au Pentagone, sont à l’origine de 20 années de guerre au Proche-Orient, de la mort violente ou de l’exil de millions de personnes, et de la ruine de plusieurs États. Les événements en cours, guerre en Ukraine, répression en Palestine, prolongent cette escalade violente. Identifier l’origine de ces attentats est donc capital pour comprendre et anticiper l’évolution des relations internationales.

    Or le rapport officiel, publié par les pouvoirs publics étasuniens, présente tant de lacunes et d’impossibilités qu’il ne peut être considéré comme véridique. Mais le choc d’un avion contre une tour, et l’effondrement d’une tour, sont déterminés par les lois de la Physique. Ces faits peuvent donc être étudiés selon une méthode sûre : l’analyse physique des observations. L’objectivité de principe d’une telle analyse n’empêche pas la compassion envers les victimes, mais au contraire peut permettre d’élucider les causes de leur mort, innocenter des innocents, identifier les coupables et les empêcher de récidiver.

    Sources :

    Outre le rapport officiel aussi lacunaire que volumineux1, une recherche sur Internet permet de trouver foison de documents, de photos et de vidéos des événements à New York. Au contraire, très peu de documents sont accessibles sur l’incident du Pentagone à Washington, et presque pas sur l’écrasement d’un avion en Pennsylvanie. 2

    Selon un principe fondamental de tout débat, la charge de la preuve incombe à qui affirme. La première étape de la recherche de la vérité est donc d’examiner la compatibilité de la version officielle avec les conditions physiques des événements.

    1 Pas d’avion

    1.1 Pas d’avion à Manhattan

    Le premier souvenir gravé dans les mémoires est celui d’événements qui n’eurent pas lieu : les frappes de deux avions contre les plus hautes tours de Manhattan.

    Nul avion ne frappa ces tours. 3

    Apparemment surprenante, cette affirmation est prouvée par les faits : l’absence de débris d’avion, le trucage des vidéos, et l’impossibilité physique pour un avion de voler vite à basse altitude, de percer un immeuble et d’y disparaître entièrement.

    1.1.1 Absence de preuve matérielle

    Un des rares débris trouvés à Manhattan fut un moteur… mais il n’était pas d’un modèle équipant les avions prétendument entrés dans les tours. 4 Des quatre « boîtes noires » (deux par avion) enregistrant les informations sur le vol, pas une ne fut retrouvée. 5 La seule pièce à conviction trouvée dans la poussière d’acier et de béton couvrant les rues fut un passeport miraculeusement intact. 6 Ignifugé ? Jeté par la fenêtre de l’avion, en souvenir, avant le choc ?

    Le rapport officiel conclut donc logiquement que nul indice matériel ne prouve l’identité des avions supposés avoir frappé les tours.

    1.1.2 Vidéos diffusées dans les médias

    Les vidéos diffusées, et encore disponibles sur Internet, se classent en deux catégories :

    1/ Celles diffusées au moment même montrent, sur des images de mauvaise qualité, les avions, réduits à des silhouettes à contre-jour, entrant en entier dans les tours sans ralentir. La vitesse mesurée de l’avion censé avoir frappé la tour sud est proche de 900 km/h7, c’est-à-dire la vitesse de croisière normale à l’altitude de 10 000 mètres, où la densité de l’air est trois fois moindre qu’à basse altitude ; à une telle vitesse, au niveau de la mer, la structure d’un avion ne peut encaisser les contraintes aérodynamiques et se disloque, comme l’association « Pilots for 9/11 Truth » l’a montré. 8 Sur plusieurs vidéos, cette silhouette disparaît derrière la tour sud puis pointe le bout de son nez de l’autre côté (ce que les analystes de ces images ont nommé « le nez de Pinocchio »), comme si l’avion l’avait toute entière traversée sans se déformer : un carreau d’arbalète. Montage bâclé, conséquence d’une incrustation d’images en quasi-direct, grâce à un tampon de quelques dizaines de secondes rendant le trucage possible mais hâtif. Aussitôt après cette séquence bizarre, l’image est interrompue pendant une fraction de seconde (un « écran noir »), comme si un technicien, conscient de la bévue, avait voulu la minimiser en interrompant la retransmission. 9

    Le jour même, les chaînes de télévision dégagèrent leur responsabilité en plaçant dans les images un encart « By courtesy of… », signalant que ces vidéos n’avaient pas été faites par leur personnel mais par des personnes extérieures. 10 Cette précaution disparut ensuite.

    2/ Les vidéos diffusées au cours des jours et semaines suivants, « filmées par des amateurs » tous en lien avec les métiers de l’audiovisuel, sont de meilleure qualité grâce à un temps de calcul plus grand, mais la trajectoire d’un même avion et sa vitesse varient d’une séquence à l’autre. Les avions paraissent encore absorbés par les tours, sans bris d’ailes ni chute de débris.

    Traitement des images par incrustation

    Ces images sont des montages par incrustation vidéo. Cette technique, désormais à la portée des amateurs (les téléphones portables permettent des effets très divers, même au cours de simples conversations vidéo), était récente en 2001 pour du quasi-direct, et peu connue du grand public. Ces silhouettes d’avions passe-murailles sont impossibles dans le monde réel, mais familières aux connaisseurs de dessins animés.

    1.1.3 Illusion de la mémoire

    Les silhouettes des avions furent incrustées, mais des explosions eurent bien lieu. 11 Les rues de Manhattan sont larges, ce ne sont pas des ruelles, mais les tours sont hautes par rapport à la largeur des rues. Les passants ne virent donc que des flammes et de la fumée, et pour comprendre ce qui se passait regardèrent les chaînes de télévision diffusant les films truqués. Témoins des explosions, ils crurent de bonne foi avoir vu la frappe des avions.

    Illusion psychologique classique. 12

    1.1.4 Impossibilité mécanique

    Afin qu’il soit léger, un avion est un tube creux en tôle d’alliage d’aluminium de quelques millimètres d’épaisseur, rivetée sur une armature aussi en alliage d’aluminium. Un avion ne peut pénétrer sans déformation visible dans une tour pour une raison simple : le principe des actions réciproques, ou d’égalité de l’action et de la réaction, ou « troisième loi de Newton », valide en statique et en dynamique.

    En statique : le haut d’un immeuble pèse sur le bas, et en retour le bas exerce vers le haut une force de soutien égale au poids du haut. La somme est nulle, et l’immeuble reste en équilibre.

    En dynamique : lorsque deux objets se heurtent — par exemple deux billes, ou une balle contre un mur —, chacun exerce une force sur l’autre, et ces forces sont égales mais de sens opposés. Lors du choc d’un avion contre une tour, la partie de l’avion heurtant la façade exerce une force, et la façade exerce sur cette partie de l’avion une force opposée et égale.

    Ce principe détermine les lois de résistance des matériaux. Ainsi, une fraise en acier peut découper du duralumin — un alliage d’aluminium et de cuivre employé en construction aéronautique — parce que l’acier est plus dur que le duralumin. 13 Tout outil de découpe doit être plus dur que le matériau qu’il entame. L’effet du choc de deux objets dépend des duretés relatives des matériaux, et celle des aciers de construction est plus grande que celle des alliages aéronautiques. 14 L’analyse détaillée du choc de deux objets non pleins, comme la structure tubulaire d’un avion de ligne et le treillis de poutres d’un gratte-ciel, nécessite des notions précises de Mécanique15, mais dans le cadre de ce principe général.

    En Physique comme en tout domaine, les principes généraux déterminent les lois particulières.

    Selon le principe fondamental de la dynamique, ou « deuxième loi de Newton », le changement de vitesse d’un objet en mouvement est proportionnel à la force exercée sur lui. 16 Donc ces deux lois de Newton permettent ensemble de déduire l’intensité des forces, opposées et égales, que l’avion exerce sur la façade et la façade sur l’avion. L’observation des images vidéo permet d’estimer la décélération de l’avion au moment de la collision supposée. Or la silhouette d’avion ne ralentit pas, ni ne se déforme, pendant qu’elle traverse la façade. La décélération serait ainsi très faible, et donc la force aussi, tout en causant à la façade les dégâts spectaculaires que tout le monde a pu voir ! Un avion, un tube en aluminium, aurait pu briser un réseau de poutres en acier sans se déformer, ni même ralentir !

    Cette impossibilité pour un avion de briser un réseau de poutres en acier sans se déformer est indépendante de l’énergie cinétique (égale au produit de la masse par le carré de la vitesse). Certes, plus l’énergie cinétique est grande, plus graves sont les dégâts, mais, quelle que soit la vitesse, l’objet le moins dur est plus déformé que l’objet le plus dur. 17 Si une canette de soda vide est lancée, même très vite, contre la grille de la Préfecture, la grille sera-t-elle brisée ? Une balle de ping-pong troue-t-elle une raquette sans se déformer ? 18

    1.1.5 Preuve par l’exemple : duel d’un avion et d’un gratte-ciel en 1945

    Le réseau de poutrelles en acier constituant la structure extérieure des tours avait été conçu pour résister aux tempêtes et au choc d’un avion de ligne. 19 Cette contrainte réglementaire fut dictée par l’expérience : le 28 juillet 1945, par un jour de brume, un bombardier B-25 heurta l’Empire State Building. La force subie par l’avion dépassa le seuil de résistance d’un tube en aluminium ; l’avion s’écrasa contre la façade, les ailes et la carlingue tombèrent dans la rue, et seules des parties dures, les moteurs et une partie du train d’atterrissage trouèrent la façade. Outre les trois hommes de l’équipage de l’avion, onze personnes furent tuées dans l’immeuble, et l’incendie fut maîtrisé en trois quarts d’heure. Cette fois, un avion réel frappa un immeuble à une vitesse conforme aux lois de l’Aéronautique, et l’accident respecta les lois de la Physique et du bon sens. 20 Quant à l’Empire State, tel le Veau d’Or, il est toujours debout ; merci d’avoir pris des nouvelles de sa santé.

    En résumé :

    • – Des explosions se produisirent.
    • – Nulle preuve matérielle de la présence d’avions à Manhattan ne fut jamais trouvée.
    • – Selon les lois de la Mécanique, un avion ne peut pas frapper un immeuble sans ralentir ni se déformer, ne peut pas entrer dans l’immeuble, et encore moins le traverser de part en part.
    • – L’expérience prouve qu’un avion s’écrase contre une tour mais ne la transperce pas, et que la plupart des débris tombent au sol.
    • – Les vidéos montrant la disparition complète d’un avion dans une tour sont des montages.

    Conclusions : nul avion ne frappa les tours de Manhattan ; les explosions furent déclenchées de l’intérieur des immeubles ; les auteurs des vidéos étaient connus des chaînes de télévision.

    1.2 Pas d’avion au Pentagone

    Nul avion ne frappa non plus le Pentagone. 21 Les photographies ne montrent, sur la pelouse devant la façade, qu’un seul débris métallique, inidentifiable, mais ni bagages éparpillés, ni kérosène en flammes. La fumée noire résulte de la combustion d’un camion.

    Un avion de ligne ne peut faire de virage serré comme un chasseur et ne peut rester en rase-mottes sur 600 mètres. 22 Il lui est plus difficile encore de replier les ailes comme une chauve-souris qui se suicide. Le Pentagone n’est pas plus haut qu’un immeuble haussmannien, 23 mètres, et un Boeing 757-200 n’est pas un tapis volant. Faire entrer entièrement un avion de 12 mètres de haut, 47 mètres de long et 38,50 m d’envergure dans un trou de 6 mètres de diamètre, au rez-de-chaussée d’un bâtiment, c’est un exploit technique révolutionnaire. Puisqu’aucun débris ne fut trouvé, les ailes et le train d’atterrissage se seraient évaporés, l’alliage d’aluminium se serait vaporisé (température nécessaire : 3000 °C) et l’alliage très résistant des moteurs se serait sublimé, mais le nez en fibre de carbone aurait percé six épaisseurs de murs. 23 Physique innovante !

    Les environs du bâtiment étaient dans le champ de 85 caméras de surveillance, mais seulement quelques images peu nettes ont été publiées. Une tache blanche, oblongue, fugace, pourrait suggérer un missile tiré d’un avion 24 et des témoins affirmèrent avoir entendu un sifflement strident. Pour échapper aux batteries antiaériennes automatiques, un missile doit être détecté comme « ami ». Ou bien des explosifs auraient été placés dans le bâtiment lors des travaux de rénovation, récemment achevés. 25 Des photos prises avant l’écroulement de la façade montrent en effet des débris tombés hors du bâtiment, indiquant une explosion à l’intérieur. Dans les deux cas, des complicités au Pentagone auraient été nécessaires.

    L’incendie au Pentagone fut vite éteint par les pompiers. Les Tours Jumelles et le Pentagone étaient certes des bâtiments très différents, mais les mêmes projectiles supposés — des avions de ligne contenant du kérosène — auraient-ils déclenché un feu infernal dans des tours très robustes et un petit incendie dans un bâtiment, certes solide, mais classique ?

    En résumé :

    • – Nulle trace matérielle ne prouve la présence d’un avion.
    • – Un avion de ligne ne peut effectuer la manœuvre supposée.
    • – Un avion ne peut entrer (ailes comprises !) dans un trou de 6 m de diamètre.
    • – Un missile aurait été nécessairement « ami ».
    • – Les travaux récemment terminés pourraient avoir permis d’installer des explosifs.

    Conclusion : nul avion ne frappa le Pentagone.

    2 Destruction de trois gratte-ciels

    2.1 Structure des immeubles

    La majeure partie de la masse des tours WTC1, WTC2 et WTC7 était constituée d’acier de construction et de béton léger utilisé dans les planchers, et n’était donc pas combustible. Selon le NIST, chacune des tours jumelles contenait 87 090 tonnes d’acier de construction. 26 La masse en service du WTC1 était d’environ 290 000 tonnes (2,9 × 10kg), en accord à la masse par unité de surface de plancher de bâtiments similaires. 27

    Dans la plupart des gratte-ciels, tous les étages ont les mêmes dimensions mais ceux du bas supportent ceux du haut. Cette évidence implique que la structure porteuse est plus robuste en bas qu’en haut. La contrainte de stabilité que la forme de la Tour Eiffel rend bien visible est cachée par l’apparence parallélépipédique des immeubles-tours. 28

    Schématiquement, les tours de Manhattan étaient constituées de deux structures emboîtées :

    1/ La structure intérieure, de plan rectangulaire, contenant les cages d’escaliers et les ascenseurs, mesurait 26,5 mètres sur 41 mètres et était constituée, de la base jusqu’au sommet de la tour, de 47 colonnes reliées entre elles par des entretoises, et entourées de panneaux en gypse. Ces colonnes étaient des tubes en acier, de section carrée, typiquement de 35 cm de côté, et dont l’épaisseur des parois décroissait de bas en haut : 5 pouces (12,7 cm) pour les 5 étages les plus bas, 2,5 pouces (6,35 cm) pour les étages au-dessus, et décroissant progressivement jusqu’à ¼ de pouce (6,35 mm) pour les étages 102 à 110. Cette structure supportait 60 % de la charge verticale.

    2/ La structure extérieure, de plan carré, supportait 40 % de la charge statique totale. Elle était constituée de 236 colonnes en acier, 59 sur chaque façade, du 6e au 107étage, espacées d’un mètre, encadrant des fenêtres de 60 cm de largeur. Les colonnes des cinq étages du bas étaient plus robustes, et espacées afin de permettre l’entrée dans les tours. Cette façade porteuse avait été construite par assemblage décalé de modules préfabriqués, constitués de 3 colonnes sur 3 étages, dont l’épaisseur des parois diminuait de bas en haut, comme dans la structure centrale. Dans la tour sud, au 81étage, niveau de l’explosion (de « l’impact de l’avion »), l’épaisseur était de 0,875 pouce (2,22 cm). Quand souffle un vent fort, la répartition des charges d’une tour varie, la charge dynamique étant alors asymétrique entre les façades. La façade au vent peut même être en tension, d’où l’usage de l’acier pour la structure, car les autres matériaux de construction (pierre, béton…) résistent bien en compression mais mal en traction. Cette grille solide, en acier, ne peut avoir été traversée par un avion en alliage d’aluminium.

    Par souci de sécurité, les colonnes centrales pouvaient supporter trois fois plus que le poids qu’elles supportaient réellement, et les colonnes périphériques cinq fois plus.

    2.2 Physique newtonienne ou harrypotterrienne ?

    Quelques heures à peine après ces effondrements, l’ingénieur en génie civil Zdeněk Bažant les interpréta comme une propagation de la chute de quelques étages, interprétation illustrée par l’image de la « pile d’assiettes » : les étages des Tours Jumelles auraient été comparables à des assiettes accrochées aux structures porteuses — les colonnes du noyau central et de la façade. 29 Les attaches auraient pu supporter le poids d’un étage, mais pas celui de tous les étages situés au-dessus. Si une cause, telle qu’un incendie localisé au niveau des « impacts d’avions », faisait rompre les attaches de quelques étages, ces « assiettes » tomberaient sur celle du dessous, dont les attaches ne résisteraient pas au poids et à l’énergie cinétique des assiettes tombant, et se briseraient à leur tour. Les assiettes déjà décrochées tomberaient alors sur celle encore en-dessous. De proche en proche, les assiettes se décrocheraient l’une après l’autre, et toutes dégringoleraient en cascade jusqu’en bas. Raisonnement juste, fondé sur une prémisse fausse : l’attachement d’étages rigides à quelques colonnes par des attaches fragiles.

    Cette image déforme la réalité : les étages des gratte-ciels sont solidaires de toutes les colonnes. Même en admettant l’image naïve de plateaux accrochés à des structures porteuses, toutes les attaches d’un plateau (étage, assiette) n’auraient pu se rompre au même instant. 30 L’acier est un matériau déformable à haute température. Une rupture soudaine, possible pour le béton et la maçonnerie, est très rare dans les constructions en acier. Améliorés par des décennies de recherche scientifique et technique, les calculs de résistance au feu de l’acier permettent de prévoir précisément le comportement des structures en cas d’incendie. 31 En regardant si les poutres se déforment, les pompiers peuvent anticiper un risque d’écroulement. Le résultat final de ces chutes en cascade eût d’ailleurs été un tas de « débris d’assiettes », tandis que les structures interne et externe seraient restées debout, tout au plus vacillant par manque d’entretoises. En réalité, une grande part de l’acier et du béton des tours fut réduite en poussière, et les décombres n’étaient pas des entassements de fragments de dalles. La théorie de la pile d’assiette n’explique pas ces faits, et est incompatible avec les lois de la Physique. Pourtant de vaillants journalistes et de téméraires « experts » médiatiques tentèrent de faire admettre l’impossible. 32

    À supposer que des colonnes de soutien aient été cisaillées et que des pans de plancher soient tombés, la résistance de la partie basse de l’immeuble ne pouvait manquer d’arrêter leur chute. Cette partie est plus grande et beaucoup plus massive que la partie haute, et elle est soutenue par les fondations ancrées dans le sol. Tant que le bas reste solide, la force résistante exercée du bas vers le haut reste égale à la force exercée du haut vers le bas. Le haut de l’immeuble ne peut avoir écrasé le bas.

    Le haut de l’immeuble n’écrasa pas le bas ; il est tombé parce que le bas ne le soutint plus.

    La Physique n’est pas la magie, elle décrit la réalité sur laquelle elle est fondée. Il ne suffit pas, comme dans Harry Potter, d’émettre un vœu pour qu’il se réalise (même de travers). Certes l’Amérique est le continent de tous les possibles, mais les lois de la Mécanique ne s’appliquent-elles pas à Manhattan ?

    2.3 Effondrement sans cause : l’énigme de la tour n° 7

    Plusieurs heures après les attentats, des incendies s’allumèrent dans une troisième tour, n° 7, séparée des deux premières par un autre immeuble et que nul avion n’était censé avoir frappée. Haute de 173 m (47 étages), elle était comparable à la Tour Montparnasse haute de 209 mètres (56 étages). Des télévisions — comme la respectée BBC — annoncèrent sa chute alors qu’elle était encore debout, son image bien visible sur l’écran derrière la présentatrice. Soudain, à 17 h 20, elle s’effondra tout entière en 6,5 secondes, sur sa base. Par solidarité avec ses grandes sœurs ? Pendant les premières secondes, elle tomba de trente mètres à la vitesse de la chute libre ; après l’avoir d’abord nié, même le NIST dut le reconnaître et admettre que la cause est inconnue. Mais le rapport officiel se contredit en affirmant d’abord « l’effondrement du WTC7 fut un effondrement progressif produit par des incendies » puis (sur la même page !) en mentionnant « une chute libre de la hauteur d’environ 8 étages, selon l’accélération de la pesanteur pendant environ 2,25 s ».

    Comment une chute libre pourrait-elle être progressive ?

    2.4 Effondrement et pulvérisation des tours : d’où provint l’énergie ?

    2.4.1 Incendies de bureau

    Le kérosène n’explose pas ; c’est pourquoi il est utilisé en aviation. À supposer même que des avions eussent frappé les tours, le kérosène aurait brûlé en un quart d’heure. Les réservoirs d’un Boeing 757 contiennent au plus 42 680 litres de kérosène, et selon le rapport de la FEMA (Federal Emergency Management Agency Agence fédérale des situations d’urgence), chaque avion transportait 37 900 litres de kérosène, tenant dans un cube de 3,35 mètres d’arête, tandis que les deux tours mesuraient 63,4 x 63,4 x 415 mètres. Cinq tours Montparnasse chacune ! 33

    Des incendies de bureau durèrent une heure dans la tour sud et une heure et demie dans la tour nord. La plus grande part de l’énergie dégagée par un feu chauffe l’air, d’où la faible efficacité d’un feu dans un âtre, dont la chaleur part surtout par le conduit de cheminée. La quantité d’énergie nécessaire pour atteindre une température donnée dépend de la nature et de la quantité de matériau à chauffer. 34 La température d’un incendie de bureau est 800-900 degrés Celsius. La température de fusion d’un alliage d’acier dépend de la composition chimique mais reste proche de 1427 °C (1700 K). L’acier commence à mollir vers 600 °C, mais, en une heure, l’air chaud ne peut transmettre au cœur de poutres en acier, épaisses et ignifugées, une quantité d’énergie suffisante pour les ramollir. 35

    En outre, une charpente métallique en réseau répartit la chaleur comme un radiateur, donc abaisse la température des poutres. Et comme la chaleur ne diffuse pas instantanément, les structures fléchissent asymétriquement et penchent d’un côté. Les effondrements dus à des incendies ne sont jamais symétriques.

    2.4.2 Preuve par l’exemple : incendies de gratte-ciels

    En 1975, un incendie dans la tour nord ravagea pendant plusieurs heures la moitié du onzième étage (en bas de la tour), puis se propagea à d’autres étages où il fut bientôt éteint. La structure de la tour ne fut néanmoins pas endommagée. En 1991, un incendie au One Meridian Plaza de Philadelphie dura 18 heures et détruisit 8 des 38 étages. Selon le rapport de la FEMA « Des poutres et des poutrelles se sont tordues ou affaissées… suite à l’exposition au feu, mais les colonnes ont continué à supporter leur charge sans dégât apparent. » 36 En 2004, à Caracas, 20 étages d’une tour de 50 étages brûlèrent pendant 17 heures, mais le gratte-ciel ne s’effondra pas. 37 L’énergie d’un incendie ne peut suffire à détruire un gratte-ciel.

    Une relation de cause à effet entre incendie et effondrement est donc exclue.

    2.4.3 Explosions et effondrement

    Des pompiers et des personnes travaillant dans les tours témoignèrent avoir entendu des explosions pendant l’incendie, surtout au sous-sol. Pendant les 7 minutes précédant l’effondrement, une coulée de métal fondu fut filmée sur une façade du WTC2, des explosions se produisirent dans les étages proches de ceux où l’incendie continuait, et des poutres furent éjectées à des vitesses estimées à plus de 50 km/h. 38 Des chimistes compétents en explosifs trouvèrent, dans les ruines, des produits de réaction d’un explosif utilisé en démolition, la thermite. Des cordons de thermite auraient causé les coupures obliques nettes visibles sur quelques poutres non pulvérisées. Mais l’emploi d’explosifs chimiques laisse de grands pans de bâtiment d’un seul tenant, sans les réduire en poussière. 39 Ces explosions ne dégagèrent pas une énergie suffisante pour détruire les tours.

    Les tours s’effondrèrent en dix à quinze secondes, l’incertitude étant due à la poussière masquant la fin de la chute. 40 Des milliers de tonnes d’acier et de béton furent réduits en grains de quelques millimètres à quelques dixièmes de millimètre, s’élevant en volutes semblables à celles d’explosions volcaniques pyroclastiques, puis se déposèrent en recouvrant les rues d’une couche de poussière épaisse de plusieurs centimètres. Or la quantité d’énergie nécessaire pour broyer un solide est une fonction croissante de la finesse des grains. D’où provint l’énergie ?

    Non seulement la pulvérisation des matériaux nécessita beaucoup d’énergie, mais sa rapidité indique une source d’énergie dégageant une grande puissance, concept physique important.

    La puissance est le rapport de la quantité d’énergie au temps pendant laquelle elle est émise.Pour démarrer une voiture ou faire décoller un avion, les moteurs doivent fournir beaucoup plus de puissance que pendant un mouvement à vitesse constante, sur route ou en vol.

    2.4.4. Persistance d’un grand dégagement de chaleur

    La puissance nécessaire pour pulvériser presque instantanément des milliers de tonnes d’acier et de béton est difficile à évaluer, mais une valeur minimale de l’énergie dégagée peut être estimée en considérant l’évolution de la température du site.

    Des photographies célèbres montrent de l’acier rougeoyant retiré de la pile de débris. Quelques citations de témoins font ressentir la réalité du dégagement de chaleur :

    • – Au dire des pompiers, les semelles de leurs bottes fondaient. Sous les débris, la température était « si intense qu’ils ont rencontré des rivières d’acier en fusion », « comme dans une aciérie ». 41 Ils s’exposaient à des périls comme « la secousse d’un effondrement profondément en dessous […] ou, dans les premiers temps, les coulées de métal en fusion s’échappant des noyaux chauds et s’écoulant le long des murs brisés à l’intérieur des fondations. » 42
    • – « 21 jours après l’attaque, l’acier en fusion coulait toujours ».43 « Sous terre, c’était encore si chaud que du métal en fusion a coulé sur les côtés du mur du bâtiment 6. » 44
    • – « Selon certains ingénieurs, la combinaison d’un incendie incontrôlé et de dommages structurels aurait pu faire s’effondrer le bâtiment. Mais cela n’expliquerait pas que des éléments en acier, dans la pile de débris, semblent avoir été partiellement évaporés à des températures extraordinairement élevées ». 45

    La température de sublimation du fer, principal composant de l’acier, est de 3134 K (2861 °C).

    Des relevés de température par thermographie infrarouge aérienne montrèrent, le 16 septembre, des points chauds jusqu’à une température de 1020 K (747 °C). 46 Le 7 octobre 2001, une image thermique montra des températures semblables aux emplacements des trois bâtiments (WTC1, WTC2 et WTC7), quoiqu’ils aient été architecturalement très différents et aient subi des dommages différents. 47 Le refroidissement fut progressif au cours des mois suivants : « Le feu souterrain brûla pendant exactement 100 jours et a finalement été déclaré “éteint” le 19 décembre 2001 ». Quels matériaux combustibles auraient alimenté un « feu souterrain » ? Comment l’air nécessaire à la combustion serait-il parvenu dans le sous-sol ? Le 12 février 2002, cinq mois après l’effondrement des tours, des mesures par la même méthode révélèrent encore une émission de chaleur. 48 Le sous-sol n’avait donc pas atteint l’équilibre thermique et continuait à se refroidir. Les matériaux sont ainsi restés pendant trois mois à des températures bien plus élevées que celles d’un incendie de bâtiment. Puisque, selon le deuxième principe de la Thermodynamique, l’énergie ne se concentre pas spontanément, ces températures ne peuvent avoir été causées par un « feu souterrain », mais résultaient de l’existence d’une source de chaleur très importante dans la profondeur du sous-sol.

    Les lois du transfert de la chaleur sont couramment employées par les architectes pour dimensionner les circuits de chauffage des bâtiments, et par les ingénieurs pour assurer le refroidissement, en électronique comme en automobile. En estimant la surface d’émission et l’évolution au cours du temps de la différence de température avec l’air ambiant, ces mesures permettent d’estimer la quantité de chaleur totale émise par le site. Elle est énorme, de l’ordre de 1 pétajoule (1015 joules ou 1 000 000 000 000 000 joules), soit la chaleur émise par la combustion de 24 000 tonnes de pétrole, pouvant remplir plus de 10 piscines olympiques. 49

    2.4.5 Déblaiement des ruines

    Élimination des preuves matérielles

    Le déblaiement commença aussitôt après la catastrophe, avant toute enquête, et l’acier des décombres fut envoyé en Chine, en Inde et d’autres pays d’Asie. Procédé inhabituel en cas de désastre sans précédent. La soustraction de preuve est un délit. 50

    Cancers des sauveteurs et des déblayeurs

    Des équipes de détection furent envoyées sur place le jour même, habillées de tenues NBC. Les déblayeurs ne restaient que quelques jours avant d’être remplacés, et se plaignaient de quitter le chantier à peine devenaient-ils efficaces. Or, sur un total de 80 000 personnes affiliées au programme sanitaire WTC Health Program, à la fin de mars 2021, près de 14 000 souffraient d’un cancer et 1015 en étaient morts. 51 Les cancers de la peau et les lymphomes sont nombreux, et les cancers des voies respiratoires et digestives sont majoritaires, causés vraisemblablement par des débris d’amiante et par les poussières radioactives inhalées ou ingérées. Les malades ont constitué des associations de défense et prononcé maintes conférences aux États-Unis.

    2.4 Fausseté de l’explication officielle

    En résumé, l’explication officielle enfreint des principes physiques fondamentaux :

    • – Le principe de conservation de l’énergie : de l’énergie ne peut être créée. Ce principe est fondamental pour toute la Physique (« premier principe de la Thermodynamique »).
    • – Le principe de dispersion de l’énergie : la chaleur ne peut pas s’être concentrée dans les poutres ni dans le sous-sol (« deuxième principe de la Thermodynamique »).
    • – Le principe fondamental de la dynamique (« deuxième loi de Newton ») : un projectile ne peut percer une cible sans ralentir.
    • – Le principe des actions réciproques (« troisième loi de Newton ») : un tube creux en alliage d’aluminium ne peut percer un treillis en acier sans se déformer.

    L’explication officielle enfreint encore le principe fondamental de la dynamique et le principe des actions réciproques en affirmant que le bas de chaque tour fut écrasé par le haut. L’effondrement ne peut être dû qu’à la perte de résistance du bas.

    D’autres lois, non détaillées dans ce bref article, sont enfreintes par l’explication officielle :

    • – La loi de diffusion de la chaleur de Fourier : la température du réseau de poutres ne peut être devenue uniforme dans tout l’immeuble.
    • – La loi de changement d’état des matériaux : la température d’un incendie de bureau ne peut faire fondre de l’acier ni le fragmenter finement.
    • – La loi de rayonnement des matériaux selon la température (corps noir) : avant l’effondrement, la couleur des coulées de métal fondu sur une façade, jaune ou blanche, seule information disponible, indique une température de 1200 °C au moins, soit une température supérieure à celle d’un incendie. Ces coulées furent sans doute dues à des réactifs placés localement. 52

    L’explication officielle enfreint les principes les mieux établis de la Physique.

    Mais la Physique permet aussi de comprendre le mode opératoire.

    3 Explosions nucléaires souterraines

    Les tours de Manhattan furent détruites par des explosions nucléaires souterraines. Cette « interprétation complotiste délirante » est la seule compatible avec les lois de la Physique. 53

    À l’apogée de l’engouement pour l’usage civil de l’énergie nucléaire, pendant les années 1950 et 1960, des explosifs nucléaires furent employés pour de gros travaux de génie civil, comme creuser des canaux en URSS 54 et aux USA55. Mais la pollution résultante les fit abandonner. Toutefois ces essais rendirent réalisable ce procédé de démolition de gratte-ciels.

    3.1 Insuffisance des explosifs chimiques, nécessité d’explosifs nucléaires

    L’énergie libérée par unité de masse d’un explosif classique est déterminée par celle de liaisons chimiques, mais celle d’un explosif nucléaire l’est par l’énergie de liaison des nucléons dans les noyaux des atomes.

    Des explosifs chimiques sont couramment utilisés en démolition mais ne pulvérisent pas les bâtiments — quoique l’effondrement dégage de la poussière —, et les décombres sont des amas de pans de murs et de planchers. Pour fragmenter des milliers de tonnes d’acier et de béton en grains millimétriques, il faudrait une très grande masse d’explosifs, en proportion notable de la masse de l’immeuble, répartie dans toutes les parties de la tour par des dizaines de techniciens pendant des milliers d’heures. Impraticable.

    Mais l’énergie de liaison entre les protons et neutrons des noyaux est un million de fois plus grande que l’énergie de liaison entre électrons et noyaux. En pratique, les matériaux nucléaires opérationnels comportent beaucoup de masse inerte, et leur densité énergétique est 10 000 fois plus grande que celle des matériaux chimiques. C’est pourquoi une centrale électrique nucléaire n’est rechargée en combustible que tous les 3 ans, tandis qu’une centrale à charbon est alimentée quasiment en continu, par trains entiers.

    L’émission de l’énergie en quelques microsecondes confère aux bombes nucléaires une puissance inimaginable par l’esprit humain, produisant une onde de choc dont la pression maximale, de l’ordre du milliard d’atmosphères, est beaucoup plus destructrice que celle produite par tout explosif chimique.

    Seule une bombe nucléaire émet la puissance suffisante pour réduire quasi instantanément des milliers de tonnes d’acier et de béton en poussière millimétrique, et contient assez d’énergie pour produire la très grande quantité de chaleur lentement dégagée du sous-sol de Manhattan.

    La réaction nucléaire émet en quelques microsecondes une énergie énorme, décomposant la matière du sous-sol jusqu’à l’état de plasma, particules sans liaisons, à très haute température. 56 L’onde de choc fragmente les roches environnantes. En quelques dixièmes de seconde, une cavité se forme en profondeur et s’agrandit. Si l’explosion est assez profonde, l’onde atteint la surface du sol, mais ne la soulève pas : le « toit de la cavité » est l’ensemble des roches situées entre le haut de la cavité et la surface du sol. L’onde atteignant la surface ne se diffuse pas dans l’air, d’où l’absence de bruit, mais se diffuse dans les objets solides placés sur le sol.

    La chaleur de la cavité diffuse dans les roches les fait fondre, et ces deux effets absorbent de la chaleur et font baisser la température du plasma et des gaz, et donc la pression dans la cavité. 57 Lorsque la pression ne suffit plus à soutenir le toit de la cavité, il s’effondre, tombe dans la cavité, et le sol s’affaisse. Sous ce creux à la surface du sol, la partie haute de la cavité, comblée de roches, est la « cheminée ». Qu’une pression souterraine très grande produise une dépression à la surface du sol est un effet contre-intuitif mais bien étudié. 58

    Si l’explosif nucléaire est placé sous le bâtiment à une profondeur convenable, l’onde de choc et l’affaissement du sol peuvent faire écrouler même des gratte-ciels à structure métallique.

    La quantité de chaleur restant dans la cavité est une fraction de l’énergie explosive, et son dégagement est retardé par son transfert à travers les roches de la cheminée. Plus la profondeur est grande, moindre est le passage d’éléments radioactifs par la cheminée.

    Au cours de nombreux essais, les physiciens ont mesuré le rayonnement, la température, la dépression du sol, etc., et dès les années 60 ils ont su calculer la forme et les dimensions de la cavité et de la cheminée, selon la nature de la roche encaissante, la profondeur et l’énergie de l’explosion. En France, ces analyses furent faites par le Commissariat à l’Énergie Atomique. 59

    Depuis 1951, des traités internationaux ont plafonné la charge des explosions souterraines à 150 kT, soit 0,63 pétajoule. Ces explosions émettent beaucoup moins de particules radioactives dans l’atmosphère que les explosions aériennes des essais militaires des années 1940-70 ou que l’accident de Tchernobyl. Néanmoins des mesures sismographiques et le dosage des particules dans l’air permettent de les détecter et de mesurer précisément leurs caractéristiques, même à de très grandes distances, permettant ainsi aux États de se surveiller les uns les autres. 60

    3.2 Technique de démolition d’urgence prévue dès la construction

    La pulvérisation instantanée des tours fut l’effet d’une puissance que seules des bombes nucléaires peuvent dégager. Mais où ces bombes avaient-elles été placées ?

    Démolir des gratte-ciels est une entreprise difficile, et les règlements d’urbanisme imposent aux maîtres d’œuvre de proposer, dès la construction, une solution technique de démolition. 61 Un procédé de démolition d’urgence peut avoir été prévu pour les Tours Jumelles, bâtiments exceptionnels, construits selon les meilleures techniques des années 60. Une loge peut avoir été creusée sous le niveau du sous-sol le plus profond de chacune. Cette hypothèse est corroborée par la cotation des hauteurs, sur les plans des immeubles, à partir d’une altitude de référence très en dessous des fondations : 246 pieds, soit 75 m, dans le socle rocheux. 62

    3.3 Destruction des tours de Manhattan

    Chaque tour fut détruite par l’explosion souterraine d’une bombe nucléaire placée dans la roche, sous les fondations. 63 Plusieurs petites bombes « mini-nuke » n’auraient pas suffi, et n’auraient pas produit l’énorme quantité de chaleur dégagée du sous-sol pendant des mois. L’onde de choc atteignit aussitôt les fondations et se propagea dans l’immeuble. Jusqu’aux trois quarts de la hauteur environ, l’énergie de l’onde brisa des liaisons chimiques, fragilisa les matériaux et diminua la résistance mécanique. 64 Comme la pression maximale de l’onde varie approximativement comme l’inverse du carré de la distance au point de l’explosion, la quantité d’énergie transmise fut moindre dans les étages supérieurs, où l’onde n’eut plus qu’un effet élastique, causant moins de dégâts que dans la partie inférieure.

    Sur plusieurs vidéos prises par des caméras placées sur support fixe, l’image tremble 12 s avant la chute des tours, durée pouvant être interprétée comme le délai entre l’explosion et l’effondrement du toit de la cavité. Lorsque cet effondrement ôta à l’immeuble le support des fondations, la partie basse de l’immeuble tomba en se désagrégeant. N’étant plus soutenue, la partie haute tomba en se désagrégeant à son tour, à une accélération d’environ 2/3 de la chute libre, à peine freinée par la cohésion résiduelle de la partie basse et la résistance de l’air. 65

    Des explosions déclenchées juste avant la chute prouvent la présence de charges explosives chimiques, dont la mise à feu paraît avoir été synchronisée à celle de la bombe souterraine. 66 Placées en des points choisis de la structure, ces charges ont peut-être désolidarisé le haut et le bas de l’immeuble et coupé une part du train d’ondes, et elles servirent aussi de leurre pour dérouter les enquêteurs. S’il pouvait être consulté, le plan de démolition serait instructif.

    Une grande part des matériaux se dissipa en volutes de poussière. D’une hauteur d’environ 20 m, les tas de décombres étaient remarquablement petits par rapport aux immeubles de 420 m. Des relevés aériens par la technique LIDAR montrent que chaque tas était au centre d’une dépression peu profonde. 67

    Les débris des tours recevaient de la chaleur issue de la cavité, diffusant à travers les roches comblant la cheminée. L’énergie accumulée maintint le sous-sol à température très haute pendant plus de trois mois. L’émission de radioactivité au cours des semaines suivantes, mais le peu de pollution résiduelle indiquent une fusion plutôt qu’une fission, la fission n’étant nécessaire que pour amorcer la fusion. Les autorités ne furent pas disertes sur la présence de tritium, isotope radioactif de l’hydrogène produit par fusion. Après déblaiement des décombres, la cheminée sous l’emplacement de chaque tour fut couverte par une chape en béton, surmontée d’un grand bassin d’eau. Le béton et l’eau absorbent le rayonnement résiduel des éléments radioactifs présents dans la cavité, de sorte que le site est désormais sans danger.

    Quant à l’expression « ground zero », elle désigne depuis huit décennies, en vocabulaire militaire le point de la surface du sol à l’aplomb d’une explosion nucléaire.

    Voilà les grandes lignes de l’affaire, faciles à vérifier. Les documents officiels, les études techniques publiées sur Internet, quelques connaissances de base en Physique et un zeste de bon sens suffisent.

    Toute interprétation rationnelle des événements doit expliquer :

    1/ L’entrée d’avions de ligne dans des immeubles à structure en acier s’ils ne peuvent pas percer la façade, force est de déduire qu’ils n’étaient pas là.

    2/ L’effondrement des trois tours de Manhattan : Tours Jumelles et WTC7.

    3/ L’origine de la puissance nécessaire pour pulvériser les tours, et de l’énergie dégagée du sous-sol pendant des mois.

    Or la version officielle n’explique rien et est incompatible avec les lois de la Physique. 68

    4 Conclusions

    Donc les conclusions s’imposent :

    1/ Les principes et lois physiques ne s’appliquent pas à Manhattan. Exceptionnalisme.

    Dans une stratégie de réindustrialisation des États-Unis, cette particularité serait précieuse pour fabriquer des produits à haute valeur ajoutée.

    2/ De l’énergie a été créée, et comme les États-Unis sont un pays très religieux « under God », c’est que Dieu a fait un miracle ; les enquêteurs devraient donc se tourner humblement vers les théologiens pour leur demander d’en expliquer le sens.

    3/ À moins qu’une explication plus rationnelle ne soit possible…

    Que chacun réfléchisse et conclue !


    1 http://wtc.nist.gov/pubs/factsheets/faqs_8_2006.htm Les faits n’ont pas été étudiés par plusieurs équipes d’experts indépendantes qui eussent ensuite confronté leurs avis, et le rapport n’a pas été débattu publiquement. Philip Zelikow, qui dirigea la commission d’enquête, était très lié aux gouvernements des États-Unis et d’Israël.

    2 Des associations de professionnels, comme Architects and Engineers for 9/11 Truth, ou Pilots for 9/11 Truth, ont publié des discussions techniques de ces événements.
    http://ae911truth.org/

    3 Plusieurs auteurs l’ont déjà argumenté ; cf. Thierry Meyssan : 11 septembre 2001. L’effroyable imposture. Carnot, 2002. Laurent Guyénot : JFK – 11 septembre, 50 ans de manipulations.

    4 Même consciencieux, un accessoiriste n’a pas toujours le matériel nécessaire. Les autres débris trouvés furent une roue incrustée dans une poutre et un morceau d’aile découvert en avril 2013 entre deux immeubles et entouré d’une corde… Mise en scène bâclée plutôt que restes de catastrophe aérienne. Les décombres avaient été pourtant déjà dûment fouillés par des agents du Service National de Sécurité des Transports (National Transportation Safety Board, NTSB) agissant à la requête du Bureau Fédéral d’Enquêtes (Federal Bureau of Investigations, FBI).

    https://aitia.fr/erd/esprit-critique-es-tu-la/
    http://govinfo.library.unt.edu/911/report/911Report_Notes.htm
    http://www.aldeilis.net/fake/1083.pdf http://pacer.psc.uscourts.gov

    5 Les spécifications sont pourtant sévères : enregistrement de 300 paramètres pendant 25 heures ; résistance à l’impact de 3400 G ; résistance à la température de 1100 °C pendant 30 minutes ; résistance à la pression de 7000 mètres d’eau ; émission à 37,5 kHz pour le repérage ; batterie d’une durée de vie de 6 ans. Le numéro des boîtes permet d’identifier l’avion, et leur contenu de connaître les circonstances précédant un accident.

    6 http://www.guardian.co.uk/september11/story/0,11209,669961,00.html Depuis, tant de documents d’identité de tant de terroristes ont été trouvés sur des pare-brises après un attentat, que c’en est devenu une coutume.

    7 Selon le NIST, 542 ± 24 mph soit 872 ± 39 km/h pour l’avion de la tour sud (WTC2). Ces avions sont censés avoir volé à basse altitude afin d’échapper aux radars. À cette vitesse et cette altitude, l’avion se briserait.

    8 https://web.archive.org/web/20210112064317/pilotsfor911truth.org/WTC2.html et web.archive.org

    9 Un citoyen des États-Unis, Alexander Collin Baker, musicien et vidéaste connu sous le nom de « Ace Baker », réalisa une série de 8 vidéos sur le 11— septembre 2001, intitulée « The Great American Psy-Opera ». Cette capacité d’analyse critique lui serait venue à la suite d’un accident médical qui modifia son psychisme : https://aitia.fr/erd/eloge-du-handicap/ Dans l’épisode 7 de la série, il interrogea l’auteur de la séquence vidéo, Kai Simonsen, qui s’empêtra pour trouver une explication plausible à ce « fondu au noir », ainsi qu’au zoom « prémonitoire » qu’il effectua juste avant : la caméra transmettait un plan très large sans avion visible, puis zooma très fortement juste avant l’instant fatidique de la collision. À partir de 19 min 20 s, Kai Simonsen affirme que le noir est provoqué par la mise en place d’un doubleur de focale sur l’objectif afin d’obtenir un plan plus serré… mais le plan est exactement le même avant et après la coupure ! Ces huit épisodes, totalisant plus de 4 heures, sont encore visibles en partie en version originale, et en totalité en version sous-titrée en allemand : https://www.youtube.com/user/CollinAlexander

    Une version des épisodes 6 à 8, sous-titrée en français par Laurent Guyénot, est visible sur dailymotion :
    https://www.dailymotion.com/video/x2546ic
    https://www.dailymotion.com/video/x25ff9k
    https://www.dailymotion.com/video/x254kr6

    10 La rapidité de diffusion prouve que les auteurs des vidéos avaient accès ouvert aux chaînes de télévision. Seuls les frères Naudet présentèrent une vidéo de la frappe du premier avion : des virtuoses du suivi de cible et de l’ajustement de focale. Pourraient-ils être incités à révéler les noms de leurs commanditaires ?

    11 Dans la tour nord, le 91étage avait été loué quelques semaines avant par des « artistes » du groupe Gelatin qui firent pendant quelques jours une « installation » : un hourd dépassant de l’immeuble. Les étages 93 à 100 étaient occupés par la compagnie Marsh & McLennan, dont le PDG était Jeffrey Greenberg, liés aux assureurs et contre-assureurs des tours. Les explosions se produisirent entre le 91e et le 98étages.

    12 Bien entendu les journalistes ne mirent pas en avant les propos mesurés des gens prudents. Dans des reportages sur place diffusés le jour même, quelques personnes interrogées paraissent réciter une leçon apprise, dont le fameux « Harley guy », un homme portant casquette et T-Shirt Harley Davidson, très calme en plein tumulte, et capable, au moment même, de résumer les conclusions des rapports d’enquête futurs et officiels :

    13 Les liaisons entre les atomes déterminent la dureté propre des matériaux, comme les alliages métalliques. À forces subies égales, un plus grand nombre de liaisons sont rompues et plus d’atomes sont déplacés dans un alliage d’aluminium que dans un alliage d’acier. L’alliage d’aluminium est donc moins dur que l’acier. Un projectile, comme une balle d’arme à feu, doit être plus dur que la cible. De même un couteau coupe du pain parce que les faibles liaisons électrostatiques entre les molécules constituant la croûte et la mie du pain sont brisées, tandis que celles entre les atomes de métal ne le sont pas.

    14 La structure extérieure des tours était un réseau de poutrelles en acier, décrit plus bas dans cet article. L’expression « mur rideau » désigne les parois externes des immeubles, où prédomine le verre qu’un choc peut briser ; elle est toutefois impropre car des colonnes verticales renforcent aussi la façade. Cette fragilité apparente des parois extérieures a pu faire croire que des avions pouvaient entrer dans des tours.

    15 Comme le moment quadratique d’une poutre.

    16 Le principe de conservation de la quantité de mouvement d’un système, principe d’inertie, fonde la Mécanique. De ce principe est déduite la deuxième loi de Newton : « Les changements qui arrivent dans le mouvement sont proportionnels à la force motrice, et se font dans la ligne droite dans laquelle cette force a été imprimée. » L’accélération est égale au rapport de la force à la masse :   ou . Si la force F est nulle, l’accélération est nulle et donc la vitesse du mouvement constante. Le concept d’inertie, l’un des mieux établis de la Physique, fut progressivement précisé par Galilée, Baliani, Torricelli, Descartes, Huygens, puis énoncé explicitement par Hooke, formulé mathématiquement par Newton, et généralisé par Poincaré et Noether.

    17 Lors d’un choc d’un objet mobile contre un objet immobile et ne pouvant être mis en mouvement, comme une voiture contre un arbre, l’énergie cinétique se dissipe en déformation des matériaux puis en chaleur.

    18 Attention, un tel cas comporte des pièges. Voir ici :
    https://aitia.fr/erd/balle-tueuse-de-raquette-info-ou-intox/

    19 Selon les architectes, les coefficients de sécurité étaient si grands que les tours jumelles résisteraient à l’impact d’un Boeing 707 ou d’un Douglas DC-8 en pleine charge, volant à 965 km/h : « […] une telle collision causerait seulement des dégâts locaux ne pouvant provoquer l’effondrement ni des dommages conséquents à l’immeuble, et ne mettrait en danger ni la vie ni la sécurité des occupants, hors de la proximité immédiate de l’impact » Henry Hold and company, City in the sky, Times Books, 2003. La documentation de l’étude était conservée dans les bureaux de l’Autorité portuaire, détruits par l’effondrement du bâtiment n° 7 du World Trade Center. Fahim Sadek, Baseline Structural Performance and Aircraft Impact Damage Analysis of the World Trade Center Towers, NIST, 2005, « NCSTAR 1-2 appendix A », p. 305-307

    20 https://en.wikipedia.org/wiki/1945_Empire_State_Building_B-25_crash

    La plus grande décélération longitudinale que peut subir une carlingue d’avion de ligne sans se froisser est d’environ 10 G, dix fois l’accélération de la pesanteur, le plus que peut encaisser un pilote de chasse. Cette accélération est bien moindre que celle subie par des objets durs lors des chocs les plus anodins ; ainsi deux billes de billard, lors de leur bref contact durant quelques millisecondes, subissent des accélérations de 100 G ou plus.

    21 Le journaliste Thierry Meyssan l’affirma dès mars 2002, et fut aussitôt étiqueté « complotiste délirant ». Thierry Meyssan, 11 septembre 2001 : L’effroyable imposture. Carnot, 2002.

    22 À la demande insistante de l’association de « Pilots for 9/11 Truth », les enregistrements de la boîte noire du vol AA77 (prétendument retrouvée) furent déclassifiés par le National Transportation Safety Board (Bureau National de Sécurité des Transports), mais ne furent pas communiqués : le document présenté fut une trajectoire reconstituée en images de synthèse à partir de ces enregistrements supposés. Or elle montre une manœuvre impossible pour un avion de ligne (à 850 km/h !) et aboutissant au-dessus du Pentagone !

    23 Avant l’effondrement de la façade, le trou d’entrée était parfaitement rond, et celui de sortie aussi. Or entre les deux il y avait une vingtaine de colonnes, dont la plupart étaient bien en place après l’accident.

    24 Un jeune officier prévint Cheney plusieurs fois de l’approche d’un avion vers Washington, et reçut comme réponse que « les ordres étaient maintenus ». Leurre, avion de ligne ou avion militaire porteur d’un missile ?

    25 https://www.youtube.com/watch?v=0SL2PzzOiF8

    26 Stephen W. Banovic. Steel inventory and identification. Technical report, NIST, September 2005: p. 55.
    http://fire.nist.gov/bfrlpubs/build05/PDF/b05030.pdf.

    28 La forme proche d’un arc de parabole des arches de la tour Eiffel participe à leur stabilité, mais la forme parallélépipédique des gratte-ciels impose une grande résistance, surtout en bas, et donc un réseau serré de poutres robustes. Pour éviter le basculement de ces pieux fichés au bord de l’océan, offrant prise aux vents de tempêtes, les fondations étaient profondément implantées dans le granit, sous la couche sédimentaire.

    29 Les assiettes ne sont pas supposées empilées, mais suspendues à des poteaux verticaux par de frêles attaches, théorie nommée aux É-U pancake theory « théorie de la crêpe », soutenue par la FEMA (Chapitre 2, 2002).
    https://aitia.fr/erd/travaux-diriges-version-serieuse.

    30 Un bélier ne fait que transmettre l’énergie cinétique que les servants lui impriment. Pas d’énergie, pas de choc. Sans élan, un bélier ne peut enfoncer une porte. Si des assiégeants placent la tête du bélier contre la porte d’une forteresse sans faire bouger l’engin, les défenseurs peuvent dormir tranquilles.

    31 Après une étude expérimentale des effets, sur des structures en acier, de hautes températures pendant plusieurs heures. La FEMA a conclu : « Bien que la température des poutres en acier ait atteint 800-900 °C (1.500-1.700 °F) dans trois des tests, nul effondrement n’a été observé pour les six expériences. » FEMA, World Trade Center Building Performance Study, mai 2002, A-9
    Appendix A : Overview of Fire Protection in Buildings.

    32 https://www.youtube.com/watch?v=DR1qnvMDh4w Vidéo esclaffatoire, esbaudissante et rigolisible.

    33 Les dimensions de la Tour Montparnasse sont 50 x 32 x 209 mètres.

    34 L’énergie est une variable extensive et la température une variable intensive.

    35 La température d’un feu de kérosène dépend de l’apport d’oxygène ; à l’air libre elle ne dépasse pas 1100 °C et ne peut atteindre 1700 °C que par apport d’air sous pression dans un réacteur dont les matériaux supportent cette température ; or, près des colonnes centrales des tours, à 25 mètres du dehors, l’apport d’air était faible. Selon le NIST, la température de l’air ne dépassa pas 1000 °C pendant 15 à 20 minutes (NIST, Rapport 1-5, 2005). Ce n’est qu’à la fin du XIXsiècle que les sidérurgistes réussirent à construire des fours supportant des températures assez élevées pour faire fondre l’acier, et nécessitant une alimentation en air.

    Des photos disponibles sur Internet montrent une femme, identifiée par sa famille, faisant des signes de détresse, debout dans la brèche prétendument faite dans la façade en acier par les ailes en aluminium d’un avion, là où la température était censée être infernale selon la version officielle des événements.

    36 http://www.consensus911.org/fr/point-mc-10-fr/#N_7

    37 http://www.consensus911.org/fr/point-mc-10-fr/#N_9 Pour les amateurs de catastrophes :
    https://fr.wikipedia.org/wiki/Chronologie_des_grands_incendies Autres incendies de gratte-ciels : 24 février 1972, tour Andraus à Sao Paulo, 30 étages brûlés ; 1er février 1974, tour Joelma à Sao Paulo, 25 étages, embrasement du 12e au 25étage ; 15 novembre 2010, à Shanghai, un immeuble 28 étages. Certes les tours de Manhattan étaient beaucoup plus hautes, mais ce furent les seules à s’effondrer et être pulvérisées.

    38 Jones, Steven, Korol, Robert, Szamboti, Anthony, and Walter, Ted. 15 years later: on the physics of high-rise

    building collapses. Europhysics News, 47(4):21–26, 2016. Fig. 6. Doi:10.1051/epn/2016402.

    39 N. Harrit, J. Farrer, S. Jones, K. Ryan, F. Legge, D. Farnsworth, G. Roberts, J. Gourley, B. Larsen. Active thermitic material discovered in dust from the 9/11 World Trade Center catastrophe. (2009) The Open Chemical Physics Journal, 2 :7-31

    40 Outre l’acier des colonnes, composant principal, les tours étaient constituées de 110 dalles de béton, de soixante-trois mètres de côté et d’une quinzaine de centimètres d’épaisseur. Les tours étaient deux fois plus hautes (415 et 417 m) que la tour Montparnasse (209 m). Le calcul de la durée de la chute libre dans le vide est du niveau d’un baccalauréat scientifique. La formule est en effet :. La hauteur H des immeubles étant de 400 mètres et l’accélération de la gravité G de 9,81 m/s², la durée est d’environ 9 secondes. C’est une borne inférieure : la chute ne peut pas durer moins (et encore la résistance de l’air est-elle négligée). Or la conservation de la quantité de mouvement rend impossible un effondrement accidentel à la vitesse de la chute libre.

    41 Lou Lumenick. Unflinching look among the ruins. New York Post, 3 Mars 2004.

    42 William Langewiesche. American Ground: Unbuilding the World Trade Center. North Point Press, 2002.

    43 James M. Williams, WTC a structural success. The Newsletter of the Structural Engineers Association of Utah, 6:3, 2001.

    44 Ken Holden, Département de la conception et de la construction de New York ; Audition publique de la Commission nationale sur les attaques terroristes contre les États-Unis, le 1er avril 2003, National Commission on Terrorist Attacks Upon the United States ; Public hearing, Avril 2003.
    http://www.9-11commission.gov/archive/hearing1/9-11Commission_Hearing_2003-04-01.htm [cited2016-06-10].

    45 Dr Barnett, professeur d’ingénierie de la protection contre les incendies à l’Institut polytechnique de Worcester ; cité par James Glanz. A nation challenged: The site; engineers have a culprit in the strange collapse of 7 World Trade Center: Diesel fuel. New York Times, 29 Novembre 2001.

    46 Images of the World Trade Center sites how thermal hot spots on September 16 and 23, 2001.
    https://pubs.usgs.gov/of/2001/ofr-01-0429/thermal.r09.html [cited 2017-06-22].

    47 Charles K. Huyck and Beverley J. Adams. Emergency response in the wake of the World Trade Center attack:
    The remote sensing perspective. Technical report, Multidisciplinary Center for Earthquake Engineering Research,
    Juin 2002.
    http://mceer.buffalo.edu/publications/wtc/02-SP05-screen.pdf. Fig. 3.6, p. 22. Images acquises par EarthData au moyen d’un capteur aéroporté Raytheon.

    48 EarthData International New York State, Office for Technology. Aerial views and maps of the WTC thermal imagery, 2001.
    http://www.loc.gov/exhibits/911/911-maps.html.

    49 Les détails du calcul peuvent être consultés dans l’article « What is Basic Physics Worth? » de l’un des auteurs, disponible en ligne :
    https://hal.archives-ouvertes.fr/hal-02004696

    50 Des traces ont été effacées :
    https://www.bollyn.com/#article_16266

    51 https://www.cdc.gov/wtc/ataglance.html#member1OrMore

    52 Des alliages de métaux à plus basse température de fusion sont employés en soudure.

    53 Cette interprétation fut exposée par un personnage atypique prétendant être un ancien officier soviétique spécialisé dans l’armement nucléaire, et disant vivre à présent en Thaïlande, Dimitri Khalezov. Il présenta sa version des événements dans de longs entretiens en anglais, faciles à trouver sur YouTube en effectuant une recherche sur son nom. Il publia aussi un document de plus de 1000 pages intitulé « 911thology » (« onze-septembrologie ») téléchargeable à partir de son site :
    http://www.911thology.com/

    Le magazine Nexus, dans son édition allemande d’octobre-novembre 2010, publia un article dans lequel Khalezov résume sa version de la destruction des tours de Manhattan, téléchargeable sous forme de PDF :
    https://www.nexus-magazin.de/files/gratis/artikel/Nex31_Khalezov_DritteWahrheit911.pdf. Une traduction en anglais est disponible :
    http://www.911thology.com/nexus1.html C’est en tentant de prouver, par un calcul de coin de table, que ses affirmations étaient insensées, que l’un des auteurs de cet article aboutit à la conclusion que l’hypothèse d’une explosion nucléaire souterraine était nécessaire pour expliquer l’énorme énergie dégagée sous forme de chaleur par les décombres de Ground Zero,au cours des mois suivant les attentats.

    54 Le lac Chagan, au Kazakhstan, fut ainsi creusé : Explosions nucléaires pour l’économie nationale (Мирные ядерные взрывы в СССР).
    https://fr.rbth.com/tech/85161-urss-explosions-nucleaires
    https://fr.wikipedia.org/wiki/Explosions_nucl%C3%A9aires_pour_l%27%C3%A9conomie_nationale

    55 Programme « Plowshare ».
    https://fr.wikipedia.org/wiki/Op%C3%A9ration_Plowshare

    56 Un spécialiste en Physique nucléaire pourrait expliquer la recombinaison du plasma en éléments chimiques.

    57 La pression est une densité d’énergie, quantité d’énergie par unité de volume.

    58 Des essais d’explosions nucléaires souterraines furent faits dans le désert du Nevada. Des loges étaient creusées à plusieurs dizaines de mètres de profondeur, et des photos du site montrent un grand nombre de dépressions causées par ces explosions :
    https://www.youtube.com/watch?v=u1Xe1TUQrpY Underground nuclear subsidence crater.
    https://www.youtube.com/watch?v=u1Xe1TUQrpY
    59 https://inis.iaea.org/collection/NCLCollectionStore/_Public/03/031/3031840.pdf
    https://inis.iaea.org/collection/NCLCollectionStore/_Public/35/095/35095014.pdf

    60 Les dirigeants des grandes puissances furent certainement alertés par leurs services de renseignement.

    61 Dès la construction de tels immeubles, les lignes de rupture des dalles et des poutres, et les places des charges explosives, sont prévues pour qu’ils s’effondrent dans l’aire de leur base, sans risquer de tomber sur les voisins. Les explosifs chimiques, instables à long terme, ne sont évidemment pas placés lors de la construction.

    62 Voir ici la dernière image :
    http://www.911research.wtc7.net/wtc/evidence/masterplan/index.html

    Ces loges sous les immeubles étaient bien sûr vides. Des bombes peuvent avoir été entreposées au sous-sol du bâtiment n° 7 au cours de l’été, lorsque des services de renseignement soupçonnèrent des préparatifs d’attentats. Incidemment la cote de 246 pieds, obtenue par conversion de 75 m, montre que cette partie du plan avait été tracée par des architectes et ingénieurs employant le système métrique.

    63 La tour Sud s’effondra à 9 h 59 minutes 4 secondes, et la tour Nord à 10 h 28 minutes et 31 secondes. Les sismographes du laboratoire de Géophysique Lamont–Doherty de l’Université Columbia, à Palisades situé à 37 kilomètres — l’un des laboratoires qui établirent la théorie de la tectonique des plaques — enregistrèrent, juste avant les effondrements, des signaux de magnitude 2,1 dont les décours et les intensités signent des explosions dans le sol. Des signaux géophysiques durant aussi longtemps qu’une dizaine de secondes résultent de trains d’ondes d’assez forte intensité pour diffuser par divers chemins en se réfractant sur les interfaces de terrains de natures différentes. Des explosions calibrées sont utilisées en Géophysique pour l’étude des sols.
    http://www.agoravox.fr/actualites/international/article/des-signaux-sismiques-revelent-l-70808

    64 Quoique ces immeubles aient contenu des milliers de chaises, de bouilloires électriques, d’ordinateurs et de téléphones, très peu furent retrouvés dans les décombres. Il n’y a pas de marché des reliques, comme il y en eut lors de la destruction du mur de Berlin. Des 2 800 victimes environ disparues, 1 643 ont été identifiées et 293 corps furent retrouvés. En admettant que quelques personnes aient été comptées à tort parmi les disparues, environ un millier de corps paraît manquer. Vingt personnes furent retirées vivantes des décombres et étaient donc hors du parcours de l’onde de choc, que leur localisation permettrait d’étudier. Plusieurs mois plus tard, quelques restes humains furent découverts sur le toit de l’immeuble de la Deutsche Bank, et identifiés par des spécialistes de l’analyse de l’ADN. En effet l’explosion initiale fut très brève, et par conséquent l’onde de choc contint des fréquences si hautes qu’à cette échelle de temps même la chair se comporte comme une matière rigide et est brisée.

    65 Une vidéo https://www.youtube.com/watch?v=3HbD_Q6kmh8 (vers 2 h 5) montre une poutre se dissipant en poussière devant la caméra : ayant perdu sa cohésion, une faible brise suffit à la désagréger. Cette poutre est pourtant une partie du cœur de la tour nord, haute comme un immeuble ordinaire !

    66 Les tours furent inaccessibles pendant le dimanche précédant l’attentat, officiellement pour des travaux de maintenance ; des charges ont pu être placées alors.

    67 https://www.gettyimages.co.uk/detail/news-photo/this-lidar-light-detection-and-ranging-image-of-the-world-news-photo/1164180

    68 Quel crédit accorder à une interprétation qui ferait se retourner dans leur tombe Galilée, Newton, Fourier, Lagrange, Carnot, Boltzmann, Kelvin, Poincaré, Planck, Eiffel, mais qui intéresserait Nobel et le dériderait peut-être, en le distrayant des déboires subis par son prix pour la Paix ?




    ARNm et dommages causés par les vaccins

    [Source : wissenschafftplus.de numéro Juillet-Septembre 2023]

    Par le Dr Stefan Lanka

    Blessures vaccinales et hystérie ARNm : Origine, fonction et effet

    Origine : lorsque les virologues ont inventé l’idée des virus Corona, ils ont intégré une protéine, qu’ils avaient trouvée dans leurs cultures cellulaires, dans le modèle de virus sous forme de protéines spike. Cette protéine, la syncytine, s’est avérée plus tard être typiquement humaine, ce que les virologues comme les critiques passent sous silence. Comme cette protéine est toujours détectée lors de « prétendues lésions par ARNm », les critiques affirment qu’il s’agit de la protéine spike des virus Corona. S’ils avaient effectué des expériences de contrôle sur des « tissus sains », ils auraient trouvé de la même manière cette protéine ou son acide nucléique partout.

    Fonction : la superstition incendiaire des virus est stabilisée. Le véritable danger toxique que représentent ces vaccins est supprimé. Pendant la terreur de la grippe porcine, la présence et la dangerosité des nanoparticules dans les vaccins ont pu être abordées publiquement. Suite à cela, 93 % de la population a refusé le vaccin et la terreur a pris fin du jour au lendemain.

    Effet : Celui qui prétend que l’ARNm peut pénétrer dans le corps, directement par la vaccination ou indirectement par les personnes vaccinées, y déclencher une production de protéines et des réactions auto-immunes et excréter de prétendues protéines spike, augmente la terreur de la peur du Corona à l’infini. Ceux qui sont touchés par cette peur et qui subissent ainsi des chocs conflictuels de longue durée développeront des symptômes « psychosomatiques ». De légers à graves, voire mortels, en fonction des programmes déclenchés, de leur durée et de l’apparition ou non de complications. Mot-clé : rein.

    Remarque : si l’on ne remet pas tout en question, on peut aussi devenir, sans le vouloir, le meilleur ami de la terreur de la peur.

    Conseil : Ne faites pas confiance à un critique qui ne connaît pas la biologie réelle.

    Ce sont les nanoparticules ! L’ARNm dans les vaccins ARNm ne provoque pas de blessures vaccinales

    Les personnes qui ont développé des problèmes de santé après avoir été vaccinées par le vaccin Corona pensent que ces problèmes, voire la mort, ont été causés par l’ARNm contenu dans les vaccins. Ce n’est pas vrai ! Si les lésions sont causées par des thromboses, les nanoparticules contenues dans les vaccins en sont responsables.

    Tous les autres symptômes, surtout les symptômes classiques de la médecine, comme la myocardite et d’autres modifications spécifiques des organes, sont causés par la « psychosomatique » de la terreur corona prolongée. Ces symptômes se développent après un certain temps, lorsque les chocs conflictuels déclenchés par la terreur anxieuse sont dissous. Cette résolution a lieu chez toutes les victimes de choc conflictuel lorsque celles-ci se sentent à nouveau en sécurité grâce à la vaccination, lorsque la terreur s’atténue ou disparaît. L’ARNm dans les vaccins est décomposé de manière fiable par les nanoparticules agressives contenues dans les vaccins, dès que ceux-ci sont décongelés ou même pas congelés. L’ARNm dans les vaccins Corona ne peut donc, pour cette raison, causer de dommages.

    Remarque : comme il n’y a pas de virus et qu’il ne peut pas exister de virus si l’on connaît la biologie réelle, il n’y a pas d’ARNm d’une protéine spike qui pourrait causer des dommages.

    Conseil : n’ayez pas peur de l’ingénierie génétique ! Elle ne fonctionne pas et tous les types de molécules d’ARNm injectées dans le corps sont dégradés en quelques millisecondes.

    « Les vaccins sont une tentative enfantine de faire face à la maladie ». Qui a dit cela et pourquoi ?

    Cette déclaration a été faite par le professeur Heinrich Stemberger, le plus grand infectiologue d’Autriche, lors de la conférence sur la vaccination du 23 octobre 2001 à Linz. Un contrat avait été conclu au préalable avec les organisateurs, qui stipulait que le professeur Stemberger devait projeter à l’écran au moins une publication scientifique sur l’existence d’un virus pathogène et en expliquer les preuves.

    Le professeur Stemberger a déclaré le 23 octobre 2001 qu’il n’était pas nécessaire de disposer de preuves scientifiques concrètes pour démontrer l’existence d’un virus. La preuve résulterait de dizaines de milliers d’observations et il faudrait avoir fait des études de médecine pour comprendre et avoir son mot à dire. Après que le professeur Stemberger ait été confronté aux règles contraignantes du travail scientifique, qui stipulent clairement que toutes les affirmations scientifiques doivent être clairement prouvées et publiées, son aveu est venu :

    « Je l’admets, les vaccins sont une tentative enfantine de faire face à la maladie — nous n’avons tout simplement rien de mieux ». Pourquoi le professeur Stemberger a-t-il dit, dans cette situation exceptionnelle, la vérité sur la vaccination, qui va au-delà de la question de l’existence des virus ? Parce qu’il sait qu’il n’existe aucune preuve de l’existence des virus ET que la vaccination ne peut pas protéger de la maladie. La « science » définit en effet que la vaccination ne produit qu’une soi-disant protection immunitaire, mais que celle-ci ne protège pas contre les maladies.

    Remarque : le résumé le plus court de la vaccination : en dehors des dépenses — plus les dommages dus à la vaccination et à la panique — rien n’a été fait.

    Conseil : pour les débutants en matière de vaccination, ce livre : « La vaccination présentée simplement et de manière compréhensible » (en allemand « Impfen-einfach und verständlich dargestellt » (voir p. 59). Pour les plus avancés, les articles de notre magazine W+ depuis 2003.

    [Traduction Jean Bitterlin 02.11.2023]




    Tyrannie digitale et servitude numérique : le cauchemar arrive

    Par Nicolas Bonnal

    L’Europe de Breton et de Bill Gates va imposer une tyrannie digitale inédite en Europe, et que nous étions nombreux à avoir décrite. Dans mon Internet nouvelle voie initiatique (initiatique était ironique, comme pour Mitterrand, mais il faut croire que depuis Voltaire ou Montesquieu l’ironie n’est plus de mise) publié aux Belles Lettres, célébré par la presse, inspiratrice de thèses, Une du Monde des Livres et traduite au Brésil par l’institut Piaget (tout ça pour rien), j’avais rappelé les chiffres : ils veulent soixante millions (et pas 600) de survivants, ils veulent chasser la viande (les 99 % les plus pauvres, tels que décrits par Gibson dans ses livres sur le cyberspace), ils veulent nos gnostiques techno anéantir la chair (pas de carbone) et créer un alias digital, semblables à ceux décrits par Wegener dans son Étudiant de Prague (Baudrillard en parle bien) ou par Chamisso.

    En vérité, on ne va être rien. Entre euro numérique et personnalité (et non-identité) digitale, ils vont tout liquider. Ils avaient déjà liquidé l’âme et l’esprit (voyez mes textes sur Steiner), ils vont liquider les corps et leur semblant de liberté et de consommation. La fin des religions les aide. De toute manière les religions avec leur jugement dernier, leur programmation mentale et leur servitude spirituelle nous préparaient au cauchemar techno-gnostique et au camp d’extermination numérique. Le vaccinat dénonce ses apostats. Cela n’empêche pas une disparition des religions, pas seulement de la caricaturale catholique romaine déshonorée en place Saint-Pierre dans l’indifférence générale du troupeau catho déjà dénoncé par Bloy, Bernanos ou même Montesquieu (« le pape est une vieille idole que l’on encense par habitude »).

    L’outil crée la fonction, dit-on, et on a raison. Avec un outil de contrôle absolu et permanent, la démocratie techno-bourgeoise (quelle classe révolutionnaire tout de même, comme disait Marx, que cette bourgeoisie) va dépasser Hitler et Staline et peut-être rivaliser avec Pol Pot, mais plus finement. On a des ficelles pour se moquer et truander les marionnettes, on n’a pas besoin de les pousser au canon de fusil pour qu’elle crève dans une jungle. Le 666 était donc là depuis le début des années 70 (code-barres), la chasse au pétrole aussi (premiers pots catalytiques en 1971 en Californie), le reste était affaire d’inflation-impression-bancaire, d’éducation, d’abrutissement. C’est souvent la même chose : avant on t’apprenait à aller te faire tuer par l’allemand, aujourd’hui par le chasseur de carbone. Le contrôle digital du cerveau a été chose simple. On a programmé une génération pour bien vivre (les boomers), on programme les petits-enfants-O des boomers pour crever.

    Qui va garder le camp de concentration d’abord, d’extermination ensuite ? On a une énorme administration et un énorme étatisme partout (Chine et Russie, paradis libertariens peut-être ?) et on a une administration conditionnée qui veut nous ôter la gêne de penser et la peine de vivre (Tocqueville toujours). Après on a un troupeau télé et digitalisé de première catégorie qui ne se rend plus compte de rien et qui avait été de toute manière conditionné par le pouvoir moderne, le Minotaure de Jouvenel.

    L’élite mondialiste est devenue motivée, mais son pouvoir absolu via la technologie va la rendre plus motivée encore. Elle va donc avec l’aide de notre hébétude (mot qu’on retrouve chez Baudrillard, Mgr Gaume, Debord ou Tocqueville) accéléré le programme Davos-Hariri qui a compris que plus on révèle moins on est cru. Peut-être que tout cela sera terminé avant 2030, avant que le troupeau ait réalisé.

    Je me fais de plus en plus insulter et menacer, par d’anciennes relations (j’attaque le pape, la religion, les gentils hommes politiques, la gentille société démocratique-bureaucratique, la gentille philanthropie décrite par Jack London, que sais-je encore ?)… C’est une belle récompense. Tout cela montre que nous allons perdre.




    Déploiement de mini-cellules 5G alimentées par les lampadaires

    [Source : echelledejacob]

    AT&T [aux USA] accélère le déploiement de son réseau 5G en intégrant des petites cellules dans les lampadaires existants pour réduire les coûts et accélérer le déploiement. La société a déclaré que dans certains cas, une petite cellule peut être déployée en 15 minutes seulement.

    Dans un article de blog, Gordon Mansfield, vice-président de l’accès à la mobilité et de l’architecture chez AT&T, a déclaré qu’AT&T avait testé l’année dernière des prototypes de ces petites cellules alimentées par des lampadaires et que la société est actuellement en train de tester sur le terrain et de déployer commercialement ces unités dans plusieurs villes. Une porte-parole d’AT&T a refusé de révéler les villes, mais a déclaré qu’elles avaient été sélectionnées « en raison des besoins et parce qu’elles disposaient d’une réglementation et de fournisseurs de services publics et d’éclairage locaux qui avaient des procédures et des pratiques qui facilitent le déploiement ».

    Mansfield a déclaré que l’un des plus grands défis dans le déploiement d’une nouvelle infrastructure de réseau est le temps nécessaire pour acquérir des sites, concevoir des installations et obtenir des permis, notant qu’il faut souvent entre 12 et 18 mois pour installer un nouveau site.

    En intégrant des radios 5G dans les lampadaires, les opérateurs peuvent réduire considérablement ce temps. Les lampadaires sont déjà alimentés en électricité et se trouvent souvent à proximité de la fibre optique pour le raccordement. De plus, ils ont la hauteur idéale pour une petite cellule, car ils mesurent généralement entre 8 et 10 mètres de haut et sont espacés d’environ 50 mètres. De plus, la plupart des lampadaires disposent d’une prise électrique commune, connue sous le nom de prise ANSI C136 (ou NEMA).

    Il y a environ trois ans, Mansfield a déclaré s’être connecté avec la start-up de solutions intelligentes Ubicquia et avoir interrogé l’entreprise sur la possibilité de petites cellules alimentées par l’éclairage public. Ubicquia s’est associée à Ericsson et les deux sociétés ont développé l’Ericsson Street Radio 4402, une petite cellule qui peut être branchée sur des lampadaires existants avec une prise NEMA. L’appareil se trouve juste au-dessus du bouclier du lampadaire et à côté de la lumière afin de se fondre dans l’infrastructure existante. La radio prend en charge la 5G basse ou moyenne bande, avec un système d’antenne MIMO 4×4 entièrement intégré.

    Mansfield a ajouté que les petites cellules alimentées par les lampadaires 5G sont équipées de capteurs intelligents qui peuvent détecter lorsqu’un lampadaire ne fonctionne pas parce qu’il a été endommagé lors d’une tempête ou en raison d’une panne de courant. « Cela nous aide à évaluer rapidement les dégâts et à envoyer des équipes pour les réparations ou à alerter le fournisseur d’électricité d’un problème », a-t-il déclaré.

    Un autre aspect attrayant de l’Ericsson Street Radio est que lors de son déploiement, les ampoules existantes sur les lampadaires peuvent être remplacées par des lumières LED pour réduire la consommation d’énergie et contribuer aux objectifs de développement durable.

    Source 

    Les villes vont ressembler à des micro-ondes à ciel ouvert ! Bonjours les problèmes de santé !




    Alexis Carrel et notre civilisation destructrice

    [Publication initiale : dedefensa.org]

    Par Nicolas Bonnal

    On va laisser en parler un qui a le don de les énerver, les médias et les « élites », j’ai nommé Alexis Carrel. Prix Nobel de médecine quand même, et grande star en Amérique à l’époque de Roosevelt. Le chirurgien avait enlevé ses gants pour dire ses quatre vérités, car il savait avant les Orlov, Kunstler et autres collapsologues que nous étions bien condamnés. On cite l’édition américaine que le prestigieux Carrel avait présentée à New York avant la Guerre :

    « En somme, la société moderne, cette société engendrée par la science et la technologie, commet la même faute que toutes les civilisations de l’Antiquité. Elle crée des conditions de vie où la vie de l’individu et celle de la race deviennent impossibles. Elle justifie la boutade du doyen Inge : Civilization is a disease which is almost invariably fatal [La civilisation est une maladie presque toujours mortelle]. Bien que la signification réelle des événements qui se passent en Europe et aux États-Unis échappe encore au public, elle devient de plus en plus claire à la minorité qui a le temps et le goût de penser. Toute la civilisation occidentale est en danger. Et ce danger menace à la fois la race, les nations, et les individus. Chacun de nous sera atteint par les bouleversements causés par une guerre européenne. Chacun souffre déjà du désordre de la vie et des institutions, de l’affaiblissement général du sens moral de l’insécurité économique, des charges imposées par les défectifs et les cri­minels. La crise vient de la structure même de la civilisation. Elle est une crise de l’homme. L’homme ne peut pas s’adapter au monde sorti de son cerveau et de ses mains. Il n’a pas d’autre alternative que de refaire ce monde d’après les lois de la vie. Il doit adapter son milieu à la nature de ses activités organiques aussi bien que mentales, et rénover ses habitu­des individuelles et sociales. Sinon, la société moderne rejoindra bientôt dans le néant la Grèce et l’Empire de Rome. Et la base de cette rénovation, nous ne pouvons la trouver que dans la connaissance de notre corps et de notre âme. »

    À propos de Rome et de la Grèce, lisez mon livre noir : Juvénal, Suétone, Sénèque ont vu et vécu notre situation. Sans oublier Pétrone !

    Carrel ramène la démocratie à une idéologie, et on est bien d’accord :

    « Aucune civilisation durable ne sera jamais fondée sur des idéolo­gies philosophiques et sociales. L’idéologie démocratique elle-même, à moins de se reconstruire sur une base scientifique, n’a pas plus de chance de survivre que l’idéologie marxiste. Car, ni l’un ni l’autre de ces systèmes n’embrasse l’homme dans sa réalité totale. »

    Le culte moderne de la laideur, de la hideur même, est une tare universelle maintenant.

    Carrel explique :

    « Le sens esthétique existe chez les êtres humains les plus primitifs, comme chez les plus civilisés. Il survit même à la disparition de l’intelligence car les idiots et les fous sont capables d’œuvres artistiques. La création de formes ou de séries de sons, qui éveillent chez ceux qui les regardent ou les entendent, une émotion esthétique, est un besoin élémentaire de notre nature. L’homme a toujours contemplé avec joie les animaux, les fleurs, les arbres, le ciel, la mer, et les montagnes. Avant l’aurore de la civilisation, il a employé ses grossiers outils à reproduire sur le bois, sur l’ivoire, et la pierre, le profil des êtres vivants. »

    Nous sommes moins que des fous alors ?

    Puis Carrel soulève la menace de la civilisation qui pèse sur les ouvriers et artisans condamnés à disparaître :

    « Aujourd’hui même, quand son sens esthétique n’est pas détruit par son éducation, son mode de vie, et le travail de l’usine, il prend plaisir à fabriquer des objets suivant son inspiration propre. Il éprouve une jouissance esthé­tique à s’absorber dans cette œuvre. Il y a encore en Europe, et surtout en France, des cuisiniers, des charcutiers, des tailleurs de pierre, des menuisiers, des forgerons, des couteliers, des mécaniciens, qui sont des artistes. Celui qui fait une pâtisserie de belle forme, qui sculpte dans du saindoux des maisons, des hommes et des animaux, qui forge une belle ferrure de porte, qui construit un beau meuble, qui ébauche une grossière statue, qui tisse une belle étoffe de laine ou de soie, éprouve un plaisir analogue à celui du sculpteur, du peintre, du musicien, et de l’architecte. »

    Carrel plaint comme le Chaplin des Temps modernes les ouvriers :

    « Si l’activité esthétique reste virtuelle chez la plupart des individus, c’est parce que la civilisation industrielle nous a entourés de spectacles laids, grossiers, et vulgaires. En outre, nous avons été transformés en machines. L’ouvrier passe sa vie à répéter des milliers de fois chaque jour le même geste. D’un objet donné, il ne fabrique qu’une seule pièce. Il ne fait jamais l’objet entier. Il ne peut pas se servir de son intelligence. Il est le cheval aveugle qui tournait toute la journée autour d’un manège pour tirer l’eau du puits. »

    Un petit procès d’intention contre la civilisation — procès très mal vu maintenant qu’elle est jugée fantastique et parfaite :

    « L’industrialisme empêche l’usage des activités de la conscience qui sont capables de donner chaque jour à l’homme un peu de joie. Le sacrifice par la civilisation moderne de l’esprit à la matière a été une erreur. Une erreur d’autant plus dangereuse qu’elle ne provoque aucun sentiment de révolte, qu’elle est acceptée aussi facilement par tous que la vie malsaine des grandes villes, et l’emprisonnement dans les usines. Cependant, les hommes qui éprouvent un plaisir esthétique même rudimentaire dans leur travail sont plus heureux que ceux qui produisent uniquement afin de pouvoir consommer. Il est certain que l’industrie, dans sa forme actuelle, a enlevé à l’ouvrier toute originalité et toute joie. »

    Le grand savant met enfin les points sur les I :

    « La stupidité et la tristesse de la civilisation présente sont dues, au moins en partie, à la suppression des formes élémentaires de la jouissance esthétique dans la vie quotidienne. »

    Ensuite le docteur Carrel aggrave son cas. Il célèbre en effet la beauté artisanale. Appréciez au passage ses grandes qualités littéraires qui nous changent des stylistes de science et vie ; et des alphabètes actuels sélectionnés au QCM :

    « La beauté est une source inépuisable de joie pour celui qui sait la découvrir. Car elle se rencontre partout. Elle sort des mains qui modèlent, ou qui peignent la faïence grossière, qui coupent le bois et en font un meuble, qui tissent la soie, qui taillent le marbre, qui tranchent et réparent la chair humaine. Elle est dans l’art sanglant des grands chirurgiens comme dans celui des peintres, des mu­siciens, et des poètes. Elle est aussi dans les calculs de Galilée, dans les visions de Dante, dans les expériences de Pasteur, dans le lever du soleil sur l’océan, dans les tourmentes de l’hiver sur les hautes montagnes. Elle devient plus poignante encore dans l’immensité du monde sidéral et de celui des atomes, dans l’inexprimable harmonie du cerveau humain, dans l’âme de l’homme qui obscurément se sacrifie pour le salut des autres. Et dans chacune de ses formes, elle demeure l’hôte inconnu de la substance cérébrale, créatrice du visage de l’Univers… »

    L’atrophie esthétique donc morale peut survenir :

    « Le sens de la beauté ne se développe pas de façon spontanée. Il n’existe dans notre conscience qu’à l’état potentiel. À certaines époques, dans certaines circonstances, il reste virtuel. Il peut même disparaître chez les peuples qui autrefois le possédaient à un haut degré. C’est ainsi que la France détruit ses beautés naturelles et méprise les souvenirs de son passé. »

    Comme on sait la meilleure manière de détruire tout cela reste le tourisme de masse.

    L’atrophie morale et intellectuelle nous rend inaptes à recréer de la beauté et nous accoutume à une laideur épouvantable (souvenez-vous du Muriel de Resnais où la ville bombardée renaît de ses cendres, mais en béton et grands ensembles) :

    « Les descendants des hommes qui ont conçu et exécuté le monastère du Mont Saint-Michel ne comprennent plus sa splendeur. Ils acceptent avec joie l’indescriptible laideur des maisons modernes de la Bretagne et de la Normandie, et surtout des environs de Paris. De même que le Mont Saint-Michel, Paris lui-même et la plupart des villes et villages de France ont été déshonorés par un hideux commercialisme. Comme le sens moral, le sens de la beauté, pendant le cours d’une civilisation, se développe, atteint son apogée, et s’évanouit ».

    La culture ? Tout le monde consomme la série US ou le Da Vinci code ; un copain kiosquier me disait jadis qu’il vendait jusqu’à 300 revues de bagnole… Alexis Carrel :

    « Le goût de la lecture est plus grand. On achète beaucoup plus de revues et de livres qu’autrefois. Le nombre de gens qui s’inté­ressent à la science, à la littérature, à l’art, a augmenté. Mais ce sont les formes les plus basses de la littérature et les contrefaçons de la science et de l’art qui, en général, attirent le public. Il ne paraît pas que les excel­lentes conditions hygiéniques dans lesquelles on élève les enfants, et les soins dont ils sont l’objet dans les écoles, aient réussi à élever leur niveau intellectuel et moral. On peut même se demander s’il n’y a pas souvent une sorte d’antagonisme entre leur développement physique et leur développement mental. Après tout, nous ne savons pas si l’augmentation de la stature dans une race donnée n’est pas une dégénérescence, au lieu d’un progrès, ainsi que nous le croyons aujourd’hui. »

    L’individu d’aujourd’hui ? Avant l’obésité (42 % d’enfants obèses où je vis), avant l’abrutissement techno et média, avant l’effondrement du QI, Carrel écrit :

    « Dans la civilisation moderne, l’individu se caractérise surtout par une activité assez grande et tournée entièrement vers le côté pratique de la vie, par beaucoup d’ignorance, par une certaine ruse, et par un état de faiblesse mentale qui lui fait subir de façon profonde l’influence de milieu où il lui arrive de se trouver. Il semble qu’en l’absence d’armature morale l’intelligence elle-même s’affaisse. C’est peut-être pour cette raison que cette faculté, jadis si caractéristique de la France, a baissé de façon aussi manifeste dans ce pays. Aux États-Unis, le niveau intellectuel reste inférieur, malgré la multiplication des écoles et des universités. »

    Carrel remarque aussi :

    « Le chauffage des maisons à la vapeur, l’éclairage électrique, les ascenseurs, la morale biologique, les manipulations chimiques des denrées alimentaires ont été acceptés uniquement parce que ces innovations étaient agréables et commodes. Mais leur effet probable sur les êtres humains n’a pas été pris en considération…On est arrivé ainsi à la construction des maisons géantes qui accumulent en un espace restreint des masses beaucoup trop considérables d’individus. Ceux-ci y habitent avec plaisir, car jouissant du confort et du luxe ils ne s’aperçoivent pas qu’ils sont privés du nécessaire. La ville moderne se compose de ces habitations monstrueuses et de rues obscures, pleines d’air pollué par les fumées, les poussières, les vapeurs d’essence et les produits de sa combustion, déchirées par le fracas des camions et des tramways, et encombrées sans cesse par une grande foule. Il est évident qu’elle n’a pas été construite pour le bien de ses habitants. »

    On ne fait aucun progrès depuis, il ne manquerait plus que cela. Sur la médecine ou le pain blanc, Carrel avait tout dit aussi :

    « Notre vie est influencée dans une très large mesure par les journaux. La publicité est faite uniquement dans l’intérêt des producteurs, et ja­mais des consommateurs. Par exemple, on a fait croire au public que le pain blanc est supérieur au brun. Aussi des quantités de produits alimentaires et pharmaceutiques, inutiles, et souvent nuisibles, sont-ils devenus une nécessité pour les hommes civilisés. C’est ainsi que l’avidité des individus assez habiles pour diriger le goût des masses populaires vers les produits qu’ils ont à vendre, joue un rôle capital dans notre civilisation. »

    On dirait du Frédéric Bernays (lisez mon textes). Cerise sur le gâteau :

    « On dirait que la civilisation moderne est incapable de produire une élite douée à la fois d’imagination, d’intelligence et de courage. Dans presque tous les pays, il y a une diminution du calibre intellectuel et moral chez ceux qui portent la responsabilité de la direction des affaires politiques, économiques et sociales. »

    Notre penseur écrit sur l’apocalypse touristique dont la mission est essentiellement profanatrice, ensuite consumériste (il faut traîner, faire du hanging around) :

    « L’attitude des touristes qui profanent les cathédrales d’Europe montre à quel point la vie moderne a oblitéré le sens religieux. L’activité mystique a été bannie de la plupart des religions. Sa signification même a été oubliée. À cet oubli est liée probablement la décadence des églises. »

    Dans une société d’imbéciles, on ne propose pas des solutions. On les oublie. Carrel a aussi souligné le déclin qualitatif et quantitatif de nos populations :

    « La France se dépeuple déjà. L’Angleterre et la Scandinavie se dépeupleront bientôt. Aux États-Unis, le tiers supérieur de la population se reproduit beaucoup moins rapidement que le tiers inférieur. L’Europe et les États-Unis subissent donc un affaiblissement qualitatif aussi bien que quantitatif… La civilisation occidentale ne s’est jamais trouvée en aussi grave péril qu’aujourd’hui. Même si elle évite le suicide par la guerre, elle s’achemine vers la dégénérescence grâce à la stérilité des groupes humains les plus forts et les plus intelligents. »

    On le laisse conclure !

    « Il faut nous lever et nous mettre en marche. Nous libérer de la technologie aveugle. »

    Tel quel !

    Terminons. Je sais qu’on peut lui reprocher ici et là quelques phrases (Carrel est notamment russophobe, comme nos élites, mais il a l’excuse de la peur du stalinisme). Mais avant de lui jeter la première pierre, on relit son Nietzsche :

    « Les historiens naïfs appellent “objectivité” l’habitude de mesurer les opinions et les actions passées aux opinions qui ont cours au moment où ils écrivent. C’est là qu’ils trouvent le canon de toutes les vérités. Leur travail c’est d’adapter le passé à la trivialité actuelle. Par contre, ils appellent “subjective” toute façon d’écrire l’histoire qui ne considère pas comme canoniques ces opinions populaires. »

    Sources

    Alexis Carrel — l’homme cet inconnu

    Nietzsche — Deuxième considération (sur l’histoire)

    Nicolas Bonnal — Céline, la colère et les mots (Avatar éditions) ; apocalypse touristique (Amazon.fr)




    Historicité des livres de Moïse et des Patriarches

    [Source : ARKEOS/arkeos.tv]

    Cette émission revient sur la réalité historique des récits de la Torah, les 5 premiers livres de la Bible – ainsi que sur l’historicité des Patriarches de la Genèse.

    Notes et Références

    L’historicité de la Torah par des preuves bibliques « internes » ?

    De prime abord, il peut paraître surprenant de vouloir démontrer la validité de certains récits bibliques, en s’appuyant sur la Bible. Cela paraît relever du « raisonnement circulaire ».

    Pourtant, cette remarque ne peut pas s’appliquer à la Bible. Pourquoi ? Parce que si un livre ordinaire est généralement écrit par un auteur, ce n’est pas le cas de la Bible. La Bible est une collection de livres, qui ont donc été rédigés par différents auteurs, et dont la plupart ont vécu à des époques séparées par plusieurs siècles !

    Prenons par exemple le prophète Esaïe, conseiller des rois de Juda (sud d’Israël) fin du 8e siècle avant Jésus. Il a donc vécu 7 siècles après Moïse. Ce qui signifie concrètement qu’il y a le même écart entre Esaïe et Moïse qu’entre un écrivain actuel — du 21e siècle — et un auteur qui a vécu au 14e siècle. Au 14e siècle, Dante terminait la rédaction de la « Divine comédie », le fléau de la lèpre était en pleine régression et les cottes de mailles de cette fin du Moyen-âge remplaçaient les anciennes armures sur les champs de bataille. Donc, si on se limite à Moïse et Esaïe, on a bien des auteurs extrêmement différents, dans des contextes qui n’ont absolument rien de commun.

    Or l’existence d’Esaïe, des rois et de la situation de son époque est largement attestée, comme nous l’avons vu par ailleurs. C’est à son époque que le roi Osée, qui dirige le royaume du nord d’Israël, avec tout son peuple, vont être déportés en Assyrie par Shalmanesser en 722 avant Jésus.

    Donc, puisqu’Esaïe fait continuellement référence à la Torah de Moïse, pour essayer d’éloigner le peuple des idoles et le ramener à l’Éternel, c’est obligatoirement que la Torah devait exister ! Sinon cela n’aurait aucun sens. Elle n’a donc pas pu être rédigée 150 plus tard à Babylone comme certains le prétendent.

    C’est donc que le peuple de l’époque d’Esaïe sait pertinemment, non seulement ce qu’elle est, mais aussi ce qu’elle représente. Sinon tous les efforts d’Esaïe n’avaient absolument aucune chance d’avoir le moindre impact s’il prenait comme appui la Torah, alors qu’elle n’aurait pas existé, ou qu’elle n’aurait représenté aucune autorité pour le peuple ! Et c’est encore bien plus vrai concernant les rois auxquels il s’adressait. Il venait à la cour rencontrer les dirigeants, il leur faisait de sévères reproches, il les avertissait des jugements qu’ils risquaient s’ils n’obéissaient pas aux préceptes de Moïse. Quelle chance aurait-il pu avoir de les convaincre si ces rois n’avaient pas eu connaissance, non seulement de l’existence de la Torah, mais de son contenu et de son autorité ?! Si Esaïe, et tous les autres prophètes pendant des siècles, ont fait continuellement appel à la Torah, donc aux préceptes de Moïse, ainsi qu’à l’héritage spirituel des Patriarches, c’est que la Torah non seulement existait, mais qu’elle était connue et qu’elle rapportait effectivement leur histoire, celle de leurs ancêtres, et toutes les péripéties qu’ils avaient vécues.

    C’est parce que les livres de Moïse constituaient la référence absolue, pour le peuple comme pour ses dirigeants, que tous les prophètes, depuis Samuel jusqu’à Jérémie et tous les autres, l’ont citée constamment, invitant chacun et chacune à y revenir de tout son cœur. C’est donc qu’elle existait depuis longtemps, et qu’elle rapportait l’histoire réelle du peuple. C’était son histoire, celle qu’il connaissait, celle que ses parents connaissaient, celle que ses ancêtres prenaient continuellement comme référence. Il est donc impossible de nier son authenticité.

    Conflit entre Égyptiens et Hittites et Bataille de Qadesh. Un bel exemple de propagande égyptienne et hittite

    Excellent article, accessible et bien documenté :

    >> Qadesh

    Effacer les récits des pharaons gênants — une pratique courante en Égypte

    Article Science et Vie :

    >> Ils ont voulu effacer le pharaon

    Description de la fresque de la tombe de Khnoum Hotep (en anglais)

    Article de Associates for Biblical Research :

    >>  Les Asiatiques de Beni Hassan et les Patriarches

    Une déclaration de William Albright, l’archéologue américain qui a développé l’archéologie biblique

    W. Albright a grandement contribué à développer l’archéologie biblique. Il a été évidemment attaqué et ses travaux ont été raillés parce qu’il était croyant, accusé d’avoir une approche « biaisée » et de chercher « à prouver la Bible » parce qu’il croyait que la Bible était vraie. Sa contribution à la défense du récit biblique a cependant été majeure, de qualité, et il a longtemps dirigé l’American School of Oriental Research à Jérusalem. Ses travaux en Assyriologie, sa connaissance du monde Hittite et ses fouilles au Moyen-Orient ont permis de mettre à jour de nombreux sites archéologiques de grande importance.

    Concernant ceux qui acceptent une rédaction tardive de la Torah, il a déclaré :

    La rédaction de la Torah ne correspond pas du tout au 9e, 6e ou 5e siècle BC (avant Christ). Il existe une faille évidente dans cette théorie : le récit biblique sur les patriarches ne présente aucun parallèle avec les conditions sociales et culturelles de l’époque « plus tardive » où le récit aurait été supposément composé. « Wellhausen et ses disciples ne pouvaient pas discerner cette difficulté et cette faille à leur théorie pour la simple raison qu’ils étaient ignorants des réelles conditions de vie qui sévissaient en Palestine à cette époque plus tardive (les 8e et 9e siècles) et à l’époque patriarcale. »

    Récit de la découverte d’Our — « Le cri des Pierres » W. H. Guiton 1939

    « Ce fut lorsque nous eûmes creusé sous la couche datant de la période du roi de Larsa que nous trouvâmes l’objet essentiel de nos recherches : le mur de la terrasse d’Ur-Engur, le constructeur du grand Ziggurat lui-même. C’était un mur massif, incliné, tranchant à l’intérieur, comme il convient à un mur retenant une plate-forme et construit en briques non cuites.

    Rangés en lignes et à intervalles réguliers, on avait scellé des cônes entaillés d’argile cuite. Leurs sommets formaient des motifs et leur base portait le nom du roi et une inscription dédiant ce bâtiment à la lune. Pour la première fois, ces cônes inscrits furent trouvés en position et l’on put se rendre compte de leur usage réel. Pour la première fois, nous pûmes nous faire une idée de ce qu’était un Ziggurat dans sa position primitive quand, en l’an 2300 avant Jésus-Christ, Ur-Engur » construisit une terrasse, la remplit avec de l’argile raffinée et plaça la maison au centre ».

    « Nous devons maintenant continuer nos recherches en vue de découvrir le portail original et son emplacement. Nous savons que 2000 ans avant Jésus-Christ, il avait été réparé par Ishme -dagan, roi de Larsa, et qu’en 1600 avant Jésus-Christ, il était en ruines. Ses fondations furent alors fortifiées et un mur de protection fut bâti par Kuri-Galzu, le roi kassite. Un millier d’années plus tard, Sinbalatsu-ikbi le reconstruisit et il servait alors comme grand portail du Temenos, la porte qui probablement fermait la voie sacrée, et par cette porte, les jours de fête, la procession sortait de la terrasse centrale.

    » Les excavations opérées sur l’emplacement de la cité permettent de remonter dans son histoire depuis le régime perse jusqu’à une époque préhistorique assez lointaine pour qu’on ne puisse lui assigner la date précise. L’immense masse de briques de la Ziggourat, sorte de tour de Babel, dominait la cité. On a découvert que les fondations de cette tour reposent elles-mêmes sur une plate-forme artificielle au-dessus de la plaine : elle était donc construite sur les débris d’une autre Ziggourat élevée vers l’an 3000 avant Jésus-Christ. Les fouilles ont mis à jour, à la surprise des savants, des murs de briques de boue arrondies au sommet et placées de champ comme des arêtes de poisson, disposition marquant la période de 3300, époque de la 1re dynastie.

    « Bien plus, il se trouve encore d’autres murailles, à 7 mètres au-dessous de celles-là, qui appartiennent à une époque où l’usage des briques moulées, même celles d’argile grossière, était l’exception, et où l’on se bornait à entasser une argile ferme et desséchée, mélangée à une sorte de boue de mortier, genre pisé, que l’on a de la peine à distinguer aujourd’hui du sol qui l’entoure. Le Docteur Woolley a retrouvé les limites de cette terrasse préhistorique ainsi construite, sur laquelle bâtirent les rois postérieurs de la 3e dynastie, qui en élevèrent le niveau en remplissant de débris et de boue les intervalles des murailles. » Quant à la Ziggourat qui est encore debout aujourd’hui, les murs et les terrasses en sont faits de briques cuites et de bitume ; beaucoup de tablettes déposées dans l’édifice ont encore des traces de ce bitume, celui qui se trouve dans les lacs du désert qui sont encore aujourd’hui un trait caractéristique de la région. C’est exactement la matière dont parle la Genèse (Chap. 11 v. 3) à propos de la Tour de Babel : « La brique leur tint lieu de pierre et le bitume de mortier. »

    Prisme du Louvre d’Assurbanipal

    >> Prisme d’Assurbanipal

    Notes et Références

    Article de Wayne Horowitz sur l’existence de chameaux domestiqués dans la haute antiquité à l’époque patriarcale (anglais) :

    >> Plus doux que le lait de chamelle

    Traduction du passage concernant le lait de chamelle issu de la Tablette de Nippour

    18. Rendez le lait jaune pour moi, mon époux, rendez le lait jaune [pour moi].

    19. Ô mon époux, puis-je boire du lait avec toi ?…] du lait avec toi.

    20. O taureau sauvage Dumuzi, fais jaunir le lait pour moi.

    21. O mon époux, puis-je boire du lait avec toi ?

    22. Avec du lait de chèvre, [de ?] la bergerie [… ]

    23. O Nin šarra, 7 remplis la baratte de beurre sacré [pour moi]

    24. O Dumuzi, [fais] jaunir pour moi le lait de la chamelle (à deux bosses) (am.si.har.ra.an) [jaune pour moi]

    25. La chamelle (à deux bosses), son lait [est doux]

    26. Son lait de beurre, qui est doux, [me rend jaune]

    27. Seigneur Dumuzi [. . .]/puis-je [boire ? Du lait avec toi].)

    Article détaillé concernant les chameaux au cours des âges — Bible Archaeology (anglais)

    >> Abraham a-t-il eu des chameaux

    Le Nil — description, étymologie et dérivation de son nom

    >> Le Nil — Wiki

    Etude statistique détaillée des mots empruntés à l’Egyptien dans les textes bibliques relatifs au séjour en Egypte (anglais)

    >> Emprunt de mots égyptiens

    Ougarit — Long article détaillant l’histoire et les caractéristiques du Royaume d’Ougarit

    >> Le royaume d’Ougarit — Wiki

    La religion d’Ougarit

    >> La religion à Ougarit — Wiki

    Description des fouilles d’Ougarit réalisées par l’archéologie français Claude Schaeffer (à Ras Shamra, Syrie)

    Paru dans Syria — Revue d’Art oriental et d’archéologie en 1951

    >> Syria — Recherches archéologiques à Ras Shamra

    Hérodote « l’Enquête » — Livre II — Texte et traduction française

    >> Hérodote Enquête livre II

    Déclarations de l’égyptologue réputé William Allbright concernant l’époque des patriarches

    Il explique en détail que la période décrite dans la Bible ne correspond pas du tout au 9ème, 6ème ou 5ème siècle comme l’affirement certaines théories :

    « Il existe une faille évidente dans cette théorie : le récit biblique sur les patriarches ne présente aucun parallèle avec les conditions sociales et culturelles de l’époque “plus tardive” où le récit aurait été supposément composé…. Wellhausen et ses disciples ne pouvaient pas discerner cette difficulté et cette faille à leur théorie pour la simple raison qu’ils étaient ignorants des réelles conditions de vie qui sévissaient en Palestine à cette époque plus tardive (les 8e et 9e siècles) et à l’époque patriarcale. »

    Brève information sur le conte de Sinouhé

    >> Conte de Sinouhé — Wiki




    Révélations sur les chemtrails

    [Illustration : source]

    .

    .

    .

    .

    .

    .




    Génétique : Le génome en dissolution

    [Source : telegra.ph 1]

    Par Ulrich Bahnsen – 6 novembre 2008

    Le génome était considéré comme le schéma directeur immuable de l’être humain, déterminé au début de notre vie. La science doit dire adieu à cette idée. En réalité, notre patrimoine génétique est en constante évolution.

    Il y a deux ans [en 2006, donc — NDT], 25 généticiens se sont réunis à l’université de Californie à Berkeley pour répondre à cette question apparemment simple : qu’est-ce qu’un gène ? Mais la tentative de définir précisément le concept de base de leur discipline s’est avérée extrêmement difficile. La réunion d’experts a failli tourner au désastre, se souvient Karen Eilbeck, professeur de génétique humaine à Berkeley et hôte de la table ronde :

    « Nous avons eu des réunions pendant des heures. Tout le monde criait sur tout le monde ».

    La dispute à Berkeley n’a pas grand-chose à voir avec l’état de préparation de la recherche. C’était un premier symptôme que les sciences de la vie — encore inaperçues du public — sont à l’aube d’un tournant. Ce que les chercheurs mettent en évidence dans les brins chromosomiques des humains ou des animaux dépasse les schémas de pensée antérieurs de la génétique. Comme au début du XXe siècle, lorsqu’Einstein et ses compagnons d’armes ont élaboré une nouvelle vision du monde physique, l’ère de la génétique relativiste est peut-être en train de s’ouvrir.

    La recherche médicale, en particulier, est confrontée à de nouveaux défis. Les premières esquisses montrent que le corps et l’âme, leur santé, leur maladie, leur développement et leur vieillissement sont soumis à une interaction génétique dont la complexité dépasse toutes les conceptions antérieures. Les généticiens doivent abandonner l’image d’un génome stable, dont les modifications sont des exceptions pathologiques. Le génome de chaque individu est en constante transformation. Par conséquent, chaque organisme, chaque être humain, voire chaque cellule du corps, est un univers génétique en soi.

    La première analyse du génome humain était encore une affaire longue et coûteuse, le résultat — célébré en 2000 par le président américain Bill Clinton comme le « Livre de la vie » — étant une séquence de trois milliards de lettres. Depuis, les nouvelles techniques de laboratoire, qui permettent de générer et d’analyser d’énormes quantités de données, ont généré un flot de nouvelles découvertes sur la vie intérieure du génome humain en particulier. Ce faisant, le livre se dissout sous les yeux des lecteurs. Le génome n’est pas un texte stable. L’état des connaissances soulève également des questions philosophiques fondamentales, telles que l’identité génétique et donc biophysique de l’être humain, et exige éventuellement des réponses radicalement différentes. Les généticiens ont en vue un nouveau « projet humain » — devise : Tout sur l’ego.

    « Nos hypothèses étaient si naïves que c’en est presque embarrassant », déclare Craig Venter

    Les derniers résultats montrent plus que jamais que l’homme est le produit de processus génétiques. Mais aussi que ces processus sont dotés de nombreux degrés de liberté. Ils forment un système ouvert dans lequel tout n’est pas prédéterminé.

    Après le premier codage du génome, seules quelques personnes s’en doutaient. Les experts pensaient avoir compris comment un gène se présente et fonctionne, quels principes fonctionnels le génome humain ou microbien suit. « Rétrospectivement, nos hypothèses sur le fonctionnement du génome à l’époque étaient si naïves qu’elles en sont presque embarrassantes », déclare Craig Venter, qui a participé au projet avec sa société Celera. Nous nous attendions à une collection de recettes compliquées, mais compréhensibles pour les processus de la vie. Aujourd’hui, les choses sont claires : le livre de la vie est rempli d’une prose énigmatique.

    Ce n’est que le premier point culminant du bouleversement, lorsqu’il y a quelques mois, la conviction de l’uniformité génétique et donc de l’identité de l’humanité s’est effondrée. Jusqu’alors, on supposait que le matériel génétique de deux personnes ne différait que d’environ un pour mille de tous les éléments constitutifs de l’ADN. Mais les différences dans le patrimoine génétique des êtres humains sont en réalité si grandes que la science confirme aujourd’hui ce que le langage populaire sait depuis longtemps :

    « Chaque homme est différent. Complètement différent ! »

    Craig Venter lui-même a grandement contribué à cette découverte. Le charismatique gourou de la génétique, originaire de Rockville, dans l’État américain du Maryland, a vu son propre patrimoine génétique décrypté. Presque simultanément, des experts de la société 454 Life Sciences ont décodé le génome du prix Nobel James Watson, découvreur de la double hélice de l’ADN et ennemi intime de Venter. Il ne voulait pas espérer, disait Venter, que l’on découvre trop de similitudes entre lui et Watson.

    Après le séquençage des divas de la recherche, des scientifiques de Shenzhen ont annoncé qu’ils avaient complètement décodé un Chinois Han anonyme. Il y a quelques jours, le généticien Gert-Jan van Ommen de l’université de Leiden a annoncé le premier décodage d’une femme. Il s’agit de la généticienne clinique Marjolein Kriek, membre de l’équipe de van Ommen. Les analyses détaillées des données génétiques révèlent maintenant que le génome humain est aussi diversifié que le corps et le psychisme.

    Grâce au génome de Venter, il a été possible pour la première fois de cataloguer les différences. Le génome des cellules somatiques humaines est constitué pour moitié d’un ensemble de chromosomes hérités du père et pour moitié d’un ensemble de chromosomes hérités de la mère. Les chercheurs s’attendaient à ce que le patrimoine parental présente des différences ; on sait depuis longtemps qu’il existe de nombreux échanges de lettres individuelles dans le génome (appelés SNP — single nucleotide polymorphisms). Cependant, ils ont été surpris par l’ampleur réelle des différences : dans presque un gène sur deux du chercheur, ils ont trouvé des différences entre les copies du gène maternel et du gène paternel. Au cours de la comparaison, les experts ont également détecté un grand nombre d’indels2 : des millions de fois, des sections entières avaient été nouvellement incorporées dans les molécules génétiques (inversion) ou avaient simplement disparu (suppression). D’autres ont été détachées de leur environnement et réinsérées à l’envers.

    La conviction antérieure selon laquelle chaque gène n’existe généralement que deux fois dans le génome (une fois dans le jeu de chromosomes hérité du père et une fois dans celui hérité de la mère) est également erronée. En réalité, une grande partie de l’information génétique est soumise à un processus de duplication et existe jusqu’à 16 copies dans le noyau cellulaire. Diverses équipes de recherche ont maintenant découvert de tels variants du nombre de copies (CNV) dans au moins 1500 gènes humains ; il y a probablement beaucoup plus de ces gènes Xerox, chaque personne ayant un profil CNV différent. L’explosion des découvertes est exacerbée par le fait que les profils CNV dans le génome ne sont en aucun cas stables, que le nombre de copies des gènes peut diminuer ou augmenter, et que même les cellules somatiques d’un individu humain diffèrent les unes des autres.

    L’idée que le génome représente une constante naturelle, un code source fixe de l’être humain, s’effondre maintenant sous le poids des découvertes. Le généticien américain Matthew Hahn comparait déjà le génome à une porte tournante :

    « Des gènes apparaissent constamment, d’autres disparaissent ».

    Les fonctions cérébrales semblent particulièrement touchées : Les CNV sont la cause principale de diverses formes de retard mental, d’autisme, de schizophrénie et d’autres troubles cérébraux organiques. Toutefois, en interaction avec d’autres processus génétiques, elles régulent probablement aussi l’expression de caractéristiques mentales saines. « Il s’agit de l’un des nouveaux domaines les plus passionnants et les plus fructueux de la génétique humaine », déclare le généticien américain David Haussler, de l’université de Californie à Santa Cruz. La recherche de telles variations génétiques à l’échelle du génome a déjà donné des résultats étonnants. La médecine du futur, prédit le chercheur, sera caractérisée par les résultats du séquençage ultrarapide du génome et de la puissance de calcul massive :

    « Nous devons garder un œil sur des centaines, voire des milliers de gènes simultanément pour comprendre les maladies. »

    [NDLR Cette approche reste toujours prisonnière d’une vision matérialiste de la vie. Alors que lors de cette réunion de 2006, ces 25 généticiens ont pratiquement démoli les fondements de la génétique, les généticiens continuent plus de quinze ans plus tard à espérer trouver la cause de maladies dans des gènes dont ils ont pourtant reconnu la grande mutabilité, voire l’instabilité fondamentale. Et si les gênes n’étaient en réalité que des auxiliaires permettant la création de protéines spécifiques et l’ajustement de tissus biologiques au gré des besoins d’adaptation au monde extérieur, une sorte de logiciel élaboré, changeant et utilisé en définitive par l’âme ou par l’esprit de l’Homme (ou l’équivalent pour le cas des animaux et du monde végétal) ? Et si la maladie est en réalité le résultat de déséquilibres (par excès ou déficience) sur un ou plusieurs domaines de la vie (physique, hormonal, chimique en général, électrique, électromagnétique, émotionnel, mental, psychique… et même spirituel) alors la connaissance scientifique génétique ne sera pas d’un grand secours dans le rétablissement des équilibres rompus. Si l’âme ou l’esprit de l’Homme est le véritable maître, la santé provient de la capacité de l’individu ou de l’ego à se laisser guider par cette source intérieure, elle seule se montrant réellement apte à rétablir l’équilibre, l’harmonie, et à utiliser adéquatement le logiciel génétique.]

    Des jumeaux identiques se développent génétiquement différemment dès l’état d’embryon

    Le projet 1000 génomes a été lancé pour déterminer l’étendue réelle des travaux de construction du patrimoine génétique. Sur une période de trois ans, le consortium de centres de séquençage aux États-Unis, au Royaume-Uni et en Chine séquencera les génomes de 1000 personnes du monde entier, enregistrant ainsi la variance des données génétiques de diverses populations dans le monde.

    L’interaction du génome humain n’est pas seulement capable d’expliquer les particularités individuelles, elle produit également l’assortiment génétique à partir duquel l’évolution continue de façonner l’homme. Cela permet de comprendre une autre constatation troublante : l’espèce Homo sapiens est apparemment en train de subir une turboévolution. Des centaines de zones du génome ont changé beaucoup plus rapidement que chez les autres primates. De nouvelles recherches concluent même que la civilisation a dû accélérer l’évolution humaine d’un facteur 100 depuis le début de l’ère néolithique.

    Le magazine Science a désigné la découverte de ces variations génétiques comme la percée de l’année 2007. Il y a à peine un an, la revue se réjouissait de la perspective de pouvoir bientôt distiller les facteurs qui marquent l’évolution de l’Homo sapiens grâce à la comparaison précise des génomes de l’homme et du chimpanzé. Mais avant même de répondre à la question de savoir ce qui, dans notre ADN, fait de nous des êtres humains, la question suivante se pose déjà :

    « Qu’est-ce qui, dans mon ADN, fait de moi un être humain ? »

    L’une des premières découvertes de la nouvelle génétique rend cette question presque obsolète. Tout indique une réponse surprenante : Je suis multiple.

    Au moins physiquement, l’homme n’apparaît plus comme un individu, mais comme une association de colonies de cellules égoïstes. Dans près de dix pour cent de l’ensemble du matériel génétique — et peut-être beaucoup plus — la variante maternelle ou la variante paternelle est active. Ce modèle, appelé « expression monoallélique autosomique » dans le jargon technique, est déjà établi dans l’embryon. Et c’est là que chaque cellule prend sa propre décision. « Nous pensons que cela se produit lorsque l’embryon s’implante », explique le généticien Andrew Chess de l’université de Harvard. En conséquence, l’organisme adulte ressemble à un patchwork de groupes de cellules dont les réseaux génétiques sont tricotés différemment.

    Le fait que l’information génétique individuelle dans ces cascades de gènes provienne du père ou de la mère a des conséquences radicales, contrairement à ce que l’on pensait jusqu’à présent. Leur contenu en informations peut présenter des différences subtiles, mais celles-ci ont des conséquences profondes sur les réseaux extrêmement complexes qui contrôlent les caractéristiques humaines. Une autre découverte fascinante provient du laboratoire d’Andrew Chess à Harvard : l’expression monoallélique est particulièrement fréquente dans les gènes qui ont connu une évolution accélérée au cours du développement humain et dans ceux qui ont des fonctions importantes dans le système nerveux central. Ce que cela signifie pour le fonctionnement du cerveau et la construction de la psyché ne peut même pas être estimé à l’heure actuelle.

    Depuis lors, on croit que l’organisme sain représente au moins un système harmonieux qui fonctionne en harmonie avec lui-même. Au contraire, les résultats de la recherche donnent l’image d’un puzzle fragile composé d’unités biologiquement disparates. La santé serait donc un état instable dans lequel les égoïsmes des pièces de la mosaïque sont maintenus en échec. En tout état de cause, c’est même l’identité biologique de l’individu qui est en jeu. Ce qui semble effrayant pour beaucoup est une idée inspirante pour le généticien américain Steven Henikoff : « J’aime l’idée que nous sommes des mosaïques. »

    Au fond, cela menace aussi le travail des scientifiques qui veulent mesurer l’influence de l’environnement sur le développement humain. Depuis des décennies, ils tentent de distinguer l’influence de l’environnement de celle des gènes en comparant des jumeaux monozygotes et dizygotes. Ils ont utilisé les différences entre les paires de jumeaux identiques pour mesurer l’influence de l’environnement sur les caractéristiques des êtres humains — après tout, ces jumeaux ont des gènes totalement identiques. Par conséquent, toutes les différences doivent être déterminées par la culture et non par la biologie.

    Or, il s’avère aujourd’hui qu’il n’en est rien : c’est un fait que les vrais jumeaux ne sont pas génétiquement identiques, affirme M. Chess, « c’est un résultat vraiment passionnant ». Non seulement le schéma d’activité exclusivement maternelle ou paternelle de leurs gènes, mais aussi leur schéma CNV présentent des différences évidentes. « Nous nous sommes toujours demandé pourquoi il existe des différences entre les vrais jumeaux, par exemple en ce qui concerne leur susceptibilité à des maladies complexes », explique M. Chess, « notre découverte est une explication ». Des facteurs externes, sociaux et matériels, peuvent également façonner une personne en passant par la biologie, en modifiant les fonctions de ses gènes. Par le biais de processus dits épigénétiques, le stress ou la torture, le manque de nourriture ou l’absence d’amour peuvent apparemment avoir un effet jusque dans le noyau cellulaire.

    Face à l’afflux de ces découvertes encore largement mystérieuses, les chercheurs en génétique sont confrontés à un sort similaire à celui des cosmologistes qui étudient depuis plusieurs années la mystérieuse « matière noire » de l’univers. Les bioscientifiques s’interrogent eux aussi sur la matière noire du génome.

    Notre génome ne détermine pas le type de personne qui en est issu

    Ils pourraient trouver le sombre secret dans la partie du matériel génétique qu’ils ont jusqu’à présent rejetée comme un déchet, comme de l’ » ADN poubelle ». Pour eux, seuls les quelques pour cent du génome qui, en tant que gènes selon la définition conventionnelle, contiennent les informations nécessaires à la construction des protéines dans les cellules étaient pertinents. Le reste était considéré comme de la camelote évolutive. Au mieux, cette partie du génome pouvait être considérée comme un élément stabilisateur, une sorte de ciment de liaison entre les informations génétiques réellement importantes.

    Aujourd’hui, il est clair que c’est surtout la matière noire de l’ADN dans les chromosomes qui est à l’origine d’un grand nombre des processus nouvellement découverts. Apparemment, les « déchets » sont pleins de gènes inconnus, peuplés de modules de contrôle. En particulier, les microARN, une classe d’information génétique inconnue jusqu’à récemment, régulent une multitude de processus de développement et de maladies.

    La conclusion de toutes ces nouvelles découvertes ne peut être que la suivante : bien que les caractéristiques d’un être humain soient enracinées dans son génome, dans le système ouvert du génome embryonnaire, il n’est nullement déterminé quel être humain en sortira un jour. Même si un embryon reproduit à l’identique jusqu’à la dernière molécule pouvait se développer dans l’utérus dans des conditions identiques, « un autre être humain en sortirait », assure le généticien berlinois Nikolaus Rajewsky. Et ce, même sans l’influence de l’éducation et de la culture.

    Au vu de la complexité et de l’indétermination des processus génétiques, de nombreuses visions de l’homme au design optimisé, mais aussi de nombreuses mises en garde contre les dangers de la recherche génétique se révèlent aujourd’hui comme un vulgaire biologisme simplifié à l’extrême. Le bricolage du génome s’avère beaucoup plus compliqué que prévu. Et le fantasme selon lequel le clonage pourrait être utilisé pour ressusciter à l’identique des artistes doués, des chercheurs brillants ou simplement un être cher restera probablement à jamais un vœu pieux.