03/09/2024 (2020-12-17)
[Source : Konfedera.org]
[Auteur : François Jortay]
Gestion des épidémies
Màj : 30 juil. 2020 – # pages : 64
1. Résumé 2. Introduction 2.1. Auteur 2.2. Objectif 2.3. Méthode 2.4. Conseils de lecture 3. Modèles mathématiques 3.1. Principes 3.2. Limites des modèles mathématiques 3.2.1. Stochasticité 3.2.2. Sensibilité 3.2.3. Irréductibilité 3.2.4. Réalité 3.3. Modèles et idéologies 3.3.1. Interprétations abusives 3.3.2. Neil Ferguson 4. Modèle SIR 4.1. Système d'équations 4.2. Hypothèses 4.3. Taux de reproduction 4.4. Immunité collective 4.5. Stratégies 4.6. Mortalité 4.7. Charge hospitalière 4.8. Valeur scientifique du "R zéro" 4.8.1. Le fumigène R0 4.8.2. Calcul du R0 4.8.3. Utilisations du R0 5. SIR et la grippe 6. SIR et covid-19 6.9. Paramétrage en début de confinement 6.10. Paramétrage en fin de confinement 6.11. Rebond de l'enfermement cognitif 6.12. Bilan 6.13. Typologie des facteurs d'inefficacité 7. Suivi en temps réel 7.1. Ressources 7.2. Définitions 7.3. Mesure 7.3.1. Taux d'infection 7.3.2. Taux de mortalité et létalité 8. Stratégies anti-épidémiques 8.1. Principes de gestion anti-épidémique 8.2. Immunité collective 8.3. Stratégie non pharmaceutique (SNP) 8.3.1. Principes 8.3.2. Efficacité de la SNP 8.3.3. Effets pervers de la SNP 8.3.4. Conclusion 8.4. Stratégie pharmaceutique (SP) 8.4.1. Traitements 8.4.2. Dépistage 8.5. Principe de précaution ? 8.6. Quelle stratégie appliquer ? 9. covid-19 : analyse d'un délire collectif 9.1. QUOI : Info vs réalité 9.1.1. Charge hospitalière 9.1.2. Mortalité toutes causes 9.1.3. Différences entre pays 9.2. Agents du délire collectifs 9.2.1. Entreprises "d'information" 9.2.2. Atlantisme anti-chinois 9.2.3. Scientifiques de plateau TV 9.2.4. Personnel médical 9.2.5. Gouvernements 10. Contexte économique 10.1. Concurrence chinoise 10.2. Big Data & Pharma Inc. 10.3. Extrémisme vert 11. Problématique politique 12. Conclusion
Résumé
https://konfedera.org/gestion-epidemies#resume
- La thèse que les entreprises « d’information » et certains scientifiques propagent concernant covid-19 est la suivante : covid-19 est un virus nouveau. Il en résulte que :
(i) il n’existe ni médicament spécifique ni vaccin ;
(ii) personne n’est immunisé (absence d’anticorps) ⇒ il n’existe pas de barrière physiologique à sa propagation, qui est alors rapide.
Par conséquent, pour éviter le risque de surcharge du système hospitalier, il faut imposer le confinement général des populations, ce qui aura pour effet de retarder et d’abaisser le sommet de la courbe épidémique. On gagnerait ainsi du temps pour augmenter la capacité hospitalière et développer des médicaments/vaccins spécifiques avant le pic épidémique. Ce raisonnement peut sembler imparable, et pourtant il est totalement erroné car :- une partie de la population est immunisée de naissance et/ou par immunité croisée (anticorps non-spécifiques);
- certains médicaments non spécifiques sont efficaces;
- il est n’est pas possible de développer les capacités hospitalières de façon substantielle et des médicaments/vaccins spécifiques réellement efficaces en moins de cinq ans. Ces mesures conduiraient en outre à maintenir une (très large) surcapacité hospitalière et à augmenter sans fin le nombre des médicaments et vaccins (on peut toujours considérer qu’un virus est « nouveau » dès que l’on découvre – grâce au progrès scientifique qui est sans fin – des « différences » par rapport aux autres membres de sa famille virale).
- pour freiner substantiellement la propagation d’un virus le coût des mesures à appliquer (confinement, distanciation, masques, lavages) est tellement élevé que même en milieu hospitalier – pourtant équipé de tout le matériel nécessaire et où les règles sanitaires sont strictement appliquées par des professionnels avec un haut niveau de formation – on n’arrive pas à neutraliser les infections nosocomiales ; certaines des mesures sanitaires sont en réalité appliquées pour des raisons juridiques et d’image de marque (la concurrence joue aussi dans le secteur hospitalier).
- Extinction. Les épidémies ont une évolution dont la courbe a la forme d’une cloche, ce qui signifie qu’au début elles montrent en général une croissance exponentielle. Or toutes les épidémies s’éteignent naturellement avant d’avoir contaminé 100% de la population. Et la plupart avant même d’avoir atteint le taux théorique d’immunité collective, pour des raisons encore inconnues mais très probablement liées au virus lui-même et/ou aux écosystèmes dans lesquels il évolue.
- Modèles. Le recours à des modèles mathématiques à des fins de suivi épidémique et de prévision est irrationnel car :
- dans le cas des virus « nouveaux », leur paramètres sont inconnus et ne peuvent être correctement évalués en temps réel (c-à-d en cours d’épidémie) en raison de biais de mesure ne pouvant être corrigés qu’au moins douze mois après le début de l’épidémie;
- quant aux virus en général, c-à-d connus ou non, leurs caractéristiques (les valeurs attribuées aux paramètres des modèles) ne sont pas stables dans le temps (voire même non plus dans l’espace), en raison de la nature écosystémique c-à-d complexe des phénomènes infectiologiques.On constate d’ailleurs une très forte propension de ces modèles (ou de leur paramétreurs ?) à produire des « prévisions » qui s’avèrent in fine de gigantesques surestimations du taux de mortalité des épidémies.
- Rebonds. Il suffit que le nombre de tests augmente (par exemple suite à la surmédiatisation de « prévisions » catastrophistes) pour qu’augmente le nombre d’infectés recensés. Il résulte de cet effet de recensement que la gestion épidémique ne doit surtout pas être pilotée en fonction de l’évolution du taux d’infection, mais en fonction du taux de mortalité (toutes causes !) par rapport à la population (PS : dans le cas où la hausse du nombre de tests est provoquée par l’annonce de « prévisions » catastrophistes l’effet de recensement induit donc un effet de prophétie auto-réalisatrice).
- Mortalité. En Europe, région du monde la plus touchée par covid-19, la mortalité toutes causes sur l’ensemble de l’année 2020 aurait probablement été la plus basse des quatre dernières années s’il n’y avait eu les décès attribués à covid-19, mais principalement causés par une mauvaise stratégie anti-épidémique.
- Causes. Les pouvoirs médiatique, académique et politique ne s’en sont jamais cachés : pour qu’un maximum de gens appliquent les mesures de la stratégie « non pharmaceutique » (SNP : confinement, distanciation, masques, lavages) il faut faire peur à la population. La SNP implique donc la terreur, or celle-ci induit de graves effets délétères :
- la panique, qui inhibe les capacités cognitives :
- des décideurs politiques : ainsi pour libérer des lits d’hôpitaux en prévision d’une prétendue « possible explosion » (sic) du nombre de malades sévères de la covid-19 il a été décidé d’isoler un maximum de vieillards dans les maisons de repos … qui ne disposent ni du matériel ni de personnel pour soigner les cas graves;
- des médecins hospitaliers : ainsi plus de 50% de la mortalité hospitalière attribuée à covid-19 serait causée par les intubations abusives.
- le stress psychique, qui inhibe le système immunitaire (NB : ces effets sont démultipliés par l’isolement qu’implique le confinement général);
- la peur de la contamination, qui inhibe la demande et l’offre de services médicaux.D’autre part des effet d’entraves ont encore accru la mortalité attribuée à covid-19 :
- une réglementation médicale pénalisant l’utilisation de médicaments « non spécifiques » même dans une situation « de crise » face à un virus « nouveau »;
- le confinement général entrave la production & distribution de biens et services indispensables à la lutte contre l’épidémie (médicaments, respirateurs, …).
- la panique, qui inhibe les capacités cognitives :
- Précaution. L’invocation du principe de précaution par les conseillers scientifiques de nombreux gouvernements pour « justifier » l’imposition de la stratégie préventive dite « non pharmaceutique » (SNP : confinement, distanciation, masques, lavages) est fallacieuse. En effet le principe de précaution ne consiste pas à appliquer une mesure incertaine sous prétexte qu’elle pourrait peut-être fonctionner, mais au contraire à ne pas appliquer une mesure sans être certain que ses effets pervers ne l’emportent pas sur ses supposés effets positifs.
- Dépistage. Le dépistage est utile mais très coûteux :
- en termes financiers ⇒ il doit être limité aux groupes à risque;
- en termes démocratiques ⇒ son éventuelle obligation doit faire l’objet d’un référendum (organisé en période non épidémique).
- Médias. Au cours des dernières décennies, comme de tout temps, des virus considérés comme « nouveaux » se sont répandus sur la quasi totalité de la planète (pandémie). Dans la plupart des cas on a également assisté à une hystérie collective, mais jamais avec une intensité telle que pour covid-19 (et en particulier on n’avait pas eu recours au confinement et masques généralisés c-à-d obligatoires). La perte d’audience des médias « d’information », suite à la concurrence d’Internet, pousse ces entreprises à toujours plus de catastrophisme afin de booster l’audimat. Pour ce faire elles n’ont aucune peine à trouver des scientifiques prêts à cautionner le catastrophisme afin de briller sous les spotlights des plateaux TV, ou encore des médecins hospitaliers pour qui le catastrophisme est l’occasion de revendiquer plus de financement public.
- Big pharma. Des articles scientifiques sérieux qui réfutent la vision catastrophiste de la situation sont censurés tandis que des articles d’une médiocrité manifeste sont publiés par les revues scientifiques les plus reconnues (prévisions catastrophistes, prétendue absence de traitement, prétendue efficacité de la SNP, …). Cela n’est certainement pas étranger au fait que de nombreux médecins chercheurs sont intoxiqués par des sources d’informations « scientifiques » produites par l’industrie pharmaceutique, et souvent ont carrément des conflits d’intérêt avec celle-ci.
- Surfeurs. Des forces économiques ont pu « surfer » sur la vague médiatique, et ainsi l’amplifier, en considérant que le coût économique de quelques mois de confinement général est très inférieur aux gains récurrents d’un changement de paradigme économique permis par le choc émotionnel :
- le potentiel financier et politique du « Big data » est tel (il concerne la quasi totalité des secteurs économiques) que de très fortes pressions ont pu être exercées sur les décideurs politiques afin que ceux-ci exploitent la vague médiatique catastrophiste pour amener les populations à accepter le traçage de leur vie privée;
- alors que jusqu’au début des années 2000 le libre-échange international était la pierre angulaire de l’idéologie atlantiste, on assiste à un rétro-pédalage intégral de la part des pays atlantistes depuis que cette logique se retourne contre eux (concurrence de la Chine) ⇒ la théorie du « nouveau risque épidémique » est l’occasion de « justifier » ce revirement idéologique.
- Démocratie. Étant donné que l’on découvre régulièrement de « nouveaux » virus en raison du développement des techniques de détection, il en résulte logiquement que si les populations ne se révoltent pas contre le confinement général et le traçage de nos relations, ces pratiques irrationnelles deviendront la norme. Prenons garde que ne s’installe un peu partout sur la planète des régimes qui, au nom de « la protection d’autrui », justifieraient notamment le traçage des individus, les vaccins obligatoires et la répression de la contestation.
- Responsabilités. Dans le délire collectif autour de covid-19 il y a une immense responsabilité des entreprises « d’information » ainsi que des scientifiques qu’elles médiatisent. D’autre part de nombreux scientifiques conscients de la supercherie ont fait preuve de suivisme en se taisant (ce qui n’est pas sans rappeler la coupable passivité de l’élite allemande lors de la montée en puissance du nazisme durant les années 1930).
- Réaction. Des délires tels que celui de 2020 se reproduiront s’il n’y a pas de prise de conscience :
- au niveau individuel : de la nuisibilité de l’info-dépendance;
- au niveau collectif : de la nécessité d’une prise de contrôle démocratique des moyens de production de l’information et du savoir.
Partagez cette étude en copiant/collant son adresse sur les réseaux sociaux ou dans un email :
https://konfedera.org/gestion-epidemies
et en ajoutant le texte de présentation :
Étude sur l’exploitation médiatique, commerciale ou politique de la peur, et sur l’avènement d’un totalitarisme « sanitaire ».
Agissez également dans le monde réel : marquez une barre verticale sur votre masque pour dénoncer l’avènement du totalitarisme « sanitaire ». P.S. Pourquoi une barre verticale : (1) facile à tracer sur les masques en accordéon ; (2) symbolise un citoyen debout, qui ne se couche pas devant l’exploitation de la peur. Ne portez le masque que là où c’est obligatoire.
Introduction
https://konfedera.org/gestion-epidemies#intro
Auteur
https://konfedera.org/gestion-epidemies#auteur
Je suis économiste de formation. En tant que chercheur libre, mon approche est fondée sur la transdisciplinarité c-à-d la spécialisation du chercheur dans la pluridisciplinarité – à ne pas confondre avec l’interdisciplinarité, qui est la collaboration de spécialistes dans des thématiques multidisciplinaires. Cette approche est certes ambitieuse voire prétentieuse, mais le lecteur pourra constater son énorme potentiel analytique, confirmé par la montée du présent article – sans équivalent dans son approche transdisciplinaire – dans la plupart des moteurs de recherche (Google, Bing, Yahoo, Qwant, DuckDuckGo, …), sur la thématique de gestion des épidémies.
J’attire enfin l’attention du lecteur sur un fait important : ayant banni la TV de mon domicile depuis l’année 2000, je ne suis pas info-dépendant.
Pour plus d’information sur mes domaines d’activité voir la page d’accueil de mon site portail jortay.net.
Objectif
https://konfedera.org/gestion-epidemies#objectif
En Chine, où l’épidémie est terminée, le taux de mortalité morts / population est de seulement 0,03 % pour l’agglomération de Wuhan (le foyer de l’épidémie, 11 millions d’habitants) et 0,0002 % pour l’ensemble de la Chine (1,386 milliard d’habitants) [source]. On comparera utilement ce dernier taux avec le taux correspondant de la grippe en France, soit 0,02 % [source].Taux de mortalité morts / population (%)
covid-19 (Chine) | Grippe (France) | covid-19 / Grippe |
---|---|---|
0,03 (Wuhan) | 0,02 | 1,5 |
0,0002 (Chine) | 0,01 |
Nomenclature : covid-19 est le nom de la maladie (« COronaVirus Disease 2019« ) tandis que SARS-CoV-2 est celui du virus (« Severe Acute Respiratory Syndrome COronaVirus 2« ) [source].
Nous verrons dans la section consacrée à l’analyse du catastrophisme médiatique que le gouvernement chinois a imposé le confinement général – NB : dans la seule région de Wuhan (le foyer épidémique) – pour des raisons de politique intérieure et extérieure. Il ne pouvait s’agir de raisons médicales car il n’existe, à notre connaissance, aucune étude scientifique sérieuse ni aucun manuel d’épidémiologie recommandant l’application du confinement général pour neutraliser une épidémie. Le tableau ci-dessus montre ainsi que le confinement général (i) n’a pu empêcher la propagation du virus dans le reste de la Chine, et (ii) que le taux de mortalité y est (très) inférieur alors que le confinement général n’y a pas été appliqué. Il y a donc une forte probabilité qu’une partie considérable du surplus de mortalité dans la région de Wuhan fut causée par les effets pervers du confinement général. Nous verrons qu’il existe de nombreux et solides arguments confirmant cette thèse.
Régulièrement des continents sont confrontés à des pandémies d’agents infectieux nouveaux (grippes aviaires, H1N1, SARS, MERS, Ebola, chikungunya, Zika, …), causant des morts, et dont la croissance est exponentielle. À chaque fois il existe un risque plus ou moins élevé que le système hospitalier soit surchargé. À chaque fois les médias d’information ont suscité une atmosphère de panique. Mais jamais on avait atteint un état d’hystérie et de délire collectif tel qu’avec covid-19. En particulier jamais on avait appliqué le confinement général.
Pourquoi alors la stratégie préventive dite « non pharmaceutique (SNP : confinement, distanciation, masques, lavages) a-t-elle été appliquée lors de l’épidémie de covid-19 en 2020 alors qu’il n’existe pas de critère objectif permettant de déterminer un niveau de risque de mortalité au-delà duquel il faudrait appliquer la stratégie SNP, et en-dessous duquel cela ne serait pas nécessaire.
Il importe de trouver la réponse à cette question car la similitude du phénomène covid-19 avec la guerre (la vraie), cette autre folie collective, est flagrante. Or en situation de guerre, il n’y a plus de place pour le débat : si vous critiquez le gouvernement, celui-ci et ceux qu’il a rallié à lui grâce à la panique, vous accusent de jouer le jeu de l’ennemi meurtrier. Cette vision réductrice a pour effet d’inhiber (voir criminaliser) le débat public et partant l’intelligence collective. Cela conduit à l’incapacité collective de s’adapter intelligemment à l’évolution de la situation et des informations disponibles. Il en résulte généralement des catastrophes. Ainsi en cédant à la panique on peut perdre une guerre face à un ennemi même insignifiant (prophétie autoréalisatrice).
Pour ce faire la suite du présent article est composée de dix parties :
• Modèles mathématique
• Modèle SIR
• SIR et la grippe
• SIR et covid-19
• Suivi en temps réel
• Stratégie anti-épidémiques
• covid-19 : analyse d’un délire collectif
• Contexte économique
• Problématique politique
• Conclusion
Méthode
https://konfedera.org/gestion-epidemies#methode
Cette étude est une publication en édition continue (commencée début mars 2020) : elle fait quotidiennement l’objet de plusieurs mises à jour (corrections, ajouts, structuration, …) ⇒ le lecteur qui souhaite améliorer sa compréhension de la problématique et la mettre à jour (NB : auprès d’un chercheur non info-dépendant) est invité à relire cette étude tous les trois mois.
Les sources sont toutes scientifiques. Quelques articles de presse sont cités, soit parce qu’il s’agit d’interviews ou cartes blanches de scientifiques, soit pour montrer que si les entreprises « d’information » ont besoin de se fabriquer un capital confiance c’est aussi pour le consommer – c-à-d conditionner l’opinion publique – lorsqu’elles en reçoivent instruction.
Les sources sont systématiquement mentionnées par lien hypertexte, ce qui fait de cette étude, via son sommaire, une base de données très pratique sur les thématiques de la gestion épidémique en général et de covid-19 en particulier.
Conseils de lecture
https://konfedera.org/gestion-epidemies#conseils-de-lecture
Vous sentez que quelque chose de puissant, grave et potentiellement durable est en train de se produire, qui dépasse largement le cadre de cette « pandémie meurtrière ». Mais vous vous sentez également impuissant(e), ce qui augmente votre anxiété. La solution est de réagir par une action inscrite dans le long terme : « un petit peu, mais chaque jour« . Un petit peu de quoi ? Et bien, pour commencer, d’étude ! Le reste viendra naturellement, via les liens que vous allez ainsi construire … et qui seront autant d’opportunités pour le futur de votre parcours de vie (NB : les plus grandes crises sont des occasions de « saut évolutionniste » … pour qui ne reste pas dans la passivité).
La compréhension du présent document est accessible par quiconque a terminé ses études secondaires. Cependant il est relativement long (plus de 60 pages) et son abord est parfois ardu. Cela est inévitable en raison de la sophistication des forces en action. Ce travail ne se lit donc pas en une fois mais un petit peu chaque jour (par exemple donnez-vous une semaine ou un mois pour le lire). Si certains passages vous paraissent difficiles lisez-les malgré tout, puis passez à la suite. Cela vous permettra d’avoir une vue d’ensemble lors de l’indispensable seconde lecture.
Lors de la première lecture évitez, autant que faire se peut, de cliquer sur les (nombreux) liens, sinon vous allez vous noyer. Ne consultez éventuellement les liens que lors de la seconde lecture.
Enfin, avant de vous lancer, je vous invite à lire d’ors et déjà cet extrait d’un autre article, concernant l’info-dépendance, phénomène dont vous êtes probablement victime …
Modèles mathématiques
https://konfedera.org/gestion-epidemies#modeles-mathematiques
Dans cette section nous allons exposer les principes de base de la modélisation mathématique. Ensuite nous en énoncerons les limites. Enfin nous illustrerons l’influence (très sous-estimée) de l’idéologie sur l’utilisation des modèles mathématiques.
Principes
https://konfedera.org/gestion-epidemies#modeles-mathematiques-principes
La modélisation mathématique d’un phénomène naturel permet au moins trois types d’utilisation :
- explication : faciliter l’étude de ce phénomène (enseignement & recherche) en reproduisant sont fonctionnement par une simulation simplifiée (en laboratoire ou sur ordinateur);
- prévision : prédire son évolution future … mais cela n’est possible que pour les phénomènes dont la valeur des paramètres est stable dans le temps ainsi que dans l’espace considéré (notion de référentiel);Cette stabilité des paramètres est vérifiée dans le cas de phénomènes tels que la chute d’un corps, mais nous verrons que ce n’est pas le cas des phénomènes épidémiques autres que in vitro.
- exploitation : élaborer des techniques pour exploiter ou au contraire neutraliser ce phénomène.
Corrélation. Ainsi le modèle M ≡ y = a * x + b décrit une relation (linéaire) entre des variables x et y, les grandeurs a et b étant considérées (à tort ou à raison) comme constantes et par conséquent qualifiées de « paramètres ».
Mesure vs calcul. En présentant le modèle comme ci-dessus plutôt que, par exemple, comme M ≡ a * x + b * y = c on suggère que x est la variable d’entrée (input) et que y est la variable de sortie (output), c-à-d que x est mesurée, tandis que y est calculée. NB : cela n’implique pas nécessairement une causalité entre les deux, mais peut se justifier par exemple parce qu’il est moins coûteux de calculer y que de le mesurer.
Causalité. Tel que formulé ci-dessus, c-à-d sans indices de temps, le modèle ne dit rien quant à une éventuelle causalité soit de x sur y, ou inversement, ou les deux (boucle de rétroaction), ou/et d’une ou plusieurs variables non représentées dans le modèle. Du point de vue physique l’effet d’une relation causale ne peut être instantanée, sauf à supposer qu’un corps peut se déplacer, du lieu de la cause à celui de l’effet, à une vitesse infinie c-à-d supérieure à celle de la lumière, ce qui dans l’état actuel de la science physique est généralement considéré comme impossible. La cause doit donc nécessairement précéder temporellement son effet. Par conséquent une causalité de x sur y devrait être formulée par : yt+k = a * xt + b où k est le temps écoulé entre une variation de x et son effet sur y.
Calcul descriptif ou prédictif. On pourra alors tirer les conclusions suivantes sur les possibilités d’utilisations du modèle M ≡ y = a * x + b :
- si relation asynchrone yt+k = a * xt + b ⇒ au temps t=0 je peux prédire yk si j’ai la possibilité de mesurer x0;
- si relation synchrone yt = a * xt + b ⇒ au temps t=0 :
- je peux calculer y0 après avoir mesuré x0 (/ ou inversement), ce qui est généralement moins coûteux que de mesurer y0 (/ ou x0) ; mais il s’agit d’un calcul descriptif et non pas prédictif ;
- il m’est impossible de prédire ni xt ni yt car pour cela je devrais connaître la valeur de leur(s) éventuelle(s) variable(s) déterminante(s) (on dit aussi « explicatives« ) en t=0, or le modèle M ≡ yt = a * xt + b ne contient pas les équations exprimant leurs relations avec xt et yt (soit parce que le phénomène est stochastique soit parce que le modèle est incomplet).
La valeur calculée y0 (descriptive) ou yk (prédictive) sera d’autant moins proche de sa valeur réelle que les erreurs de mesure de x0, a et b seront élevées, et que la valeur de chacun de ces deux paramètres a et b ne sera pas constante (ou suffisamment peu variable, puisque dans le monde réel les véritables constantes sont relativement rares).
Dimensions temporelle et spatiale
Les notions de variables et constantes concernent les dimensions temporelle et spatiale : une grandeur change (variable) ou pas (constante) :
- avec le temps qui passe ⇒ dimension temporelle ;
- selon le lieu (et donc l’individu) ⇒ dimension spatiale.
À noter que le temps est de dimension 1 (une droite) et ne peut évoluer que dans le sens positif (on ne peut reculer dans le temps), tandis que l’espace est de dimension 3 (voire plus) et un corps peut s’y déplacer dans les deux sens positif (avancer) et négatif (reculer) d’une droite, ainsi que dans toutes ses directions. D’autre part le temps passe inexorablement tandis qu’un corps peut être soit à l’arrêt soit en mouvement.
Modèle épidémiologique SIR
Un modèle est donc nécessairement une représentation simplifiée de la réalité. Il y a là une rationalité économique : on veut pouvoir reproduire (simuler) un phénomène au moyen d’un système le plus simple possible (petit nombre de variables et paramètres, relations linéaires, …). Cela ne veut pas dire qu’il n’est pas possible de simuler un phénomène complexe (grand nombre de variables et paramètres, relations non linéaires, effets de rétroactions, …), c’est même dans ce cas qu’un modèle programmé dans un ordinateur permet de dépasser les limites de l’intuition humaine. Il serait donc injuste d’assimiler ces modèles à l’allégorie de la caverne.
Il importe cependant de faire preuve de prudence dans les modes d’application et l’interprétation des modèles. La relative facilité à les concevoir et « faire tourner » peut rapidement conduire au fétichisme du jouet mathématique voire à un enfermement cognitif (tels qu’observés chez de nombreux adeptes des modèles astrologiques), consistant notamment à croire que la modélisation mathématique constitue la démonstration d’une thèse alors qu’elle n’en est que la formulation.
Ainsi en économie et épidémiologie les modèles mathématiques doivent être constamment reparamétrés (la valeur des paramètres doit être réévaluée) pour qu’ils puissent simplement reproduire les phénomènes observés. L’instabilité temporelle (voire même spatiale) des paramètres – due à la nature écosystémique des phénomènes économiques et épidémiologiques – induit l’impossibilité pour ces modèles de prédire le développement futur de ces phénomènes. Dans ce dernier domaine la mutabilité des virus ou bactéries (qui en font de nouveaux objets biologiques dont les propriétés sont alors supposées inconnues) ne fait qu’accroître cette incertitude.
Limites des modèles mathématiques
https://konfedera.org/gestion-epidemies#limites-modeles-mathematiques
Neil Ferguson, le physicien converti à l’épidémiologie qui en 2020 a réussi à convaincre de nombreux gouvernements que l’épidémie de covid-19 allait provoquer au moins 55 millions de morts si l’on appliquait pas le confinement général, est pourtant connu pour ses prévisions aussi catastrophistes … qu’erronées [source] :
- en 2005 il prédit que la grippe aviaire tuerait 200 millions de personnes : il y eu quelques centaines de victime;
- en 2009, il prédit que la grippe porcine tuerait 65.000 Britanniques : il y eu moins de cinq cents victimes;
Dans aucun de ces deux cas, le confinement général n’a été appliqué. Heureusement car sinon les adeptes des modèles épidémiologiques auraient affirmé que la catastrophe a été évitée grâce au confinement général. En 2020, ce fut malheureusement différent …
L’incapacité d’un modèle à simplement reproduire un phénomène (par simulation dans un laboratoire ou sur un ordinateur) autrement qu’en adaptant la valeur des paramètres, implique l’impossibilité de prédiction par ce modèle.
D’autre part l’incapacité de reproduction systématique (c-à-d sans devoir adapter la valeur des paramètres) peut avoir trois types de causes :
- phénomène est stochastique (c-à-d soumis au hasard) ⇔ les paramètres du modèles sont variables dans le temps et l’espace.
- le phénomène est déterministe (c-à-d non soumis au hasard) mais :
- sensible aux conditions initiales;
- ou bien la mesure des valeurs d’entrées (et des paramètres en cas d’instance nouvelle) ne peut être réalisée correctement qu’après la fin du phénomène (cette cause sera développée dans la section consacrée aux limites des modèles épidémiologiques);
- ou bien le modèle est incomplet (réductionnisme voire irréductibilité).
Stochasticité
Un phénomène stochastique (c-à-d soumis au hasard) ne peut-être reproduit qu’en adaptant à chaque fois la valeur des paramètres du modèle puisque ceux-ci sont par nature variables dans le temps et l’espace. Par conséquent il est impossible de prédire l’évolution d’un phénomène stochastique.
Avec le développement des capacités de traitement des donnés (quantité et vitesse) sont apparus des modèles dits « stochastiques« . Ils concernent des quantités « macroscopiques » vues comme des moyennes statistiques de quantités microscopiques (par exemple la pression et la température d’un volume gazeux). Le principe est ici que l’instabilité exponentielle du système « microscopique », c-à-d l’imprévisibilité des variables du niveau micro, n’impliquerait pas l’imprévisibilité de moyennes statistiques au niveau macro. Il existe cependant des situations particulières dites « critiques » où l’on observe un phénomène de « transition de phase » c-à-d tel que le système « hésite » de façon imprévisible et changeante entre deux chemins possibles [source].
Sensibilité
Les scientifiques avaient l’habitude de penser que si l’on pouvait isoler un système des influences de son environnement et le décrire à l’aide d’un nombre réduit de variables, il serait à la fois déterministe et prévisible. Mais on sait aujourd’hui que pour être prévisible, un système doit être déterministe et stable : de petites incertitudes sur l’état initial du système ne doivent pas s’amplifier trop vite, sinon toute prédiction sur le comportement futur du système devient illusoire [source]. Des systèmes déterministes, c-à-d dont l’état futur est complètement déterminé par leur état présent, peuvent donc être imprévisibles. Et cela n’a rien à voir avec la complexité : ce phénomène de sensibilité aux conditions initiales concerne également les systèmes simples (petit nombre de variables, relations linéaires, …).
Sensibilité aux conditions initiales
Dans cette animation en boucles (30 sec.), après quelques secondes les deux pendules se désynchronisent brusquement [source].
Un système est dit chaotique si une infime perturbation de son état initial peut bouleverser entièrement son évolution. Un système chaotique n’est pas nécessairement complexe.
Irréductibilité
Les modèles mathématiques reposent sur un certain nombre d’hypothèses – notamment la formulation des relations entre variables (les équations), la valeur des paramètres (les supposées « constantes » de ces équations) et conditions initiales – supposées représenter la réalité.
Voici quelques hypothèses sur les modes de transmission du virus covid-19, tirées de l’article de Neil Ferguson [source], sur base duquel de nombreux gouvernements ont décidé d’appliquer la distanciation sociale (confinement et masque généralisés) lors de l’épidémie de 2020 :
- « 30% des hospitalisés le seront en soins intensifs, et 50% de ceux-ci meurent » ;
- « le nombre de contacts par individu dans les écoles est le double de celui observé ailleurs » ;
- « la période d’incubation est de 5,2 jours » ;
- « l’infectiosité survient 12 heures avant le début des symptômes pour les symptomatiques, et 4,6 jours après l’infection pour les asymptomatiques » ;
- « le taux de propagation R0=2,4 » ;
- « les symptomatiques sont 50% plus contaminants que les asymptomatiques » ;
- « deux tiers des symptomatiques le sont suffisamment pour s’auto-confiner dans les 24 heures suivant l’apparition des symptômes, et sont hospitalisés dans les cinq jours » ;
- « la durée d’hospitalisation est de 8 jours pour les cas non critiques et 16 jours pour les cas critiques » ;
- « 70% des ménages respectent les mesures sanitaires » ;
- « le taux de contact sur le lieu de travail est diminué de 25% (distanciation) » ; …
Dans la section #modeles-mathematiques-principes nous avons vu que l’intérêt des modèles réside précisément dans leur simplicité. Mais lorsqu’un phénomène est difficilement modélisable et que par conséquent les modèles n’arrivent pas à simplement reproduire correctement ses instances (ce qui implique évidemment l’incapacité de prédire celles-ci) des scientifiques qui ont investi leur carrière dans cette voie peuvent être tenté, plutôt que de changer de domaine de recherche, de s’obstiner en augmentant sans fin le nombre des variables, paramètres et équations (ce qui est le cas des modèles dérivés de SIR). Il en résulte des modèles complexes qui non seulement ne sont pas plus performants mais qui en outre sont beaucoup plus difficiles à comprendre, de sorte qu’ils n’ont plus aucun intérêt (notamment pour l’enseignement). C’est le cas notamment en économie et épidémiologie/infectiologie, qui semblent bien être des phénomènes irréductibles.
L’incapacité prédictive des modèle épidémiologiques (sauf effet du hasard) n’est pas étonnante car la dynamique des maladies transmissibles est extrêmement complexe. On observe ainsi une grande diversité dans la nature et la puissance des vecteurs : tous ne transmettent pas la maladie de la même manière, certains individus étant plus contaminants mais moins malades (par exemple les enfants) tandis que d’autres sont plus sensibles mais moins contaminants (par exemples les personnes âgées).
D’autre part les comportements culturels, comme cracher par terre et consommer peu ou beaucoup de certains aliments, peuvent induire des différences dans la propagation et la létalité d’un virus. Les maladies infectieuses sont donc des maladies d’écosystème. Par conséquent même si un modèle fonctionnait bien pour tel pays il pourrait ne pas fonctionner du tout pour d’autres pays. À cette variabilité spatiale s’ajoute une variabilité temporelle : les écosystèmes sont par nature changeant d’une année à l’autre (cf. la grippe qui chaque année peut changer de nature au niveau de sa virulence ou/et ténacité).
Didier Raoult – premier expert mondial dans le domaine des maladies transmissibles selon le classement expertscape – dénonce « une façon de transformer en mathématiques des phénomènes extrêmement complexes qui n’est jamais lucide » [source]. Il y a une incapacité des modèles mathématiques à représenter la complexité des maladies transmissibles, qui plus est dans le cas de virus nouveaux et/ou à mutations fréquentes. Aucun modèle ne peut prendre en compte toute l’hétérogénéité spatiotemporelle d’un contexte écoépidémiologique, ni même le degré de transmissibilité ou la vulnérabilité à une infection. On notera ainsi le gigantesque réductionnisme consistant à ramener à la seule problématique de propagation d’un virus celle, beaucoup plus complexe, de neutralisation de ses effets sur la santé publique.
Réalité
L’incapacité éventuelle d’un modèle mathématique à représenter un phénomène naturel n’est pas nécessairement liée à la conception (erronée ou incomplète) du modèle, mais peut aussi s’expliquer par l’inexistence du phénomène modélisé. Par exemple est-il certain que les notions « d’incidence épidémique d’un virus », de « maladie virale » ou encore de « taux de mortalité d’une maladie », correspondent à une quelconque réalité ? Ainsi lorsque nous pensons mesurer la durée moyenne d’une maladie virale nous ne mesurons en fait que des indicateurs dont nous supposons qu’il permettent de mesurer le début et la fin d’un concept que nous appelons « maladie virale ».
Ainsi la notion de « réalité » est liée à celles de « définition » et de « complexité » : pour comprendre la complexité du monde, c-à-d pouvoir agir sur lui ou par rapport à lui, nous en définissons des objets, dont nous mesurons les valeurs. Ce faisant nous pouvons éventuellement ouvrir des portes sur des applications (R&D), mais peut-être aussi nous éloignons-nous d’autres voies plus intéressantes (enfermement cognitif).
Modèles et idéologies
https://konfedera.org/gestion-epidemies#modeles-et-idéologies
Les modèles mathématiques ne sont pas seulement soumis à des contraintes logiques et physiques. Ils sont aussi l’objet d’utilisations abusives, fruits de leur incompréhension ou de motivations non scientifiques (idéologiques, financières, égotiques, …).
Interprétations abusives
https://konfedera.org/gestion-epidemies#interpretations-abusives
Illustrer vs
démontrer
Comprenons bien que les résultats d’un modèle mathématique ne constituent aucunement une démonstration (c-à-d une preuve) de la thèse modélisée ! Un modèle mathématique ne fait rien d’autre que de produire des valeurs (les « résultats du modèle ») correspondant à différentes valeurs de ses paramètres. Un modèle permet seulement d’illustrer différents scénarios d’une thèse (par exemple : « le confinement général permet de retarder et abaisser le sommet de la courbe épidémique« ), mais cela ne démontre pas cette thèse (ainsi il est certes incontestable que les modèles astrologiques produisent des prévisions, mais cela ne prouve en rien que ces modèles sont effectivement capables de prédire l’avenir).
La plupart des journalistes, décideurs politiques et même des scientifiques tombent dans le piège de cette confusion. C’est alors que peut entrer en jeu la manipulation des paramètres.
Valeurs des
paramètres
Nous avons vu que les résultats d’un modèle sont des scénarios correspondant à différentes valeurs des paramètres. Ces paramètres sont déterminés par les utilisateurs du modèle, mais sont généralement entachés de deux types de biais :
- estimations erronées : les valeurs initiales, les variables d’entrées et les paramètres peuvent être :
- mesurées sur l’épidémie en cours ; ⇒ ces valeurs sont d’autant moins pertinentes que les biais de mesures seront importants (cf. infra la section « #suivi-temps-reel« );
- mesurées sur de précédentes épidémies considérées comme « potentiellement similaires » ⇒ ces valeurs sont d’autant moins pertinentes que l’épidémie en cours est différente des celles utilisées comme référentiels ;
- calculées à partir d’autres modèles ⇒ ces modèles ne sont plus alors que des objets divinatoires.
- intérêts financiers/politiques/égotiques : ce dernier biais ne doit pas être sous-estimé : on peut faire dire beaucoup de chose (ce que l’on veut ?) à un modèle ; or des résultats catastrophistes augmentent les chances de médiatisation d’un modèle, et donc de ses auteurs …
On passe alors au stade suivant de la confusion voire manipulation : faire passer une valeur calculée pour une valeur observée.
Mesure
vs calcul
Les modèles peuvent être utilisés comme instrument d’analyse descriptive, par exemple pour calculer une valeur (estimation) lorsque sa mesure n’est pas disponible ou trop coûteuse. Il n’y a là rien d’abusif, sauf si on ne le mentionne pas. Or la plupart des articles de presse mélangent sans distinction des données mesurées et des données calculées (donc provenant de modèles), ce qui a pour effet que des valeurs calculées (qui peuvent être très éloignées de la réalité) sont présentées comme valeurs mesurées.
Enfin en toile de fond de ces confusions voire manipulation, il y a la question fondamentale de la causalité.
Corrélation
vs causalité
Une autre pratique abusive est d’interpréter une simple corrélation entre deux variables comme étant une relation de causalité selon laquelle l’une déterminerait l’autre. Exemple : « la vitesse de croissance de l’épidémie a diminué peu après l’implémentation du confinement général », alors que vitesse diminue toujours après une première phase exponentielle.
Conclusion. Quelques lignes extraites d’une étude scientifique [source], et qui nous rappellent que les modèles doivent être interprétés avec prudence et sens critique :
- « Certaines études antérieures ont signalé différente valeurs de R0 (de 1,40 à 6,49 avec une moyenne de 3,28) en raison de différentes sources de données, périodes et méthodes statistiques » (p. 16).
- « (…) nous avons fixé les valeurs de plusieurs paramètres sur la base d’études épidémiologiques antérieures sans tenir compte de l’incertitude, ce qui pourrait réduire la précision de nos résultats » (p. 17).
- « L’impact des interventions doit être considéré dans son ensemble et nous n’avons pas pu évaluer les stratégies individuelles par la courbe épidémique » (p. 17).
Neil Ferguson
https://konfedera.org/gestion-epidemies#Neil-Ferguson
Le graphique hyper-catastrophiste ci-dessous est le résultat d’une modélisation mathématique réalisée par le physicien anglais Neil Ferguson de l’Imperial College London. Selon ce graphique – publié le 16 mars 2020 c-à-d au début de l’épidémie de covid-19 en Europe – les malades sévères de covid-19 (c-à-d qui nécessiteront une hospitalisation) représenteront près de 300 fois les capacités hospitalières (30.000 % !) en l’absence de confinement général …
Une modélisation catastrophiste de covid-19
Ligne rouge : capacité hospitalière en lits de soins intensifs. Courbes : différents scénarios d’utilisation de la capacité selon la stratégie appliquée. Conclusion : dans tous les cas la capacité hospitalière serait submergée … [source]. Voir aussi cette interface de simulation.
Lysensko du
néolibéralisme
Étant donné qu’augmenter les capacités hospitalières dans de telles proportions est quasiment impossible à court et même moyen terme (et cela sans parler de la faisabilité politique et économique d’une surcapacité permanente en dehors des périodes d’épidémies) ces « prévisions » permettent de « justifier » les politiques néolibérales de santé : le recours récurrent au confinement général permettrait d’abaisser le niveau requis de capacité hospitalière ! Le caractère délirant de ces prévisions et de la politique de santé qu’elles impliquent a valu à Ferguson le sobriquet de « Lysenko du néolibéralisme« .
Rappelez-vous : au début de l’épidémie le message officiel était que le confinement permettrait de reculer le sommet épidémique et de nous donner ainsi du temps pour augmenter la capacité hospitalière. Or absolument aucun programme de développement de la capacité hospitalière n’a été mis sur pied, ni aucune entreprise publique de fabrication de masques et de respirateurs n’a été créée. Pourtant l’on nous assure que l’épidémie pourrait durer des années et que le pire pourrait être à venir. Il n’y a plus aucune connexion entre les discours médiatiques et la réalité.
Expert en
catastrophisme
Ferguson, qui s’est fait connaître grâce à ses prévisions catastrophistes, a bien compris que ce qui compte le plus ce n’est pas la valeur scientifique mais médiatique des prévisions épidémiques [source] : plus il exagère plus il gagne en notoriété publique, et plus ils obtient des contrats en tant qu’expert, notamment auprès de l’OMS, la Banque mondiale, l’Union européenne et de nombreux gouvernements [source]. Ferguson est devenu un véritable business man du catastrophisme épidémique. En 2008 il fonda le MRC Centre for Global Infectious Disease qui reçut plusieurs dizaines de millions de dollars de la Bill & Melinda Gates Foundation [source].
Ferguson fait évidemment des émules. Et en 2020 il prédit avec l’états-unien Anthony Fauci que Covid-19 devrait tuer au moins 55 millions d’humains dans le monde ! Le nombre final est de 540.000 soit cent fois moins. Et il s’agit là d’une estimation (début juillet 2020) qui sera certainement fortement revue à la baisse lorsque l’on obtiendra les statistiques mondiales de mortalité toutes causes permettant de prendre en compte les morts avec covid-19 enregistrés comme mort par covid-19. Il conviendra également de déterminer la part les décès causés par les effets pervers du confinement général et du climat de terreur qu’il a suscité.
Car cette fois Ferguson a réussi à convaincre de nombreux gouvernements, qui ont imposé le confinement général malgré le scepticisme de nombreux scientifiques, comme en témoigne ces extraits révélateurs d’un article du journal Le Monde du 15 mars 2020, concernant l’influence de Ferguson sur la stratégie du gouvernement Français pour gérer la crise covid-19 [source] :
- « Cette projection évalue le scénario le plus sombre, avec les hypothèses de mortalité les plus élevées et en l’absence de mesures radicales de prévention. »;
- « Selon ces modélisations confidentielles, dont Le Monde a eu connaissance, l’épidémie de Covid-19 pourrait provoquer en France, en l’absence de toute mesure de prévention ou d’endiguement, de 300 000 à 500 000 morts. »;
- « Précision extrêmement importante : ce scénario a été calculé en retenant les hypothèses de transmissibilité et de mortalité probables les plus élevées, et ce en l’absence des mesures radicales de prévention et d’éloignement social qui viennent d’être prises »;
- « Les résultats pour la France ont été présentés jeudi 12 mars à l’Elysée. Quelques heures avant que le président ne prenne solennellement la parole devant les Français pour expliquer « l’urgence » de la situation. »;
- « Il existe des incertitudes quant aux hypothèses retenues et au comportement du virus – pourcentage d’asymptomatiques, transmissibilité, impact des mesures de quarantaine »;
- « différentes modélisations ont été présentées jeudi matin puis jeudi après-midi à Emmanuel Macron par le conseil scientifique, mais qu’il n’existe pas de consensus parmi les scientifiques qui le composent. »;
- « Il y a eu plusieurs documents de travail qui ont été présentés, pas de document de synthèse, explique un conseiller du chef de l’Etat. On ne peut donc pas considérer qu’une étude fournie par l’un de ses membres reflète l’avis du conseil scientifique dans son ensemble. »;
- « les chiffres évoqués [de 300 000 à 500 000 morts en cas d’absence de mesures d’endiguement] sont infiniment supérieurs à ceux communiqués par le ministère de la santé, ils apparaissent disproportionnés »;
- « C’est toute la difficulté de cette stratégie, qui n’avait jusqu’à présent jamais été envisagée pour un virus circulant de façon globalisée, en raison de son coût économique et social.»
Théoricien
du NRE
Neil Ferguson a pris pour habitude de qualifier ses détracteurs de « théoriciens du complot ». Il n’est pourtant nul besoin d’invoquer un « complot » pour expliquer qu’un scientifique arrive à exploiter habilement les processus médiatico-politiques pour promouvoir sa carrière professionnelle. On pourrait par contre qualifier Ferguson d’habile théoricien du « nouveau risque épidémique » (NRE), et de charlatan.
Modèle SIR
https://konfedera.org/gestion-epidemies#modele-SIR
Le modèle mathématique SIR est le modèle épidémiologique de base. Les modèles mathématiques se distinguent par leur degré de complexité (nombre de variables & paramètres, types de relations), mais leurs principes fondamentaux sont généralement identiques, et sont les plus visibles/compréhensibles dans les modèles les plus simples.
Système d’équations
Le modèle de base de la plupart des modèles épidémiologiques est appelé SIR [source1, source2]. Il sépare la population en trois groupes, des individus du premier passant progressivement au second puis au troisième : « Susceptible » (c-à-d contaminables) ⇒ « Infected » (c-à-d infectés) ⇒ « Removed » (c-à-d retirés, le terme « résistants » est aussi utilisé en français). Pour éviter certaines confusions de notation nous allons ici remplacer le nom « Removed » par « Excluded » (exclus).
Ce dernier groupe – qui en raison de la sous-estimation de certaines de ses composantes, joue un rôle majeur dans la nature catastrophiste des modèles épidémiologiques – comprend :
- les immunisés :
- de naissance;
- par vaccin;
- par immunité croisée.
- les guéris :
- naturellement;
- par traitement en médecine de ville;
- par traitement en milieux hospitalier (cas sévères).
- le décédés par le virus (et qu’il s’agira de distinguer des personnes décédées « avec le virus » mais pour d’autres raisons).
N.B. Cette version basique du modèle suppose donc que les personnes guéries sont immunisées. Il n’est pas ici nécessaire de lever cette hypothèse, car nous verrons que l’augmentation du nombre de variables ne change rien à l’incapacité des modèles épidémiologiques à reproduire la réalité autrement qu’en adaptant à chaque fois la valeur de leurs paramètres.
Mathématiquement la relation entre ces trois groupe est :
St + It + Et = 1(1)
En dérivant (1) par rapport au temps on obtient :
dS/dt + dI/dt + dE/dt = 0(2)
On peut alors décrire la dynamique des flux S –> I –> E au moyen d’un système d’équations différentielles tel que :
dS/dt = – β * It * St(3)
dI/dt = β * It * St – It / λ(4)
dE/dt = It / λ(5)
Lecture : durant la période dt, le flux net de I (c-à-d dI) est égal (au signe près) au flux sortant de S (dS) moins le flux rentrant dans E (dE).
Description des paramètres :
- β (bêta) : alors que le produit It * St est une mesure de la probabilité de contact entre un susceptible et un infecté, β est une mesure de la probabilité de contamination du premier par le second, et est (abusivement) dénommé « incidence »;N.B. β est supposé constant dans le temps. Nous verrons cependant que ce paramètre, en raison de sa variabilité et difficulté de mesure, constitue (avec la valeur initiale E0), l’une des principales causes de l’incapacité des modèles épidémiologiques à prédire le développement d’une épidémie.
- λ (lambda) est la durée moyenne de contagiosité = maladie = guérison (NB : cette égalité est une simplification de la réalité) ; plus λ est bas plus il y a de guérisons par unité de temps : à la limite λ = dt ⇒ dE = I ; 1 / λ est donc considéré comme le coefficient le plus simple pour exprimer dE/dt en fonction de de It ; dans la mesure où les individus guéris sont immunisés 1/λ est donc le « taux d’immunisation » ;
Hypothèses
Il faut bien comprendre que β et λ ne sont que des objets mathématiques, dont la pertinence en tant que représentation des phénomènes physiques qu’ils modélisent (incidence épidémique d’un virus ou d’une bactérie, et durée de maladie/contagiosité) n’est fondée que si les valeurs de ces paramètres, ou leur moyenne, sont constantes dans le temps et l’espace. C’est cette constance spatio-temporelle de la valeur des paramètres qui lie leur objet mathématique au phénomène physique modélisé. Si la stabilité spatio-temporelle des paramètres n’est pas observée alors on ne peut affirmer que le modèle représente la réalité. Il ne pourra ainsi éventuellement « reproduire » par le calcul les différences instances épidémiques d’un virus ou d’une bactérie (c-à-d dessiner la courbe avec les valeurs correctes du sommet épidémique, de sa date, et de la largeur moyenne de la courbe en cloche) que par l’adaptation de la valeur des paramètres. Dans ces conditions il est évidemment impossible que le modèle puisse prédire l’évolution d’une épidémie.
N.B. Cette problématique de stabilité spatio-temporelle ne doit pas être confondue avec celle des biais de mesure des paramètres (que nous traiterons dans la section #mesure-des-variables).
On notera ainsi le gigantesque raccourci que représente le modèle SIR, en résumant en trois lignes d’équations différentielles des phénomènes d’écosystèmes complexes, englobant les problématiques :
- épidémiologiques : propagation d’un virus;
- infectiologiques : contamination d’individus;
- médicales :
- développement éventuel de symptômes sévères (c-à-d nécessitant un traitement médical);
- traitements médicaux :
- symptomatiques;
- curatifs (ou préventif dans le cas de la vaccination);
Taux de reproduction
https://konfedera.org/gestion-epidemies#SIR-taux-reproduction
À partir de l’équation dI/dt = β * It * St – It / λ (4) on montre que :
- il y a croissance du nombre d’infectés dès que (tant que) :
dI/dt > 0 ⇔
β * It * St – It / λ > 0 ⇔β * St * λ > 1(6)
Le membre de gauche de (6) est supposé représenter le nombre moyen de personnes contaminées par individu infecté (*), et est par conséquent appelé « taux de reproduction » (noté Rt) :Rt = β * St * λ(7)
(*) Ce qui est inexact : il ressort de dI/dt = β * It * St – It / λ (4) que le nombre moyen de personnes contaminées par individu infecté c-à-d dI / I * λ = ( β * St * λ – 1 ) * dt.
Un épidémie est donc neutralisée dès que Rt < 1.
Le tableau ci-dessous est une réalisation graphique du modèle. On y voit notamment que la valeur de Rt (courbe hachurée orange, échelle de droite) baisse au fur et à mesure de l’épidémie, et que le sommet de la courbe rouge (infectés) correspond au passage de Rt en-dessous de 1. La baisse théorique continue de Rt s’explique évidemment par sa relation positive avec St, qui diminue tout au long de l’épidémie : Rt = β * St * λ(7).
Nous parlons de baisse théorique de Rt car le modèle SIR repose du l’hypothèse que la valeur moyenne de β et λ serait stable dans le temps et l’espace. Dans la section #R-zero-valeur-scientifique nous verrons (i) que cette hypothèse n’est généralement pas vérifiée, ce qui explique qu’en matière de prévisions les modèles épidémiologiques ne peuvent faire mieux qu’un tirage au sort parmi des résultats possibles, et (ii) que les paramétreurs des modèles épidémiologiques ont en outre une forte propension à exagérer la valeur de ces paramètres.
Tableur SIR.ods
Le modèle SIR montre donc bien que le taux de reproduction (Rt) diminue de toute façon c-à-d même sans politique de distanciation sociale (à supposer que celle-ci soit efficace …). Les entreprises « d’information » et leur conseillers scientifiques vous ont-il informé de ce fait ? Non, il vous ont plutôt asséné, jour après jour, que la baisse de Rt était due aux mesures de distanciations sociales, alors que toutes les pandémies de virus « nouveaux » depuis au moins la seconde guerre mondiale ont été gérées avec succès sans ces mesures autoritaires.
Immunité collective
https://konfedera.org/gestion-epidemies#SIR-immunite-collective
Le concept théorique d’immunité collective permet d’expliquer pourquoi les épidémies s’éteignent naturellement avant d’avoir contaminé 100% de la population.
Face à n’importe quel virus il y a toujours une partie de la population qui est immunisée : de naissance, par vaccin, par immunité croisée ou par guérison immunisante. Tous ces individus sont repris dans le groupe Et, avec E0 composé des personnes qui en t=0 sont immunisées de naissance, par vaccin ou par immunité croisée.
À partir de St + It + Et = 1 (1) ⇔
St = 1 – It – Et ⇒
substitué dans β * St * λ > 1 (6) ⇒
β * ( 1 – It – Et ) * λ > 1 ⇔
Et > 1 – It – 1 / ( β * λ )
L’épidémie est donc neutralisée dès que Et – c-à-d la part de la population qui est immunisée (ou décédée par le virus) – est supérieure à E*t (« E étoile ») qui est tel que :
E*t = 1 – It – 1 / ( β * λ )(8)
C’est pourquoi E*t est appelé « taux d’immunité collective« .
Et en particulier l’épidémie ne pourra pas même démarrer – c-à-d I0 = 0 – si Et est supérieur à :
E*0 = 1 – 1 / ( β * λ )(9)
Autrement dit, si une épidémie s’est déclenchée c’est nécessairement « parce que » Et était inférieur à E*0.
Taux d’immunité collective
La courbe bleue (E*t) n’est rien d’autre qu’une symétrie de la courbe rouge (It)
β=0,60 ; λ=15 [tableur]
On peut également exprimer E*t en fonction des variables plutôt que des paramètres : en substituant Rt = β * St * λ (7) ⇔ 1 / ( β * λ ) = St / Rt dans E*t = 1 – It – 1 / ( λ * β ) (8) ⇒
E*t = 1 – It – St / Rt(10)
de sorte que :
E*0 = 1 – S0 / R0(11)
Mécanisme
Il découle de It = 1 – St – Et (1) une modélisation probabiliste de l’extinction naturelle de toute épidémie (courbe en cloche) avant contamination (et potentielle extermination) de 100% de la population : la valeur de E*t détermine un seuil au-delà duquel la probabilité de propagation du virus est trop faible relativement au nombre de susceptibles St c-à-d de potentiels vecteurs de transfert.
Plus précisément, selon les modèles épidémiologiques, les facteurs explicatifs de l’extinction naturelle des épidémies sont de deux types :
- la baisse des flux entrant dans It : dS/dt de dI/dt = β * It * St – It / λ (4) ;
- la hausse des flux sortant de It : dE/dt de dI/dt = β * It * St – It / λ (4).
La forte propension des modèles épidémiologiques (ou faut-il parler plutôt de leurs paramétreurs ?) à produire des prévisions qui s’avèrent ex post de gigantesques surestimations du taux de mortalité des épidémies (cf. Neil Ferguson) peut s’expliquer notamment par la sur-estimation du taux d’immunité collective E*t = 1 – It – 1 / ( β * λ ) (8) via :
- au niveau des variables (dont valeurs initiales) : la sous-estimation de It et de E0 ;
- au niveau des paramètres : la surestimation de β (virulence) ou de λ (durée d’infection/contagiosité), donc la sous-estimation (en cours d’épidémie) du nombre de personnes immunisées par guérison.;
Parmi les causes de surestimation du risque épidémique, outre les manipulations des épidémiologistes charlatans (cf. infra la section #scientifiques-de-plateaux-TV), il y a aussi la sous-estimation de l’immunité collective (via E0 dans le paramétrage des modèles épidémiologiques). L’animation suivante montre qu’une sous-estimation de E0 (ici courbe verte démarrant à 0% vs 40%) se traduit par une surestimation du sommet de la courbe des infections (en rouge, 70% vs 30%). À noter qu’en raison notamment de l’immunité de naissance et de l’immunité croisée ce phénomène de sous-estimation de E0 joue même en cas de virus « nouveaux ».
Effet de la sous-estimation de E0
NB : ces paramétrages sont arbitraires.
Tableur SIR.ods
Autres causes. Nous verrons plus loin que l’incapacité des modèles épidémiologiques à prédire le développement d’une épidémie (sauf effet du hasard), et en particulier leur propension à surestimer le risque épidémique (où s’agit-il d’une propension des paramétreurs ?), peut avoir des causes exogènes. Parmi ces causes il y a très probablement la non prise en compte de facteurs opérant en amont du phénomène épidémique, et spécifiques aux virus ou aux écosystèmes (le modèle est alors dit « incomplet »). Autrement dit le concept de taux d’immunité collective ne permet pas d’expliquer pourquoi, sans politique de distanciation sociale, les épidémies s’éteignent généralement avant d’avoir atteint le taux d’immunité collective.
Stratégies
https://konfedera.org/gestion-epidemies#SIR-strategies
Nous avons vu supra que la décroissance du nombre de contaminés (seconde partie de la courbe en cloche) correspond à une situation telle que Rt = β * St * λ < 1 (7), et que par conséquent l’on peut théoriquement neutraliser une épidémie en abaissant tout ou partie des paramètres β et λ. Pour ce faire on peut distinguer deux types possibles de stratégie :
- non pharmaceutique (notée SNP) : qui est préventive, ancienne et fortement contraignante;
- pharmaceutique (notée SP) : qui est curative (donc réactive, sauf pour ce qui concerne les vaccins), moderne et faiblement contraignante.
SNP
Il s’agit d’abaisser la valeur du paramètre β (probabilité ≈ vitesse de contamination) par des mesures de distanciation sociale (isolement et hygiène). L’animation suivante compare les courbes épidémiques « sans SNP » (β=0,6 ; λ=15) et « avec SNP » (β=0,2 ; λ=15).
β = 0,6 –> 0,2 [tableur].
La stratégie SNP peut être appliquée à au moins deux niveaux d’intensité, selon que son application est générale (c-à-d sur l’ensemble de la population : confinement général) ou ciblée (c-à-d sur les seuls groupes à risque).
SP
Il s’agit (i) d’abaisser le paramètre λ (durée de la maladie=contagion) et d’augmenter la variable Et (comprenant les guéris) au moyen de médicaments (traitement), et (ii) d’augmenter la valeur initiale E0 au moyen de vaccins (prévention). L’animation suivante compare les courbes épidémiques « sans SP » (β=0,6 ; λ=15) et « avec SP » (β=0,6 ; λ=5).
λ = 15 –> 5 [tableur].
Comparaison
Les deux stratégies abaissent le sommet de la courbe épidémique (de 68% à 32%), ainsi que le niveau d’immunité collective neutralisante (de 89% à 67%). La stratégie SNP a en outre pour effet de retarder le pic épidémique (du 30° au 100° jour).
N.B. Ces chiffres sont fonction des valeurs attribuées aux paramètres. Ils n’ont donc pas ici de signification absolue.
Mais corrélativement le confinement général freine l’immunisation collective : dans la simulation du graphique suivant, alors que vers le quarantième jour 50% de la population a été immunisée naturellement, mois de 1% de la population est immunisée si l’on a appliqué plutôt la SNP, et il faut alors attendre jusqu’au début du cinquième mois pour atteindre les 50%.
Immunisation
Référentiel : β=0,60 ; λ=15
SNP : β=0,20 ; λ=15
SP : β=0,60 ; λ=5
[tableur SIR.ods]
Étant donné que le confinement général freine l’immunisation collective, il résulte de E*t = 1 – It – St / Rt (10) que, corrélativement, le taux de reproduction baisse nettement moins vite que dans le cas d’une stratégie SP.
Taux de reproduction
Référentiel : β=0,60 ; λ=15
SNP : β=0,20 ; λ=15
SP : β=0,60 ; λ=5
[tableur SIR.ods]
Mortalité
https://konfedera.org/gestion-epidemies#SIR-mortalite
On constante à la vue des équations (3) à (5) que le modèle SIR ne traite pas le taux de mortalité. Nous proposons donc ici une définition et un mode d’évaluation de cette statistique essentielle pour toute politique de gestion des épidémies.
Le taux de mortalité Mt = Σ ΔMt / Popul. = Σ ΔMt(12)
- Popul. = 1 en vertu de St + It + Et = 1 (1) ; les variables sont ainsi dites « normalisées« ;
Mortalité
β=0,60 ; λ=9 ; μ=0,2% [tableur SIR.ods]
Une valeur théorique de ΔMt et donc de Mt peut être calculée en évaluant le paramètre μ représentant le ratio du nombre de décès journaliers par rapport au nombre de nouvelles infections :
ΔMt = μ Δ+It (13)
Pour ce faire on calcule à la date n la moyenne μ = 1/n * ∑t=0n μt = 1/n * ∑t=0n ΔMt / Δ+It
De sorte que :
Mt ≈ ∑t=0n ΔMt = μ * ∑t=0n Δ+It(14)
On pourra également calculer un taux de létalité (Lt), défini comme le nombre de morts par rapport au nombre total de personnes étant ou ayant été infectées :
Lt = ∑t=0n ΔMt / ∑t=0n Δ+It = Mt / ∑t=0n Δ+It(15)
Dont la valeur théorique est μ étant donné (14).
Le taux de létalité n’est donc rien d’autre que le taux de mortalité divisé par le taux d’infection totale (c-à-d y compris les personnes ayant été infectées et qui ne le sont plus). Il est donc plus élevé que le taux de mortalité puisque le taux d’infection qui le divise est inférieur à un. Ou, pour dire les choses plus simplement : comparer le nombre de morts à la seule population des infecté donne évidemment un taux plus élevé que si l’on compare le nombre de morts à l’ensemble de la population.
N.B. La moyenne μ, et partant les définitions (14) et (15), n’ont d’utilité que si μ est stable dans le temps (entre épidémies d’un « même » virus), et dans l’espace (entre différentes régions durant une épidémie). Or nous verrons que cette condition n’est généralement pas vérifiée en raison de la nature écosystémique, et donc complexe, des phénomènes infectiologiques !
Résultat
Étant donné la formulation du taux de mortalité en fonction de It la courbe de mortalité suit l’évolution de la courbe épidémique (sauf qu’ici il y a accumulation ⇒ pas de courbe en cloche).
Taux de mortalités théoriques selon la stratégie
Référentiel : β=0,60 ; λ=9
SNP : β=0,20 ; λ=9
SP : β=0,60 ; λ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
Tableur : SIR.ods
Le lecteur pourra vérifier dans le tableur que :
- si on abaisse la valeur de β les courbes s’abaissent et sont retardées;
- si on abaisse la valeur de λ dans une même proportion on observe le même phénomène sauf que l’effet retard est plus faible.
Cependant il est peu probable que les deux stratégies soient également efficaces (SIR.ods > feuille « Synthèse » > lignes 2 et 3 : xβ = xλ). Nous verrons dans la section #efficacite-strategie-non-pharma de nombreux faits suggérant que le taux d’efficacité de la stratégie SNP pourrait être inférieur à celui de la stratégie SNP (x β < xλ). Ainsi si xβ=2 pour xλ=3 alors l’effet retard de la stratégie SNP (distanciation sociale) passe de trois à un mois et, surtout, le taux de mortalité final est plus élevé que celui de la stratégie SP (traiter).
Hypothèse de faible efficacité relative de la stratégie SNP
Référentiel : β=0,60 ; λ=9
SNP : β=0,30 ; λ=9 ; xβ=2
SP : β=0,60 ; λ=3 ; xλ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
Tableur : SIR.ods
Voilà probablement une des raisons expliquant la forte mortalité de covid-19 dans les pays ayant appliqué la stratégie SNP (cf. infra : #mortalite-differences-entre-pays). Nous verrons que l’effet de faible efficacité du confinement général (cf. infra : #efficacite-strategie-non-pharma) illustré ici est renforcé par ses effets pervers (cf. infra : #effets-pervers-strategie-non-pharma).
Charge hospitalière
https://konfedera.org/gestion-epidemies#SIR-charge-hospitaliere
On constante à la vue des équations (3) à (5) que le modèle SIR ne traite pas le taux d’hospitalisation. Nous proposons donc ici une définition et un mode d’évaluation de cette statistique essentielle pour toute politique de gestion des épidémies.
Selon notre définition le taux d’hospitalisation (noté Ht) est la valeur normalisée (en pourcentage de la population) du nombre journalier de lits occupés par les infectés sévères du virus (les autres pouvant rester à leur domicile). Une façon de le calculer consiste à ajouter à la charge hospitalière du jour précédent les entrants du jour, moins les sortants du jour (vivants ou décédés) :
Ht = Ht-1 + Δ+Ht – Δ–Ht(16)
où H1 = H0 = Δ+H0 de sorte que l’on peut calculer une valeur théorique de Ht par :
- Δ+Ht = σ * Δ+It(17)
où σ (« sigma ») est le pourcentage de personnes infectées nécessitant une hospitalisation ;
pour évaluer σ on calcule à la date n la moyenne σ = 1/n * ∑t=0n Δ+Ht / Δ+It - Δ–Ht = Δ+Ht-λ = σ * Δ+It-λ(18)
où λ (« lambda ») est la durée de contagiosité = maladie = guérison (NB : cette égalité est une simplification de la réalité) ⇔ le nombre de sortants est égal à celui des entrants d’il y a λ jours.
NB : dans les statistiques épidémiques publiées par les agences de santé les sorties d’hospitalisation concernent généralement les seules sortes en vie ⇒ il faut leur ajouter la part des décès en milieu hospitalier du jour pour obtenir le Δ–Ht de (18).
de sorte que :
Ht = Ht-1 + σ * Δ+It – σ * Δ+It-λ ⇔
Ht ≈ Ht-1 + σ * ( Δ+It – Δ+It-λ )(19)
Enfin la charge hospitalière (notée CHt) est :
CHt = Ht / k(20)où
- k, la capacité hospitalière, est mesurée par le taux de lits de soins intensifs c-à-d pour les cas sévères (patients sous respirateur, …) ou critiques (dysfonctionnement de multiples organes, choc septique, …) toutes causes confondues.
- N.B. La moyenne σ, et partant les équations (19) et (20), n’ont d’utilité que si σ est stable dans le temps (entre épidémies d’un « même » virus), et dans l’espace (entre différentes régions durant une épidémie). Or nous verrons que cette condition n’est généralement pas vérifiée en raison de la nature écosystémique, et donc complexe, des phénomènes infectiologiques !
- Alors que le taux de mortalité est de type Stock à flux entrant / Stock fixe (⇒ il augmente constamment puis se stabilise à sa valeur finale de l’épidémie), le taux de charge hospitalière est de type Stock à flux entrant et sortant / Stock fixe.
Résultat
Le graphique suivant montre un résultat notable du modèle SIR : la stratégie SNP (confinement général) a théoriquement pour effet de retarder le sommet de l’épidémie, et par conséquent celui de la charge hospitalière, nettement plus que la stratégie SP.
Charge hospitalière théorique selon la stratégie
Référentiel : β=0,60 ; λ=9
SNP : β=0,20 ; λ=9
SP : β=0,60 ; λ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
∀ : σ=0,001 (taux d’hospitalisation)
∀ : k=0,003 (capacité hospitalière)
Tableur : SIR.ods
Même réflexion que pour le taux de mortalité : il est peu probable que les deux stratégies soient également efficaces (SIR.ods > feuille « Synthèse » > lignes 2 et 3 : xβ = xλ). Nous verrons dans la section #efficacite-strategie-non-pharma de nombreux faits suggérant que le taux d’efficacité de la stratégie SNP pourrait être inférieur à celui de la stratégie SNP (xβ < xλ).
Si l’efficacité de la stratégie SNP sur son paramètre β est relativement moins efficace que la stratégie SP sur son paramètre λ – par exemple xβ=2 pour xλ=3 – alors le graphique devient comme suit : SNP retarde toujours le sommet mais celui-ci est plus haut que si l’on applique plutôt la stratégie SP ! Si cela fait passer la charge hospitalière au-delà de la capacité on aura alors une nouvelle aggravation de la mortalité !
Hypothèse de faible efficacité relative de la stratégie SNP
Référentiel : β=0,60 ; λ=9
SNP : β=0,30 ; λ=9 ; xβ=2
SP : β=0,60 ; λ=3 ; xλ=3
∀ : μ=0,002 (décès journaliers / nouvelles infections )
∀ : σ=0,001 (taux d’hospitalisation)
∀ : k=0,003 (capacité hospitalière)
Tableur : SIR.ods
Voilà qui renforce la thèse selon laquelle la forte mortalité de covid-19 dans les pays ayant appliqué la stratégie SNP (cf. infra : #mortalite-differences-entre-pays) fut causée non pas par le virus mais par le confinement général. Nous verrons que l’effet de faible efficacité du confinement général (cf. infra : #efficacite-strategie-non-pharma) illustré ici est renforcé par ses effets pervers (cf. infra : confinement-effets-pervers).
On pourra à priori objecter que les deux stratégies SNP et SP pourraient être appliquées complémentairement, mais nous exposerons dans la section #effets-pervers-strategie-non-pharma leur très difficile compatibilité.
Valeur scientifique du « R zéro »
https://konfedera.org/gestion-epidemies#R-zero-valeur-scientifique
Nous allons ici montrer la nature trompeuse voire fallacieuse de cet objet mathématique cher aux épidémiologistes adeptes des modèles mathématiques.
Le fumigène R0
https://konfedera.org/gestion-epidemies#R-zero-enfumage
Dans la section #SIR-taux-reproduction nous avons vu que la valeur théorique du taux de reproduction (Rt) baisse toujours, quelle que soit la stratégie anti-épidémique appliquée, et même sans stratégie du tout ! La raison, mathématique, est sa relation positive avec St dans Rt = β * St * λ (7), or St diminue tout au long de l’épidémie ⇒ Rt aussi.
Taux de reproduction (valeurs fictives)
Évolution du taux de reproduction selon la stratégie : non pharmaceutique (SNP c-à-d confinements, masque & lavages) ou pharmaceutique (SP c-à-d traitement avec médicaments spécifiques ou non).
Or durant l’épidémie de covid-19 des conseillers scientifiques de nombreux gouvernements ont scandaleusement abusé l’opinion publique en affirmant que la baisse de Rt serait le résultat du confinement !
Ces scientifiques ne sont-il pas plutôt cautions que conseillers scientifiques ?
En Belgique, pays où le taux de mortalité lié à covid-19 est le plus élevé au monde, ce fut notamment le cas du très médiatisé Yves Coppieters, professeur à l’École de santé publique de l’université libre de Bruxelles. Dans cette cette « analyse prédictive » (sic) publiée le 10 avril 2020, Coppieters, constatant une baisse du paramètre β, affirme avec ses coauteurs que « le confinement résulte en une chute spectaculaire de la force d’infection du paramètre β, de 0,594 avant le confinement à 0,156 après confinement (…) » !
Incompétence ? Or le graphique suivant montre que déjà avant le confinement βt était dans une tendance baissière, et de plus grande ampleur ! Par conséquent la moyenne avant n’importe quelle date est évidemment supérieure à la moyenne calculée sur la période après cette date arbitraire ! Alors, selon vous, le Pr. Yves Coppieters et tous les épidémiologistes qui font ce genre de chose sont-il des incompétents ou des charlatans … ?
Beta avant et après le confinement (covid-19 Belgique)
Tableur covid19-be, feuille « J90 » > colonnes J et K
Les charlatans ne sont pas nécessairement des incompétents : c’est parfois même en raison de leurs compétences que certains peuvent « offrir » (sic) leurs services pour servir de « caution scientifique » (cf. #scientifiques-de-plateaux-TV).
De nombreux scientifiques sont abusés par cet écran de fumée cognitif qu’est le très médiatisé « taux de reproduction de base » ou « R zéro« . Le lecteur attentif se demandera quelle est la différence entre le taux de reproduction en t=0 R0 = β * S0 * λ (7) et le taux de reproduction « de base ». La réponse – hautement ambiguë lorsque l’on utilise la notation R0 plutôt que de dire « taux de base« , et R0 plutôt que de dire « taux initial » – est que le taux de base est un type de valeur moyenne (*) des Rt (donc valeurs de βt et λt), calculée sur la période précédant une date arbitraire et de durée arbitraire …
(*) Il existe divers types de moyenne : arithmétique, géométrique, harmonique, quadratique [source] …
Calcul du R0
https://konfedera.org/gestion-epidemies#R-zero-calcul
Voici comment le concept de « R zéro » est mathématiquement construit. Partant de dI/dt = β * It * St – It / λ (4) ⇔ It+1 = It + ( β * It ) * St – It / λ on va exprimer βt en fonction du taux de croissance des It :
soit it+1 = ( It+1 – It ) / It ⇒
it+1 = βt * St – 1 / λ ⇔
βt = ( it+1 + 1 / λ ) / St(21)
que l’on substitue dans Rt = βt * St * λ (7) ⇒ :
Rt = it+1 * λ + 1(22)
Or on peut montrer [approfondir] que le taux croissance moyen d’une variable It entre t=0 et t=n peut être calculé par la formule :
i = ln( It / I0 ) / t ⇔(23)
It = I0 * e i * t(24)
où (24) est l’équation d’une courbe (exponentielle) moyenne qui représentera d’autant mieux le nuage des points constitués par la série réelle des It que celui-ci sera proche d’une exponentielle.
Courbe de régression
Δ+It : période pré-confinement en Belgique.
[Tableur covid19-be.ods > feuille « Data »].
Dès lors – pour en revenir au modèle SIR – en remplaçant it par i dans (22) on obtient le taux de reproduction de base :
R0 ≈ i * λ + 1(25)
De même dans βt = ( it+1 + 1 / λ ) / St (21) on pourra également remplacer it par i ⇒ si St est proche de 1 (ce qui est le cas durant les premières semaines d’une épidémie, voire même durant toute l’épidémie lorsque celle-ci ne touche qu’une petite partie de la population) on obtient la valeur correspondante de beta (correspondant à cette période) :
β0 ≈ R0 / λ(26)
Alors que le taux de reproduction initial R0 fait sens (du moins en tant qu’objet mathématique), le taux de reproduction de base R0, en tant que moyenne est une absurdité : c’est une moyenne « gloubi-boulga », que de nombreux épidémiologistes évoquent par suivisme, sans comprendre vraiment de quoi ils parlent.
Ceci dit, malgré l’égalité β0 ≈ R0 / λ (26), β conserve sa pertinence … du moins théorique car en pratique la stabilité spatio-temporelle de sa valeur, même en temps que moyenne, est illusoire.
Utilisations du R0
https://konfedera.org/gestion-epidemies#R-zero-utilisations
Nous venons de montrer que la notion de R0 ne fait pas sens. Mais supposons maintenant que ce n’est qu’une autre façon d’écrire R0 ⇔ le taux de reproduction de base c’est le taux de reproduction initial. Nous allons voir que même dans ce cas le concept de R zéro n’a quasiment aucune utilité.
Comparaisons
spatiales ?
Théoriquement ce R0 pourrait être utilisé pour comparer la situation de différents pays dans le cas d’une même épidémie. Cependant en pratique, la pertinence de R0 comme référentiel de comparaison est illusoire pour deux raisons :
- d’une part il faut pouvoir garantir que la date initiale (le zéro) correspond au même stade de développement de l’épidémie dans chaque pays, ce qui requiert de définir de façon non ambiguë ce qu’est est un « même stade de développement d’une épidémie », et de pouvoir le mesurer avec une marge d’erreur pas trop grande … ;Par exemple ce que l’on considère comme le début des premiers décès liés à tel virus est en réalité le moment à partir duquel on a commencé à attribuer (à tort ou à raison) des décès à ce virus, ce qui très différent.
- d’autre part il faut tenir compte de la structure sociale et démographique des pays, car les maladies transmissibles sont des phénomènes d’écosystème.
Comparaisons
temporelles ?
On pourrait également utiliser R0 pour comparer les épidémies saisonnières d’un virus connu … ce qui revient à reconnaître l’instabilité temporelle des paramètres β et λ, et par conséquent l’incapacité des modèles épidémiques à prédire l’évolution d’une épidémie d’un virus « connu ». Les épidémiologistes adeptes des modèles mathématiques sont décidément des contorsionnistes du concept …
« Prévisions »
Ici on peut (enfin) oublier le concept de R zéro, et se concentrer sur le paramètre β. Des épidémiologistes poussent le charlatanisme ou l’incompétence jusqu’à affirmer qu’avec le modèle SIR (ou ses dérivés) on peut prédire l’évolution future de la propagation d’un virus nouveau (c-à-d dont on ne connaît pas les paramètres …) ! Affirmer cela témoigne d’une incroyable incompréhension des principes élémentaires de l’analyse statistique. On pourrait le comprendre dans le chef d’étudiants de première année, mais pas de chercheurs universitaires ! Voici de quoi il s’agit.
Le graphique suivant reproduit les statistiques de contamination (Δ+It en rouge) publiées par l’agence de santé publique belge. La courbe verte est la moyenne mobile sur 7 jours des valeurs It, et qui a pour effet de « lisser » la courbe des données brutes. La courbe noire est la courbe de régression du graphique supra qui permet également de lisser les données brutes, mais cette fois au moyen de l’équation d’une courbe typique calculée à partir du taux de croissance des Δ+It de la période considérée, en l’occurrence la période pré-confinement. La courbe est visiblement exponentielle, ce qui est la forme prise par la plupart des épidémies durant le premier quart de leur durée totale. Durant leur deuxième quart – dont il est impossible de prédire la date – la courbe devient de type logarithmique, c-à-d que son creux est alors tourné vers le bas (dérivée seconde négative), alors qu’il était tourné vers le haut durant le premier quart (dérivée seconde positive).
Courbe de régression vs moyenne mobile
Tableur covid19-be.ods (feuille « Data »).
Une erreur souvent commise par des personnes ne comprenant pas bien les principes élémentaires de l’analyse statistique est de considérer en J18 que la partie de la courbe noire au-delà du jour 18 prédit ce qui se produira après cette date (et dans le cas de l’épidémie de covid-19 il vont donc en déduire, erronément, que c’est le confinement qui a ralenti l’épidémie). Or en l’occurrence il est faut de croire que le passé permet de prédire l’avenir.
Il serait d’ailleurs tout aussi abusif d’utiliser le graphique suivant pour affirmer que le confinement a aggravé la situation. La courbe bleue est la courbe de régression calculée sur les 23 premiers jours de la même série. Ce n’est qu’à J23 que l’effet théorique (c-à-d supposé) du confinement peut impacter les statistiques d’infection puisque le confinement a été appliqué à partir du 19 mars, et que l’incubation est de 4 jour (source). Or le graphique montre qu’à J23 la courbe épidémique prenait la forme d’une cloche, qui est la forme habituelle des courbes épidémiques. Pouvons-nous pour autant autant en déduire que le sommet était atteint, mais que le confinement a alors aggravé la situation ? Non ! Quelle crédibilité accorderiez-vous à un météorologiste qui vous prédirait du beau temps la semaine prochaine parce c’était le cas la semaine passée ?
Fin mars s’était déjà plié ?
Dans des écosystèmes le passé ne permet pas de prédire l’avenir. Tableur covid19-be.ods (feuille « Data »).
Le confinement a certes aggravé la situation mais on ne peut pas le démontrer de cette façon là, puisque par cette méthode on ne peut pas non plus démontrer que le confinement a pu neutraliser l’épidémie. Pour démontrer que le confinement a aggravé l’épidémie nous utiliserons le raisonnement logique en montrant que la stratégie SNP (i) ne peut être efficace (#efficacite-strategie-non-pharma) , et (ii) est en outre contre-productive (#effets-pervers-strategie-non-pharma).
Mais ne brûlons pas les étapes, et comparons maintenant SIR à la réalité des statistiques de la grippe, puis de covid-19.
SIR et la grippe
https://konfedera.org/gestion-epidemies#SIR-vs-grippe
La grippe est une des maladies les plus répandues et connues : on connaît tous ses paramètres. Par conséquent on peut tester la cohérence du modèle SIR en y injectant les paramètres de la grippe (aiguë en l’occurrence) et observer si ses résultats sont cohérents avec la réalité. Nous allons faire cet exercice pour le cas de la Belgique car ce pays ayant connu le plus haut taux de mortalité durant l’épidémie covid-19, il sera la référence de la section suivante consacrée à covid-19.
Paramètres de/pour la grippe aiguë :
- Vaccination : MIN(E0) = 50% [source].NB : (i) une partie de la population est immunisée de naissance et (ii) l’ensemble de la population bénéficie de l’immunité croisée.
- Virulence : β = 0,6 ; durée maladie (infection) : λ = 6 jours ; sommet épidémique : t (Max It) = 90° jour [source];
- # infectés : ∑Δ+It = 10% de la population; # taux hospitalisation : σ = 0,1% des infectés [source];
- Mortalité : MAX(Mt) = 0,02 % de la population [source : il s’agit de la moyenne en France car l’agence de sante belge ne semble pas publier cette donnée pourtant fondamentale : vérifier].
Une donnée complémentaire, également fondamentale, est la capacité hospitalière (toutes pathologies), mesurée en nombre de lits aigus : k = 0,003 de la population [source].
On peut catégoriser ces paramètres en deux types :
- paramètres ouverts (ou libres) : E0 et β : leur valeur est difficile voire impossible à mesurer (forte incertitude) ⇒ ce sont les paramètres d’ajustement;
- paramètres fermés (ou imposés) : λ , ∑Δ+It , t (Max It) , σ , k , Mt : leur valeur est relativement facile à mesurer (faible incertitude) ⇒ ce sont les paramètres de référence;
Dans le modèle SIR les relations de causalité entre ces deux groupes est : E0 et β ⇒ t (Max It) et ∑Δ+It. Afin de pouvoir calculer des taux d’hospitalisation (Ht) et de mortalité (Mt) théoriques j’ai complété le modèle par ΔMt = μ * Ht ((13) et Ht = Ht-1 + σ * ( Δ+It – Δ+It-λ ) (19) de sorte qu’au total :
E0 et β ⇒ t (Max It et ∑Δ+It ⇒ σ ⇒ Ht ⇒ μ ⇒ Mt
Nous sommes maintenant parés pour procéder au paramétrage de SIR afin de vérifier sa capacité à reproduire l’épidémiologie grippale telle qu’elle est observée chaque année.
Paramétrage
épidémiologique
Le tableau ci-dessous montre les résultats du modèle SIR. On constate que ∑Δ+It (cellule D12) est près de quatre fois supérieur à la valeur réelle (B12). Le lecteur pourra vérifier dans le tableur SIR.ods que pour abaisser ce montant à environ 10% on peut modifier le paramétrage de diverses combinaisons de paramètres ouverts, notamment :
- paramétrage « β » (colonne E) : β : 0,60 (D6) ⇒ 0,385 (E6);
- paramétrage « E0 » (colonne F) : E0 : 50% (D5) ⇒ 67% (F5);
Si l’on adapte plutôt I0 : 0% (D4) ⇒ 38% (G4) il y a extinction dès le début : R0<1 (G8). Cette situation ne correspond pas au profil de la grippe ⇒ ce paramétrage est rejeté.
Vert : paramètres ouverts ; rouge : paramètres fermés.
Tableur : SIR.ods
Mais le paramétrage n’est pas achevé car les sommets épidémiques t (Max It (E10 et F10) représentent trois à quatre fois la valeur observée (B10). Nous allons alors procéder à un second tour de paramétrage (tableau ci-dessous) en combinant maintenant deux variables ouvertes :
- paramétrage « β + I0 » : par itérations successives on abaisse β puis on augmente I0 jusqu’à ce que les valeurs théoriques de t (Max It et ∑Δ+It correspondent à leur valeur réelle;
- paramétrage « E0 + I0 » : par itérations successives on augemente E0 puis on augmente I0 jusqu’à ce que les valeurs théoriques de t (Max It et ∑Δ+It correspondent à leur valeur réelle;
Tableur SIR.ods
Résultats
politiques
Observons alors les différents résultats au niveau des variables qui déterminent la stratégie anti-épidémique (c’est pourquoi je parle de résultats « politiques ») : les taux d’hospitalisation et de mortalité :
- mortalité : il faut fixer μ (taux de létalité, ligne 13) à environ 0,002 (en moyenne, pour mille nouvelles infections il y a deux nouveaux décès) pour obtenir un taux de mortalité théorique (H14 et I14) égal au taux réel (B14);
- hospitalisations: qu’il s’agisse du paramétrage β+I0 ou E0+I0, le niveau de charge hospitalière maximale liée à la grippe est inférieur à 1% (H18 et I18).
Ce taux de charge hospitalière ne semble pas correspondre aux statistiques hospitalières affichant des taux de charge hospitalière toutes causes pouvant atteindre 95% durant les épidémies annuelles de grippe [FRA, BEL].
Que faut-il en conclure ? :
- que dans la simulation ci-dessus les valeurs de St, It et Et sur les premiers jours (disons la première semaine) ne sont pas des valeurs réelles ?
- mais nous verrons dans la section suivante qu’injecter des valeurs réelles dans le modèle ne démontre toujours pas sa capacité à représenter la réalité infectiologique.
- que le mode de calcul de la charge hospitalière proposé par nous (#SIR-charge-hospitaliere) n’est pas pertinent ?
- celui utilisé pour calculer une charge de 95% l’est-il ? [exemple].
- que les affirmations selon lesquelles le taux maximum de lits occupés approcherait les 100% quasiment chaque année sont mensongères ?
- ces mensonges, qui pourraient être motivés par la volonté d’éviter une réduction des subsides publics, ne sont possibles que si l’État ne contrôle jamais la validité de cette statistique hospitalière …;
- que le modèle SIR n’a aucune valeur scientifique ou que la notion de « paramètres de la grippe » ne représente aucune réalité autre que des valeurs moyennes, variables dans le temps … ?
SIR et covid-19
https://konfedera.org/gestion-epidemies#SIR-vs-covid19
Passons maintenant à covid-19. La situation diffère en ce que, contrairement à la grippe, covid-19 est supposément nouveau de sorte que ses paramètres sont inconnus. Mais d’autre part nous disposons ici de statistiques mesurées pour les variables d’entrée, alors que dans la section précédente consacrée à la grippe il ne s’agissait que de valeurs calculées.
Nous allons ici montrer une façon d’évaluer les paramètres d’un virus en temps réel c-à-d dans l’urgence.
N.B. Nous allons donc faire temporairement abstraction du fait que ce paramétrage en temps réel est irrationnel en raison de biais de mesure en temps réel des variables, qui ne pourront être corrigés qu’après l’épidémie (et dans le cas des virus saisonniers, après douze mois). Notons que ce seul fait de biais de mesure en temps réel des variables (cf. infra #mesure-des-variables) suffit à lui seul pour qualifier d’irrationnelle toute politique de gestion épidémique d’urgence de type préventive c-à-d la distanciation sociale (confinement et masque généralisés).
La présente section est néanmoins très importante car elle permet de comprendre comment les modèles sont utilisés et comment leur interprétation peut être fabriquée. On fera ainsi l’exercice, sur base des valeurs déterminées par le paramétrage, d’évaluer la charge hospitalière théorique ajoutée par covid-19, telle qu’elle était prévue au début du confinement (en J18). On la comparera alors au maximum réellement atteint sur la période finissant à J90, pour constater que la charge hospitalière a atteint un maximum … 16% en J35.
Principes de paramétrage
https://konfedera.org/gestion-epidemies#principes-parametrage-modele
La démarche empirique que nous allons développer ici va nous permettre de mieux comprendre (i) la logique du modèle et (ii) la nature des données directement mesurables.
Nous utilisons les données épidémiques de covid-19 et cela pour la Belgique. Ce pays est particulièrement intéressant car le taux de mortalité de covid-19 y fut le plus élevé au monde. Il en résulte que certaines conclusions que nous tirerons de son analyse éclairerons l’impact de covid-19 dans les autres pays.
Première constatation : les données – collectées par l’agence belge de la santé (epistat.wiv-isp.be/Covid/) – qui concernent le modèle SIR sont « les nouveaux cas journaliers de contamination ». Ce ne sont donc pas les It du modèle SIR, mais les flux entrants (que nous notons Δ+It) dans It. En effet It est un stock, dont la variation est déterminée par ces flux entrants en provenance de St, ainsi que par les flux sortants vers Et (que nous notons Δ–It).
Le système d’équations différentielles présenté plus haut – qui constitue le noyau du modèle SIR – montre que la valeur théorique des Δ+It est β * It * St, et que la valeur théorique des Δ–It est It / λ
dS/dt = – β * It * St (3)
dI/dt = β * It * St – It / λ (4)
dE/dt = It / λ (5)
De sorte que dans notre tableur (covid19-be.ods) les valeurs théoriques de St, It et Et sont calculées comme suit :
St+1 = St – β * It * St(27)
It+1 = It + β * It * St – It / λ(28)
Et-1 = Et + It / λ(29)
Par conséquent on obtient les valeurs pseudo-réelles de St, It et Et en substituant les valeurs observées Δ+It à leur formulation théorique ( β * It ) * St :
St+1 = St – Δ+It(30)
It+1 = It + Δ+It – It / λ(31)
Et+1 = Et + It / λ(32)
Je parle de valeurs « pseudo-réelles » car elles dépendent de la valeur attribuée :
- aux conditions initiales S0, I0 et E0;
- aux paramètres β et λ.
Nous allons faire pendant quelques instants abstraction du fait que (i) il n’est pas possible d’estimer correctement les conditions initiales sauf peut-être à imposer un système totalitaire de surveillance permanente de la population, et fondé sur l’abolition de toute forme de vie privée ; (ii) les paramètres β et λ – qui sont des moyennes mesurées sur des périodes spécifiques – ne sont pas stables dans le temps voire non plus dans l’espace.
Puisque nous disposons maintenant des séries pseudo-réelles de St, It et Et nous pouvons alors calculer les valeurs théoriques des Δ+It (valeur observées ou qui seront observées), données par β * It * St. Nous pourrons alors évaluer une valeur théorique du paramètre β par une méthode itérative « essai-erreur » consistant à adapter les valeurs des paramètres β et λ et conditions initiales S0, I0 et E0 jusqu’à ce que les deux courbes correspondent : lorsque ce sera le cas la valeur correspondante de β sera sa valeur de paramètre.
La situation initiale (t=0) est la suivante :
- au début du confinement on pensait que la valeur de λ (durée de contagiosité) était de 10 jours mais on sait aujourd’hui qu’elle est de 20 jours sans traitement et 6 avec traitement ⇒ on choisit la valeur moyenne : λ=(20+6)/2=13 ;
- nous supposerons I0 = 0,000001 et on testera deux valeurs pour E0 : 0% et 50% ⇒ S0 = 1 – I0 – S0;
- β sera alors la variable d’ajustement, en commençant à 0.
On pourra alors réaliser les deux paramétrages différents.
Tableur covid19-be.ods
Il suffit alors de commencer à β=0 et d’augmenter sa valeur ⇒ la courbe théorique (hachurée dans le graphique ci-dessous) s’approche de la courbe réelle (en bleu) ⇒ on arrête lorsque l’on obtient le meilleur ajustement entre les deux courbes ⇒ on obtient alors la valeur moyenne de β … telle qu’elle était au début du confinement (18 mars 2020).
Paramétrage itératif de la courbe épidémique de covid-19 : début du confinement
Tableur covid19-be.ods
On va maintenant pouvoir comparer les prévisions correspondant à chacun de ces deux paramétrages. Ce qui nous intéresse du point de vue pratique, c-à-d de la gestion d’une épidémie, ce sont les prévisions du taux de charge hospitalière (NB : le présent article montre l’impossibilité de prévisions correctes dans le domaine épidémiologique et surtout infectiologique, mais faisons « comme si » afin de bien comprendre la nature de cette impossibilité). Ces prévisions calculées au moment où le confinement fut décidé sont mentionnées dans les cellules D18=3479% et E18=1740% !
Prévisions par paramétrage : début du confinement
Vert : paramètres, rouge : prévisions. Tableur covid19-be.ods
k (capacité hospitalière, ligne 14). Si l’on mesure la capacité hospitalière par les seuls lits équipés de respirateurs la valeur de k passe de 0,003 à 0,0001, ce qui a pour effet de faire grimper les taux de charge hospitalière anticipé à respectivement 104374% et 52189% : soit 500 à 1000 fois la capacité hospitalière ! [source : cette source est sujette à caution car le médecin citant k=0,0001, non seulement commet de grossières erreurs de raisonnement par rapport au modèle SIR, mais en outre a dans le même article cité d’autres statistiques erronées].
Paramétrage en début de confinement
https://konfedera.org/gestion-epidemies#SIR-parametrage-debut-confinement
On va lire maintenant le tableau précédent sur base du paramétrage de la colonne D qui, étant le plus catastrophiste, correspond à l’anticipation qui a pu être faite par le gouvernement et ses conseillers scientifiques au début du confinement (18 mars 2020) :
- capacité hospitalière : les cas de covid-19 représenteront une charge d’environ 3500% de la capacité hospitalière soit 35 fois celle-ci ! (cellules D18) en J88 (cellule D17);
- mortalité : à la fin de l’épidémie (qui, comme indiqué en D10 durerait environ 2*91 jours soit six mois !) le taux de mortalité aura atteint 3,56% de la population belge (D18), soit environ 400.000 personnes ! Ces chiffres représentent 178 fois la mortalité de la grippe durant ses années les plus létales ! Et en fait la mortalité serait certainement beaucoup plus élevée si, comme le prédit le modèle, les capacités hospitalières sont dépassées.
Comment des chiffres aussi fantasques, n’ayant jamais été observés par le passé, n’ont-il pas attiré l’attention d’une large partie de la communauté scientifique ?
Comme dans tout modèle, l’output est fonction de l’input (paramètres et valeur initiales). Au moment où le confinement général fut décidé (18 mars 2020) les valeurs observées des paramètres justifiaient-ils une telle mesure (jamais appliquée depuis au moins la seconde mondiale, et a notre connaissance recommandée dans un aucun manuel d’épidémiologie). Le tableau suivant compare les paramètres d’incidence (β), de létalité μ = 1/n * ∑t=0n ΔMt / ΔI+t (13) et d’hospitalisation σ = 1/n * ∑t=0n ΔHt / ΔI+t (17), de covid-19 avec ceux de la grippe (aiguë) :
- le taux d’incidence de covid-19 représenterait seulement un tiers de celui de la grippe;
- le taux de mortalité de covid-19 (mesuré par μ) serait 20 fois supérieur à celui de la grippe;
- le taux d’hospitalisation de covid-19 (mesuré par σ) serait 340 fois supérieur à celui de la grippe.
Paramètres covid-19 vs grippe
Sources : covid19-be.ods ; #SIR-vs-grippe.
Il est étonnant de constater que le message propagé par les entreprises « d’information » et les scientifiques de plateau TV disait l’exacte contraire de ce tableau, à savoir que la létalité du virus était faible mais que sa virulence était élevée. Quoi qu’il en soit de la nature quantitative (β) ou qualitative (μ) du risque de la catastrophe prédite par le modèle SIR, dans les deux cas les statistiques de mortalité et d’hospitalisation qui nourrissent celui-ci en temps réels (et sur base desquelles de supposées prévisions sont calculées) ne sont de toute façon pas crédibles. En effet nous verrons dans la section #mesure-des-variables que les statistiques de mortalité et d’hospitalisation collectées en cours d’épidémie c-à-d quasiment en temps réel sont sujettes à de très importantes révisions (généralement à la baisse) lorsqu’on est en mesure de mesurer ces statistiques correctement, ce qui n’est possible qu’au moins douze mois après le début de l’épidémie (ce que rappellent les lignes 2 et 3, concernant la représentativité temporelle et spatiale de l’échantillon de mesure).
D’autre part il est frappant de constater que le ratio COV/GRI(σ) ne se situe pas entre ceux de COV/GRI(β) COV/GRI(μ) mais (largement) au-dessus, alors que σ est pourtant très probablement déterminé par β et μ. Un autre facteur a donc joué. Ne s’agit-il pas du catastrophisme ultra-anxiogène entretenu par l’appareil d’État (gouvernement, entreprises « d’information », scientifiques, …) qui aurait dopé les hospitalisations, aussi bien dans le chef des patients (demande) que des médecins (offre) ?
Comparons maintenant les prévisions faites en J18 avec la réalité observée en J90.
Paramétrage en fin de confinement
https://konfedera.org/gestion-epidemies#SIR-parametrage-fin-confinement
Mesures
Comme le montre le tableau suivant, il apparaît en J90 que la charge hospitalière de covid-19 a finalement atteint un maximum de 16% (E18) en J35 (E17). L’épidémie n’aura duré qu’environ trois mois (E10 : 42*2=84) au lieu de six. Quant au taux de mortalité il est finalement de 0,08% (E14) de la population.
Ce taux de mortalité de 0,08% est encore trois fois plus élevé que la grippe, mais sera certainement revu à la baisse en raison des biais de mesure statistique en cours d’épidémie évoqués infra (#suivi-temps-reel). En outre c’est la mortalité toute cause qui compte, or nous verrons infra (i) que celle-ci est très loin de représenter trois fois le niveau de 2017 ou 2018 (#mortalite-toutes-causes) et (ii) que le surplus de mortalité attribué à covid-19 pourrait ne pas être causé directement par le virus mais par les effets pervers de la panique induits par le catastrophisme médiatique.
SIR vs réalité (tableau)
Tableur covid19-be.ods
Mais n’oublions pas les remarques faites dans la section précédente concernant la valeur informative des statistiques collectées en temps réel : ces montants de 16% et 0.08% seront presque certainement revus à la baisse, et de façon substantielle !
Analyse
La validité des mesures n’est que la première partie de la problématique. L’analyse des causalités est la seconde. Ainsi le graphique suivant compare la prévision du modèle en J18 (hachuré rouge) et la réalité constatée en J90 (ligne bleue), concernant les flux entrants journaliers dans le groupe It.
SIR vs réalité (graphique)
Rouge : prévision en J18. ; bleu : réalité observée en J90. Tableur covid19-be.ods
On pourrait alors être tenté d’en conclure que si la courbe réelle (en bleu) est inférieure à la courbe théorique (hachurée en rouge), c’est grâce au confinement général, ce que ne manquent évidemment pas de faire les gouvernements et leurs conseillers (… dans les pays qui ont appliqué le confinement général).
Cependant ce raisonnement revient à affirmer que les modèles épidémiologiques seraient en mesure de prédire l’avenir. Or l’expérience montre que ce n’est pas le cas. Il ne pourrait d’ailleurs en être autrement car les moyennes sur base desquelles les « prévisions » sont calculées ne sont pas constantes dans le temps et l’espace. Cette instabilité des paramètres épidémiologiques, les médecins praticiens (à ne pas confondre avec les statisticiens et chercheurs de laboratoire) la constatent régulièrement : les infections virales saisonnières (en particulier la grippe) peuvent changer fortement de nature certaines années, au niveau de leur virulence (β), ténacité (λ) ou/et létalité (μ). Et même à supposer que les moyennes épidémiologiques seraient constantes, on ne les connaît pas pour covid-19 puisque c’est supposément un virus « nouveau ».
Enfin force est de constater que le graphique ne montre pas d’effet de retardement (et c’est même le contraire qu’on y voit !). Or nous avons vu supra que le confinement général a théoriquement pour effet non seulement d’abaisser le sommet épidémique mais aussi de le retarder (cf. #SIR-strategies), ce qui est précisément la raison invoquée pour « justifier » le confinement (entre guillemets car nous verrons dans la section #strategie-non-pharmaceutique que cette « justification » est non démontrée, et très probablement fausse). Le confinement n’aurait-il pas l’effet que la théorie des modèles épidémiologiques lui attribue … ?
Il est à cet égard intéressant de constater les paramétrages réalisés (par ajustement des courbes théoriques à la courbe réelle) en J90, donc à la fin de l’épidémie. Le tableau suivant en montre deux parmi les quatre présentés dans la feuille « Paramétrages ». Le premier s’inscrit dans la logique du scénario catastrophiste choisi par le gouvernement. Le second par contre suggère que la durée moyenne de la maladie serait nettement inférieure à ce que les catastrophistes prétendaient.
Paramétrage en fin d’épidémie
Tableur covid19-be.ods
Or l’animation suivant montre que le second scénario correspond à un bien meilleur ajustement des courbes …
Paramétrage en fin d’épidémie
Tableur covid19-be.ods
Rebond de l’enfermement cognitif
https://konfedera.org/gestion-epidemies#SIR-rebonds
Si en J90 on choisit le paramétrage s’inscrivant dans la logique de celui choisi par le gouvernement en J18, on est alors dans la configuration décrite dans le graphique suivant :
- bleu hachuré : prévision faite en J18 (début du confinement);
- rouge continu : réalité observée en J90;
- rouge hachuré : prévision faite en J90 : selon le modèle un rebond est inévitable.
Prévisions en J18 et J90
Tableur covid19-be.ods
Pourquoi en J90 le modèle prévoit-il un rebond ? Pour répondre à cette question il faut aller voir dans la feuille « J90+prévision » du tableur le passage de la ligne 92 à 93, c-à-d lorsque l’on passe des valeurs observées aux valeurs théoriques. Or cette transition remplace la valeur semi-réelle de β (0,024 dans K91) par sa valeur de paramètre (0,1 dans D6 et dans la colonne K à partir de K92), ce qui correspond à une remontée de Rt de 0,3 < 1 à 1,3 > 1, instantanément ! Ainsi le passage de la ligne 92 à 93 dans la colonne J montre que it, le taux de croissance de It, en passant de sa valeur observée, qui est négative, à sa valeur théorique devient brusquement … positive.
Si vous en concluez que la courbe épidémique réelle va repartir à la hausse, c’est exactement comme si vous affirmiez que ce n’est pas le modèle ou son interprétation qui sont déficients, mais la réalité qui n’est pas adaptée à ceux-ci. C’est une forme de folie, que je qualifie « d’enfermement cognitif« .
Rappels : (i) il n’est pas possible de prédire la courbe épidémique d’un virus, qui plus est lorsque celui-ci est nouveau ; (ii) le risque zéro n’existe pas ; (iii) lors des précédentes pandémies de virus « nouveaux » on a jamais imposé la stratégie non pharmaceutiques aux populations ; (iv) les études scientifiques réfutant l’efficacité de la SNP sont censurées [source].
Micro-rebonds. D’autre part n’oublions pas que l’on observe des micro-résurgences dans toute phase descendante d’un épidémie. Il est d’autant plus important de ne pas perdre cela de vue que le développement des systèmes de suivi épidémique augmente nécessairement le nombre de ces « alertes », ce qui donne l’illusion que les épidémies seraient plus sujettes à des résurgences que par le passé. En effet les virus n’apparaissent pas ex nihilo ni ne « disparaissent » comme par miracle. Lorsque l’on dit qu’un virus « a disparu » cela signifie en fait que sa quantité par unité d’espace géographique est redescendue en-dessous d’un certain niveau, c-à-d est « sortie des radars statistiques ». Et régulièrement des micro-résurgences se produisent : le virus réapparaît brièvement dans le radar puis disparaît. D’autre part le degré de focalisation du « radar » peut être déterminé arbitrairement par le gouvernement, qui a ainsi la possibilité de faire apparaître des « résurgences », des « nouveaux foyers » pratiquement où et quand il le décide, car le nombre de personnes infectées est toujours (très) supérieur au nombre de personnes testées. Autrement dit : pour trouver il suffit de tester.
Et ce n’est pas les virus qui manquent : il y a une vingtaine de virus associés aux seules infections respiratoires qui circulent dans le monde en même temps [source]. On pourrait quasiment chaque année, du début à la fin, focaliser l’opinion publique sur des micro-résurgences de tel ou tel virus.
Macro-rebonds. Enfin rappelons que l’évolution de la mortalité toutes causes est d’une régularité remarquable, sous la forme d’une sinusoïdale. Cette dynamique est due principalement aux variations des propriétés physico-chimiques de température et d’humidité de l’air, qui influencent le métabolisme des organismes vivants ainsi que la propagation des virus et bactéries. Il est quasiment certain que les adeptes des modèles épidémiologiques vont continuer d’abuser l’opinion publique en associant ces vagues annuelles à des « rebonds ».
Mortalité toutes causes en France (janvier 2015 à juin 2020)
Source : insee.fr
Il fait peu de doute que les entreprises « d’information » et leur scientifiques de plateau TV vont de plus en plus exploiter tous ces filons pour en en tordre la réalité …
Bilan
https://konfedera.org/gestion-epidemies#bilan
Nous allons ici résumer les points soulevés par les sections précédentes consacrées aux paramétrage ex ante et ex post des modèles épidémiologiques.
- Les modèles épidémiologiques sont dans l’incapacité de reproduire la réalité autrement qu’en adaptant à chaque fois la valeur des conditions initiales et paramètres. Dans ces conditions il est impossible que ces modèles puissent prédire le développement d’une épidémie (il ne peuvent le faire avec plus de succès que par un tirage au sort de résultats possibles).
- Pourquoi des gouvernements ont-ils accordé une quelconque valeur à des statistiques complètement déconnectées de la réalité, et alors que l’on sait que les statistiques épidémiques collectées en temps réel sont généralement très éloignées de la réalité, et ne peuvent être corrigées que ex post ? (cf. infra #suivi-temps-reel).
- Affirmer qu’une catastrophe sanitaire a pu être évitée grâce au confinement revient à affirmer que les modèles épidémiologiques seraient en mesure de prédire l’avenir, or cela n’est pas possible si les moyennes sur base desquelles les « prévisions » sont calculées ne sont pas constantes dans le temps (cf. supra : #R-zero-valeur-scientifique); et même à supposer que les moyennes épidémiologiques seraient constantes, on ne les connaît pas pour des virus supposés nouveaux.Nous verrons en outre dans #efficacite-strategie-non-pharma que la faisabilité et l’efficacité de la SNP (confinement, distanciation, masques, lavages) n’ont pas été clairement démontrées.
- Aucun effet de retardement n’a été observé, ce qui confirme la non pertinence des modèles épidémiologiques et de la distanciation sociale (confinement et masque).
- Le paramétrage le plus réaliste que nous avons identifié suggère que la durée moyenne de la maladie serait nettement inférieure à ce que l’on pensait.
- On observe des micro-résurgences (rebonds) dans toute phase descendante d’une épidémie. Quant aux macro-résurgences, les fameuses « secondes vagues » (cf. « le pire est à venir » des manipulateurs catastrophistes et des incompétents) il ne s’agit que des annuelles pandémies saisonnières.
Typologie des facteurs d’inefficacité
https://konfedera.org/gestion-epidemies#SIR-typologie-facteurs-inefficacite
La plupart des modèles épidémiologiques sont fondés sur le modèle de base SIR. Or force est de constater une forte propension de ces modèles (ou de leurs paramétreurs ?) à produire des prévisions qui s’avèrent ex post de gigantesques surestimations du taux de mortalité des épidémies (cf. Neil Ferguson).
Par « prédire l’évolution d’une épidémie » nous entendons « prédire les valeurs déterminant la position et forme caractéristique de sa courbe en cloche : niveau et date du sommet, ainsi que largeur moyenne de la cloche ». D’autre part comme il n’existe pas de relation stable dans le temps et l’espace permettant de prédire le taux futur de mortalité à partir du taux d’infection il en résulte que le taux qui importe du point de vue de la gestion anti-épidémique c’est le taux de mortalité (toutes causes) par rapport à la population, et non pas le taux d’infections !
Ces erreurs de prévisions récurrentes peuvent avoir deux types de causes :
- endogènes :
- erreurs d’estimation de valeurs initiales :
- sous-estimation de I0 ;
- surestimation de S0 ;
- sous-estimation de E0 (immunité collective), notamment par la sous-estimation du nombre de personnes immunisées de naissance et/ou par immunité croisée.
- erreurs d’estimation de valeurs de paramètre :
- surestimation de β (virulence);
- surestimation de λ (durée d’infection/contagiosité), donc sous-estimation (en cours d’épidémie) du nombre de personnes immunisées par guérison.
- erreurs d’estimation de valeurs initiales :
- exogènes : la non prise en compte de causes spécifiques liées aux virus eux-mêmes ou aux écosystèmes (le modèle est alors dit « incomplet ») : ainsi il est hautement probable que les épidémies s’éteignent naturellement pour d’autres raisons qu’un trop faible nombre d’individus susceptibles.
En outre toutes les erreurs d’estimations (c-à-d les causes endogènes) peuvent avoir deux sources, qui peuvent se cumuler :
- erreurs de mesure (ce point sera approfondi dans la section suivante);
- instabilité, dans le temps et l’espace, des paramètres épidémiologiques et hospitaliers.Ainsi les médecins praticiens (à ne pas confondre avec ceux des organisations internationales ou des facultés de médecine) constatent régulièrement de substantielles modifications des paramètres, ce qu’ils expriment en langage courant en disant que la grippe fut « plus virulante » (β) telle année ou « moins tenace » (λ) ou encore moins létale (μ) telle autre année ou dans telle autre région du pays.
De peu scrupuleux scientifiques utilisateurs de modèles épidémiologiques (généralement fondés sur le modèle de base SIR) – plutôt que de reconnaître l’inefficacité de ces modèles – adaptent continuellement la valeur des valeurs initiales et paramètres afin que les valeurs calculées (ex post !) correspondent aux valeurs qui ont été mesurées. Il disent alors « Regardez comme notre modèle décrit parfaitement la réalité ! ». Et ceux qui ont la mémoire courte ou qui ne sont pas bien informés en concluent que ces modèles peuvent prédire l’avenir d’une épidémie … alors que ceux-ci se trompent systématiquement (sauf effet du hasard), puisqu’il ne sont pas en mesure de reproduire la réalité observée sans que soit adaptée la valeur des paramètres.
Et c’est sans parler des virus nouveaux, donc inconnus, pour lesquels il n’est même pas besoin d’invoquer tous ces faits pour conclure à l’inutilité des modèles épidémiologiques !
Suivi en temps réel
https://konfedera.org/gestion-epidemies#suivi-temps-reel
Nous allons voir qu’en raison d’importants biais de mesure la plupart des statistiques épidémiques décisives – susceptibles (St), infectés (It), exclus (Et) et surtout le taux de mortalité toutes causes par rapport à la population (la plus importante du point de vue de la gestion anti-épidémique) – ne peuvent être évaluées correctement qu’après l’épidémie et, dans le cas des maladies saisonnières, au moins douze mois après le début de l’épidémie.
Ce fait rend donc non pertinente l’utilisation des modèles comme instrument de gestion anti-épidémique puisque leurs valeurs d’entrée sont généralement très éloignées de la réalité (PS : les scientifiques qui prétendent « suivre l’épidémie au jour le jour pour conseiller le gouvernement » sont donc nécessairement guidés par des motivations autres que scientifiques). Il est donc irrationnel de fonder la gestion d’urgence des épidémies sur la stratégie préventive dite « non pharmaceutique » (confinement, distanciation, masques, lavages). Il faut par contre faciliter les mesures réactives, dont celles liées au traitement des malades.
Enfin, étant donné qu’il suffit qu’augmente le nombre de tests réalisés (par exemple suite à l’annonce de « prévisions » catastrophistes) pour qu’apparaisse une « seconde vague » (prophétie auto-réalisatrice), il résulte de cet effet de recensement que la gestion anti-épidémique doit évidemment être pilotée en fonction du taux de mortalité (toutes causes) par rapport à la population, et surtout pas en fonction du taux d’infections, comme le confirme la comparaison des graphes suivants.
Ressources
https://konfedera.org/gestion-epidemies#suivi-ressources
Sites de référence en matière de centralisation de statistiques nationales durant l’épidémie de covid-19 en 2020 :
- worldometers.info/coronavirus. Ce site aux données clairement présentées fut très suivi durant l’épidémie de covid-19. Cependant il n’y a quasiment aucune transparence concernant l’organisation derrière ce site ainsi que ses méthodes. Elle affirme traiter les données au moyen d’un « algorithme propriétaires », ce qui pose la question de la distinction entre données observées/récoltées et données estimées/calculées (cf. supra #mesure-vs-calcul). Ce site génère des revenus publicitaires, ce qui doit susciter une grande prudence quant la valeur que nous attribuons à ces statistiques. Il en va de même de toute personne dont le contrat de travail est lié à la persistance de l’épidémie (par exemple des chercheurs universitaires). Voir aussi wikipedia.org/wiki/Worldometer.
- ourworldindata.org/coronavirus. Un site de l’université d’Oxford. Voir aussi : wikipedia.org/wiki/Our_World_in_Data.
- who.int/emergencies/diseases/novel-coronavirus-2019/situation-reports/ Le site de l’OMS, dont on peut se demander dans quelle mesure elle n’est pas une façade du lobby pharmaceutique (comme le FMI l’est pour le lobby bancaire). Ainsi en 2010 le British Medical Journal (BMJ) et le Bureau of Investigative Journalism de Londres ont révélé que plusieurs experts ayant participé à la rédaction des directives de l’OMS face à une pandémie grippale ont reçu des rémunérations de Roche et GlaxoSmithKline, deux firmes impliquées dans la fabrication de médicaments ou de vaccins contre la grippe [source 2010].
Dans un futur peut-être pas très éloigné ces fonctions de centralisation pourraient être assurées aussi par une Confédération des États souverains incitant à la transparence au niveau des sources originelles ainsi que des méthodes utilisées par celles-ci
Définitions
https://konfedera.org/gestion-epidemies#definitions
On ne mesure correctement que ce que l’on a défini précisément. Il importe également de comprendre la nature des relations entre les variables mesurées. Ces deux points sont l’objet de la présente section.
On peut distinguer au moins deux types de maladies transmissibles, selon que le vecteur est endogène (exemple : postillons) ou exogène (exemple : moustiques).
# infectés > # symptomatiques. En général la plupart des personnes infectées ne développent que des symptômes bénins, parfois tellement insignifiants qu’elles ne s’en rendent pas compte (ce qui est problématique dès lors qu’elles sont contaminantes, mais d’autant moins que le taux de mortalité est faible). Parmi les symptomatiques une partie ne se présentent pas à un service médical et guérissent naturellement (c-à-d sans traitement). Donc seuls les autres symptomatiques seront traités et enregistrés (par cette voie) dans les statistiques !
# infectés > # testés. Il résulte du point précédent que seule une partie des infectés seront examinés, de sorte que le nombre de personnes diagnostiquées positives (« confirmed cases ») sous-estime le nombre réel de personnes infectées (NB : nous utilisons indifféremment les termes « infecté » et « contaminé »). Ce n’est que si 100% de la population a été examinée que le nombre de diagnostiquées positifs est égal au nombre de contaminés (PS : en pratique on testera plutôt un échantillon représentatif de la population).
# testés > # positifs. Seules les personnes testées comme porteuses du virus ou de ses anticorps devraient être considérées comme infectées (virus) ou comme ayant été contaminées par celui-ci (anticorps). Cependant en l’absence éventuelle de moyens de tests virologiques ou sérologiques les médecins s’en remettent à d’autres formes de diagnostic, notamment basés sur l’identification de symptômes (mesure de température, scanner, …). Un diagnostic est positif si le patient est porteur (virus ou anticorps) ou symptomatique, et négatif dans le cas contraire. Un partie des diagnostics se révéleront plus tard comme erronés, quantitativement ou/et qualitativement (identification incorrecte de l’agent pathogène).
# positifs > # décès. Sauf si mauvaise gestion épidémique (cf. Belgique avec covid-19).
# infectés > # contagieux. Seule une partie des personnes contaminées sont contagieuses, notamment parce que la période de contagiosité est généralement inférieure à la durée de l’infection.
La période d’incubation est la durée entre la contamination et l’apparition de symptômes. Une question est de savoir si l’individu contaminé est contagieux pendant la période d’incubation, parce que dans l’affirmative il n’applique pas de mesures pour ne pas contaminer autrui (à supposer que cela soit faisable et souhaitable).
Guéri ⇒ immunisé. En général les personnes guéries (notion de charge virale négative), que ce soit par traitement ou naturellement, ne peuvent plus ni contaminer ni être contaminées (notion de « maladie immunisante »). « Traiter » un individu malade c’est notamment abaisser sa charge virale en-dessous d’un niveau correspondant à la disparition (i) des symptômes de la maladie et (ii) de la contagiosité de l’individu (NB : ceci concerne le premier stade de la maladie, or celle-ci peut évoluer vers des pathologies différente, souvent plus sévères, et alors que la charge virale a disparu).
Ces définitions étant précisées, nous pouvons maintenant analyser les limites de la mesure en temps réel des taux de mortalité et d’infection.
Mesure
https://konfedera.org/gestion-epidemies#mesure
Nous allons ici exposer la problématique du choix et de la mesure des variables de pilotage de la gestion épidémique qui, dans l’ordre croissant de pertinence, sont les taux d’infection, d’hospitalisation et de mortalité.
Taux d’infection
https://konfedera.org/gestion-epidemies#taux-infection
Effet de
recensement
Il suffit que le nombre de tests augmente (par exemple suite à la surmédiatisation de « prévisions » catastrophistes) pour qu’augmente le nombre d’infectés recensés, et qu’apparaisse ainsi une « seconde vague » … qui n’en est pas une puisqu’on ne fait ici qu’éclairer une réalité déjà existante mais qui était non mesurée (« dans l’ombre »).
Cet effet est illustré par la comparaison des deux graphiques suivants montrant l’absence de corrélation entre nouvelles infections et nouveaux décès.
Infections et décès « covid-19 » en Suède
Dans le cas où la hausse du nombre de tests est provoquée par l’annonce de « prévisions » catastrophistes l’effet de recensement induit donc un effet de prophétie auto-réalisatrice. Cet effet fut exploité par les conseillers scientifiques catastrophistes de nombreux gouvernements (PS : je dis « exploité » car il s’agit probablement moins d’incompétence que de charlatanisme dans le chef de ces scientifiques, comme nous verrons dans les sections #scientifiques-de-plateaux-TV et #big-pharma-data).
Comprenons bien que le taux d’infection ne reflète que les seules infections recensées (nouvelles ou cumulées), or celles-ci peuvent augmenter alors que demeure constant le nombre total des infectés ou ayants été infectés. En effet comme montré dans la section précédente :
# infectés > # symptomatiques
# infectés > # testés
# testés > # positifs
# positifs > # décès (sauf si mauvaise gestion épidémique).
Indicateur
biaisé
Enfin si l’on ajoute à cet effet de recensement le fait qu’il est souvent difficile de distinguer entre décès par le virus et décès avec le virus (problème d’identification), il en résulte que la gestion épidémique ne doit surtout pas être pilotée en fonction de l’évolution du taux d’infection, mais en fonction du taux de mortalité toutes causes par rapport à la population.
La comparaison des deux graphiques ci-dessus explique pourquoi les épidémiologistes de plateaux TV font exactement le contraire : leur objectif est d’être réinvité le plus souvent possible afin d’accroître leur célébrité, or pour maximiser ses chances d’être réinvité sur les plateaux TV il faut tenir un discours catastrophiste (qui dope l’audimat).
Taux de mortalité et létalité
https://konfedera.org/gestion-epidemies#taux-mortalite
D’autre part le graphique suivant montre que le taux de mortalité par rapport à la population (Mt) ne peut être évalué qu’une fois l’épidémie terminée.
Taux de mortalité de covid-19 en Belgique
Tableur covid19-beLe même principe vaut donc pour le taux de létalité – Mt / ∑t=0n ΔI+t(15) – c-à-d le nombre de morts par rapport au nombre total de personnes étant ou ayant été infectées .
Mortalité et létalité (Belgique 2020)
NB : notez la différence d’échelles. Tableur covid19-be.
La presse, toujours avide de sensationnalisme, préfère évidemment le taux de létalité car il est nettement plus élevé. Malheureusement de nombreux journalistes parlent indifféremment de taux de mortalité, même lorsqu’il s’agit de taux de létalité. Ainsi au début de l’épidémie de covid-19 le taux de létalité a parfois été frauduleusement comparé au taux de mortalité de précédentes épidémies de coronavirus, attisant ainsi la panique.
Mortalité et létalité de covid-19 (Belgique 2020)
Tableur covid19-be
Il convient enfin de ne pas confondre le taux de létalité Mt / ∑t=0n ΔI +t avec Mt / It. Ce dernier ratio n’a pas de signification car il compare un stock constamment croissant (Mt) avec un stock d’abord croissant puis décroissant (It) sous l’effet des guérisons ΔI –t devenues plus nombreuses que les nouvelles infections ΔI +t.
Mortalité et létalité de covid-19 (Belgique 2020)
Tableur covid19-be
La nécessité d’attendre la fin de l’année n’est pas du qu’au fait de la croissance du taux de mortalité et létalité. On peut classer les autres facteurs selon qu’ils jouent au niveau du numérateur ou dénominateur :
- Numérateur :
- Concentration temporelle. Durant l’épidémie de covid-19 les effets pervers du catastrophisme médiatique et du confinement général (cf. infra #effets-pervers-strategie-non-pharma) ont accéléré et concentré la dynamique létale sur une très courte période, ce qui explique le pic plus fin et plus élevé que les années précédentes, où la distanciation sociale obligatoire n’a jamais été appliquée. Par conséquent il est hautement probable que la mortalité sur le reste de l’année sera historiquement très basse.
- Mortalité toutes causes. Il y a aussi la difficulté de faire la distinction entre les décès « par le virus » et ceux « avec le virus » ⇒ c’est la mortalité toute cause qu’il faut regarder. Cela peut conduire à des corrections ultérieures.
Il y a-t-il eu avec covid-19 un phénomène d’amplification, initié par le business des « infos » pour booster l’audimat, puis amplifié par du personnel médical hospitalier pour appuyer des revendications financières (moyens matériels et salaires) ? Pour ce faire les décès avec covid-19 ont-ils été systématiquement enregistrés comme décès par covid-19 ? Dans l’affirmative cela a-t-il enclenché un effet de prophétie auto-réalisatrice via les effets pervers de la panique : décisions politiques absurdes (*), vieillards « se laissant partir », etc ? Dans ce cas on serait dans un phénomène auto-entretenu par lequel la mesure d’une variable accélère son évolution future !
(*) En Belgique les maisons de retraite ont reçu instruction de ne plus hospitaliser leurs résidents quel que soit le problème qu’ils avaient ! [source].
- Dénominateur : la problématique concerne ici le taux de létalité, et découle du fait que infectés > testés > positifs, ⇒ si l’on prend le nombre de testés positifs comme une estimation du nombre d’infectés on sous-estime le dénominateur du taux de létalité, de sorte que l’on surestime celui-ci ; et comme il n’est pas réaliste de tester toute la population on a alors trois options :
- calculer le taux de létalité plutôt en fonction du nombre des personnes hospitalisées (dont on peut supposer qu’elles sont quasiment toutes infectées), mais cette population n’est pas du tout représentative de l’ensemble de la population (on peut cependant utiliser ce taux pour des comparaisons entre hôpitaux ou secteurs hospitaliers nationaux);
- calculer les valeurs futures (c-à-d théoriques) des It au moyen du modèle SIR, mais il n’a pas été démontré que les prédictions calculées par le modèle correspondent à la réalité ⇒ on préférera la solution suivante;
- identifier la présence d’anticorps contre l’agent pathogène dans le sang (signe d’un infection passée) chez tous les membres d’un groupe d’individus supposés constituer un « échantillon représentatif de la population ».
J’ignore si ce test sur groupe représentatif a été réalisé : je n’ai rien lu ni entendu à ce sujet. Quoi qu’il en soit force est de constater que les très catastrophistes (et donc influents) épidémiologistes ont ici un second (*) intérêt à focaliser l’attention de l’opinion publique et des décideurs politiques sur le taux de létalité plutôt que sur le taux de mortalité, qui ne requiert pas de mesurer ou calculer It …
(*) le premier étant que sa valeur est beaucoup plus élevée que celle du taux de mortalité (cf. supra), ce qui nourrit d’autant plus le catastrophisme que la confusion entre les deux est entretenue.
Stratégies anti-épidémiques
https://konfedera.org/gestion-epidemies#strategies
Nous commencerons cette section par la présentation des principes fondamentaux de la gestion épidémique. Puis nous préciserons le rôle joué en toile de fond par le phénomène d’immunité collective. Ensuite nous développerons une analyse pratique des deux types de stratégie (SNP et SP) dont nous avions présenté les fondements théoriques dans la section #SIR-strategies. Enfin, sur base des ces éléments, nous répondrons à la question : quelles stratégie appliquer ?
Principes de gestion anti-épidémique
https://konfedera.org/gestion-epidemies#principes
Dans la section consacrée au modèle SIR nous avions défini deux types théoriques de stratégie anti-épidémique :
- non pharmaceutique (notée SNP) :
- consistant à abaisser la valeur du paramètre β (incidence épidémique du virus) par des mesures de distanciation sociale (isolement, masques et lavages);
- elle est préventive, ancienne et fortement contraignante.
- pharmaceutique (notée SP) :
- consistant à :
- abaisser le paramètre λ (durée de la maladie=contagion) et augmenter la variable Et (comprenant les guéris) au moyen de médicaments (traitement);
- augmenter la valeur initiale E0 au moyen de vaccins (prévention);
- elle est essentiellement curative, moderne et faiblement contraignante.
- consistant à :
La présente section étant consacrée à l’épidémiologie non plus théorique mais pratique, nous allons ici compléter cette typologie en prenant en compte les possibilités et contraintes d’application.
Le tableau suivant synthétise les modalités de stratégies épidémiques :
- on peut les classer en trois groupes (colonne A) : prévention, dépistage, traitement;
- chacune peut être implémentée en mode volontaire (colonne D) ou coercitif (colonne E);
- toutes renforcent l’immunité collective (colonne F), sauf le confinement général qui la ralentit (le dépistage étant neutre sauf s’il conduit au confinement général);
- l’immunité collective n’est pas une stratégie à proprement parler mais plutôt un phénomène naturel opérant en toile de fond de chacune des stratégies.
(*) Par « confinement » on entend l’isolement des individus ainsi que les mesures d’hygiène : lavage des mains + port de gants et masques.
En essayant de remplir les colonne D et E du tableau le lecteur comprendra pourquoi le confinement général à l’échelle internationale n’avait jamais été appliqué (ni recommandé) avant covid-19 :
- il ne peut être pleinement impliqué que par la coercition (dont la coercition psychique, consistant à terroriser la population par de quotidiens messages ultra-anxiogènes : exemple1, exemple2);
- à supposer qu’il soit réaliste et effectif, le confinement retarde l’immunisation collective : or cet effet négatif ne peut être considéré comme tolérable sous le prétexte qu’il permettrait de gagner du temps pour développer les capacités hospitalières et des médicaments/vaccins spécifiques, car il est n’est pas possible de réaliser ces développements de façon substantielle et réellement efficace en moins de trois ans; et même si cela était possible ce ne serait pas rationnel d’un point de vue économique et écologique comme réponse systématique aux virus « nouveaux » (il y a mieux à faire).
Immunité collective
https://konfedera.org/gestion-epidemies#strategie-immunite-collective
Dans la section consacrée au modèle SIR nous avons vu l’équation E*t = 1 – It – 1 / ( β * λ ) (8) qui exprime la valeur de Et au-delà de laquelle, la croissance du nombre d’infectés (It) serait impossible. C’est pourquoi E*t est appelé « taux d’immunité collective« .
L’équation (8) n’exprime pas de causalité mais seulement une corrélation entre E*t et It, c-à-d que lorsque It arrête de croître sa valeur correspond à une valeur de Et égale à E*t. Et inversement lorsque Et atteint la valeur de E*t c’est que nécessairement It arrête de croître. Mathématiquement cela s’exprime par :
E*t = 1 – It – 1 / ( β * λ ) ⇔ It = 1 – E*t – 1 / ( β * λ )(33)
On peut interpréter cette expression mathématique de façon intuitive en disant que si la répartition spatiale de la population It est uniforme (ce qui est une des hypothèses du modèle SIR) il existe une valeur minimale de It en-dessous de laquelle – c-à-d une valeur maximale de Et au-delà de laquelle – le virus n’arrive plus à se propager faute de suffisamment de vecteurs. Cette interprétation surlignée en jaune permet d’expliquer pourquoi une épidémie s’éteint naturellement avant que le virus ait contaminé l’intégralité de la population au sein de laquelle il se propage.
Mais qu’est ce qui fait qu’un individu est immunisé ? Il y a trois voies possibles d’immunisation (synonyme « d’exclusion » c-à-d le fait d’appartenir au groupes des exclus du risque de contamination ) :
- de naissance ;
- par guérison d’une maladie immunisante;
- Toutes les maladies ne seraient pas immunisantes.
- Une guérison peut être naturelle (sans traitement médical) ou non (avec traitement médical).
- par vaccination;
- par immunité croisée.
Mais s’il n’existe ni vaccin ni traitement spécifique les individus ne peuvent donc être immunisés que :
- de naissance ;
- par guérison d’une maladie immunisante :
- soit naturellement;
- soit au moyen d’un traitement médical non spécifique.
- par immunité croisée.
La dite « stratégie » d’immunité collective consiste en fait à ne compter que sur les stratégies de type SP (traitement) c-à-d sans prévention ni dépistage. Elle repose sur le pari que le pic de l’épidémie, c-à-d le nombre le plus élevé de personnes contaminées par unité de temps ne dépassera pas les capacités matérielles et humaines du système médical.
Compter sur les seules stratégies SP (traitement + immunité collective en toile de fond) pour gérer une épidémie est donc d’autant plus justifié que le produit incidence x mortalité est faible. Avant covid-19 cette stratégie du laisser faire était systématiquement appliquée dans les épidémies et pandémies de virus « nouveaux » (entre guillemets car un virus n’est jamais totalement nouveau puisqu’une mutation est toujours partielle). Ainsi chaque année des épidémies létales et dont la propagation connaît un stade exponentiel, sont finalement maîtrisées sans confinement général. Par conséquent, chaque année nous sommes confrontés au risque que le système hospitalier soit surchargé. Et certaines années cela est (légèrement) le cas, ce qui implique que des malades sont moins biens soignés voire pas du tout, et que certains en meurent.
Le nombre de ces décès est implicitement considéré comme « acceptable » au regard des coûts sociaux, économiques et politiques :
- soit d’une surcapacité hospitalière garantissant qu’aucune épidémie ne provoque de surcharge (mais cela n’est pas prévisible …);
- soit du recours systématique au confinement général (donc même pour les épidémies saisonnières), ce qui aurait pour effet d’instaurer quasiment chaque année le confinement général et le traçage des personnes (mais cela est-il politiquement, économiquement et socialement souhaitable ?) …
Dans les sections consacrées aux problématiques économiques et politiques de la gestion anti-épidémique nous analyserons cet arbitrage. Mais avant il nous faut détailler les différentes composantes de la gestion anti-épidémique.
Stratégie non pharmaceutique (SNP)
https://konfedera.org/gestion-epidemies#strategie-non-pharmaceutique
Nous allons ici traiter successivement des principes, de l’efficacité douteuse et des effets pervers de la stratégie non pharmaceutique (SNP), dont nous avions exposé les principes théoriques dans la section #SIR-strategies. Les éléments de cette stratégie sont : confinement, distanciation, masques, lavages.
Principes
Cette stratégie (qui à notre connaissance n’était mentionnée dans aucun article d’épidémiologie avant covid-19) s’applique aux épidémies se propageant par contacts interindividuels directs, et non par le biais d’un vecteur tel un moustique. Elle consiste à inciter voire forcer l’ensemble de la population à appliquer des mesures dites de « distanciation sociale » :
- limiter le nombre de contacts : confinement général : fermeture des crèches et écoles, isolement des malades, suppression des rassemblements publics, réduction des mouvements de population, … ;
- limiter la probabilité de contamination lors de contacts, par des mesures d’hygiène : lavage des mains, port de gants et masques de protection, maintient d’une distance de deux mètre entre individus.
Détail des mesures de confinement général : France ; Belgique.
Les partisans de cette stratégie affirment, sur base de modèles épidémiologiques tels que le modèle mathématique SIR, que celui-ci aurait pour effets [source] :
- d’abaisser le sommet de la courbe épidémique ⇒ on réduit le risque que la capacité hospitalière soit dépassée par le nombre de cas sévères;
- de retarder le sommet de la courbe épidémique ⇒ on gagne du temps pour augmenter la capacité hospitalière et en particulier le nombre de lits de soins intensifs (mais nous verrons que cet argument est erroné).
En théorie l’ensemble de ces mesures seraient très efficaces : appliquées pleinement elles permettraient de stopper l’épidémie en quelques semaines.
NB : dans le monde moderne (entendez « depuis la seconde guerre mondiale ») toutes les épidémies saisonnières s’éteignent naturellement en quelques semaines … sans confinement ni port du masque généraliés !
Le graphique suivant illustre le principe de fonctionnement du confinement général.
Confinement général : l’un télétravaille, l’autre ne se rend pas à ce barbecue, une troisième ne voyage pas en avion, et le dernier reste à la maison …
On notera que l’animation ci-dessus – qui illustre la stratégie de confinement général, consistant à abaisser la valeur de β – vaut aussi bien pour illustrer l’immunisation collective, ainsi que la stratégie « dépister & traiter » (si l’on suppose que la guérison est immunisante) consistant à abaisser la valeur de λ. Pour s’en rendre compte il suffit de remplacer le commentaire en-dessous de l’animation par « l’un est immunisé, l’autre est immunisé, une troisième est immunisée, et le dernier est immunisé » (de naissance, par immunité croisée, par guérison, par vaccin).
Dans le cas de virus « nouveaux », dont la virulence et la létalité sont donc inconnues (NB : … à supposer que ces notions aient un sens dans la réalité, ou autrement dit, que les paramètres des objets mathématiques les modélisant soient constants dans le temps et l’espace), la stratégie préventive qu’est le confinement général est fondée sur le principe de précaution c-à-d une spéculation : au moment où l’on décide d’appliquer ou non des mesures préventives (zone verte), moment qui se trouve proche de T=0, on ne sait pas avec précision (notions d’estimations hautes et basses de la propagation effective) quel sera ex post le positionnement relatif de la courbe épidémique par rapport à la capacité hospitalière.
Selon le positionnement ex post des courbes par rapport à la capacité hospitalière (cf. graphique ci-dessus), ont pourra tirer l’une de trois types possibles de conclusion :
- Capac. hospit. 1 : le coût social et économique de la stratégie de distanciation a permis de minimiser le nombre de malades ne pouvant être traités : la surface verte au-dessus de la ligne de capacité 1 est inférieure à la surface bleue au-dessus de cette ligne ;
- Capac. hospit. 2 : le coût social et économique de la stratégie de distanciation a permis de réduire à zéro le nombre de malades ne pouvant être soignés : la surface verte est inférieure à la ligne de capacité 2, de sorte que l’on a pu éviter un nombre de décès équivalent à la surface bleus située au-dessus de la ligne de capacité 2 (on suppose que les malade non traités meurent) ;
- Capac. hospit. 3 : le coût social et économique de la stratégie de distanciation fut inutile.
Vagues
suivantes
Le confinement général ayant pour effet de freiner le phénomène naturel d’immunisation collective, il en résulte (selon le modèle SIR) que lorsque ce confinement sera levé – parce qu’il aura ramené la valeur de Rt (taux de reproduction) en-dessous de 1, c-à-d que l’on aura dépassé le sommet de la courbe épidémique – celle-ci repartirait à la hausse dès que Rt sera repassé au-dessus de 1. On pourrait alors « s’inscrire », selon le modèle SIR, dans un cycle de confinements et dé-confinements, qui durera tant que l’on aura pas développé de médicament spécifique ou de vaccin (ce qui est impossible en moins de trois ans), ou tant que la réglementation médicale pénalisera l’usage de médicaments non spécifiques pour réduire la charge virale des infectés.
Les adeptes de l’épidémiologie mathématique, prisonniers de leur « logique », sont ainsi conduits dans un enfermement cognitif : c’est le confinement qui fait baisser l’épidémie, donc si on lève le confinement alors l’épidémie repart à la hausse. Ces croyants ne voient plus la réalité des faits historiques (le confinement général n’a jamais été appliqué dans le monde moderne) mais seulement les « prévisions » de leur modèle.
Ce cycle de confinements et dé-confinements est un moindre mal, affirment les promoteurs de cette stratégie, car on aura ainsi pu retarder le sommet de la courbe épidémique, ce qui permet selon eux de gagner du temps pour augmenter la capacité hospitalière, ainsi que pour développer un médicament spécifique et/ou un vaccin.
Le problème est ici qu’il n’est pas possible, en moins de trois ans, ni d’augmenter substantiellement la capacité hospitalière (cf. le graphique de Ferguson), ni de développer un nouveau traitement ou vaccin réellement efficace (ce qui prend cinq fois plus de temps).
Capacités
hospitalières
Il n’est pas possible d’augmenter substantiellement en quelques mois la capacité hospitalière d’un pays. Construire les bâtiments est une chose, mais les équiper d’unités de soins intensifs requiert du matériel complexe et surtout du personnel compétent. Or ces ressources ne peuvent être créées en quelques mois, qui plus est si le système productif est entravé par un confinement général. Dans une situation de crise c-à-d d’urgence, ces ressources ne peuvent qu’être redistribuées entre hôpitaux. Or comme il n’est pas possible de prévoir les régions qui seront en surcharges et celles qui ne le seront pas, cette réallocation ne peut être réalisée que dans l’urgence, ce qui rend sa faisabilité peu réaliste, qui plus est si le système productif est entravé par un confinement général. Les affirmations des gouvernements qui ont prétendu l’avoir fait (et alors qu’ils n’étaient pas même en mesure de gérer efficacement les seuls stocks de masques de protection) sont donc probablement mensongères et concernent au mieux des lits de soins non-intensifs.
Médicament
ou vaccin
Il n’est pas possible de développer un médicament spécifique ou un vaccin efficaces (et non nuisibles) en moins de deux ans (y compris l’autorisation de mise sur le marché), car cela prend d’habitude cinq à dix fois plus de temps ! En outre le confinement général allonge la durée de R&D, en entravant la production et distribution de biens et services qui lui sont indispensables. Pendant ce temps ce même confinement général aura fait des ravages, notamment sur la mortalité (cf. infra).
Les raisonnements développés dans cette section sur les principes du confinement général reposent sur l’hypothèse implicite que son efficacité ne serait pas qu’une spéculation théorique. Mais est-bien le cas ?
Efficacité de la SNP
https://konfedera.org/gestion-epidemies#efficacite-strategie-non-pharma
Les deux graphiques précédents présentant les principes de la stratégie non pharmaceutique (confinement, distanciation, masques, lavages) peuvent paraître pertinents, et l’on est alors tenté de croire que « oui, ça fonctionne bien comme cela, et le résultat obtenu est bien celui-là ». Cependant nous avons montré supra que les modèles mathématiques – dont les deux graphiques précédent illustrent la logique – ne sont eux-mêmes que l’illustration d’une thèse, ce qui n’en constituent nullement une démonstration. Pour démontrer une thèse il faut la confronter à la réalité des faits … qui en matière de maladie transmissible est extrêmement plus complexe qu’un système de trois équations, car liée aux écosystèmes.
Interrogé fin mars 2020 par le journal français Le Parisien sur l’efficacité du confinement général, le professeur Didier Raoult, premier expert mondial en maladies transmissibles selon l’indice expertscape, répond en ces termes : « Jamais on n’a pratiqué ainsi à l’époque moderne. On faisait ça au XIXe siècle pour le choléra à Marseille. L’idée du cantonnement des gens pour bloquer les maladies infectieuses n’a jamais fait ses preuves. On ne sait même pas si ça fonctionne. C’est de l’improvisation sociale et on n’en mesure pas du tout les effets collatéraux » [source].
L’analyse de l’efficacité de la SNP (confinement, distanciation, masques, lavages) doit distinguer deux cas selon que l’on considère :
- le seul secteur hospitalier, qui est équipé de tout le matériel nécessaire et où les règles sanitaires sont strictement appliquées par des professionnels avec un haut niveau de formation;
- l’ensemble des lieux publics et privés, où le matériel est moins disponible, où les règles sont appliquées moins strictement, et par des individus à formation de tous niveaux et domaines.
Or l’on constate que même en milieu hospitalier on n’arrive pas à neutraliser totalement les infections nosocomiales.
En effet, l’analyse de l’efficacité des mesures de neutralisation du risque d’infection soulève au moins trois questions :
- dans quelle proportion ces mesures permettent-elles d’abaisser le taux d’agents pathogènes par unité volumique dans l’espace ?
- dans quelle proportion la baisse du taux d’agents pathogènes par unité volumique se traduit-elle par une baisse du taux d’infections ?
- au regard de cette baisse du taux d’infections, les ressources consacrées à ce résultat ne seraient-elles pas plus productives si elles étaient allouées à d’autres aspects du service médical, par exemple les traitements (notion de coût d’opportunité) ?
En fait la seule certitude concernant les mesures sanitaires en milieu hospitalier c’est leur utilité juridique [source] et d’image de marque (NB : la concurrence joue aussi dans le secteur hospitalier).
On comprend alors pourquoi ces mesures sont très probablement illusoires lorsqu’il s’agit de les faire appliquer en tous lieux, en toutes circonstances, à tout instant et par tout le monde. Et cela alors que les plus fines particules expectorées peuvent rester en suspension dans l’air pendant plusieurs heures, donc y voyager au gré des courants d’air et se fixer n’importe où (et y rester infectieuses pendant plusieurs jours).
Ainsi le masque est à usage unique, et pour une durée de trois heures. Il doit être posé et retiré sans le toucher (!), ou bien avec lavage des mains avant et après le port (chaque fois !). Il ne doit jamais être porté sur le front, sur le cou ou dans la poche (ce que quasiment tout le monde fait …), au risque de contaminer son porteur en cas de repositionnement. [source].
Même dans un état totalitaire il ne serait pas réaliste de croire en l’efficacité de ces mesures. Il est donc particulièrement inquiétant de constater qu’une revue d’articles scientifiques réfutant l’efficacité des masques, réalisée par le physicien Denis Rancourt et publiée en avril 2020 sur researchgate.net fut censurée le mois suivant : archive.org – PDF
Interview de Denis Rancourt avant la censure (42m28s – mai 2020)
L’argumentation de researchgate.net pour « justifier » la censure de cette revue d’articles scientifiques est hallucinante et extrêmement inquiétante [email-rancourt-researchgate.pdf]. Voici la réaction de Denis Rancourt.
Réaction de Denis Rancourt après la censure (4m35s – mai 2020)
Enfin on tombe dans le délire le plus total avec l’obligation du port du masque même par les asthmatiques ! Ou encore avec la possibilité pour ceux-ci de porter plutôt une visière : ainsi donc il n’y aurait pas de propagation par les particules fines en suspension dans l’air ? On voit bien dans ces arguments contorsionnistes que les motivations réelles du port obligatoire du masque n’ont rien à voir avec la science.
Confinement
Quant au confinement proprement dit, on ne peut l’appliquer à une large population sur des périodes de plusieurs semaines car les gens doivent sortir au moins pour aller (i) chercher de la nourriture (sauf à constituer massivement des stocks, ce qui n’est pas gérable globalement) ; (ii) sur leur lieu de travail (les services qui peuvent être réalisés par télétravail ne représentent qu’une partie du PIB). Que ce soit sur leur lieu de travail comme dans leur domicile, il ne leur est pas possible d’appliquer en permanence la distanciation (un mètre cinquante), le port du masque et de gants, le lavage des mains (après chaque contact sans gants). À supposer que ces mesures soient appliquées parfaitement sur le lieux de travail (par exemple par le licenciement des réfractaires pour faute grave) il en résulterait un très forte baisse de productivité, de sorte que la production de biens et services vitaux pourraient ne plus être garantie.
Enfin, face à un virus, les mesures de confinement et d’hygiène peuvent-elle être d’une quelconque efficacité lorsqu’elles ne sont pas appliquées intégralement, par tous, en tous lieux, en toutes circonstances, 24h/24 ? Est-il raisonnable de croire qu’elles sont « quand même un petit peu efficaces même si on ne les applique que partiellement » ? Et dans l’affirmative, n’existe-t-il pas un niveau d’application partielle en-dessous duquel elles deviennent totalement inefficaces ? Dans ce cas, quel est ce niveau ? Enfin lorsque l’on compare ce faible résultat à son coût médical, économique et démocratique, demeure-t-il rationnel ? Jusqu’à l’année 2020 la réponse officielle et scientifique à cette question était non. Pourquoi ce brusque changement … ?
Bilan
La distanciation sociale n’est donc pas une stratégie pertinente, quelle que soit la thèse que l’on adopte concernant son efficacité :
- à supposer que l’ensemble des mesures de la SNP (confinement, distanciation, masques, lavages) aient un effet substantiel sur la courbe épidémique lorsqu’elles sont appliquées intégralement, il faut pour cela maintenir un niveau minimum de discipline de la population en entretenant en permanence un climat de terreur via les médias « d’information », et en instaurant un régime policier fondé notamment sur la dénonciation des contrevenants. Mais voulons-nous d’une telle société ?
- on notera d’autre part la paradoxale tolérance des gouvernements français [source] et belges [source1] par rapport aux manifestations anti-trump de début juin 2020 (donc avant l’extinction de l’épidémie) contre le racisme de la police US (et contre Trump) : ainsi donc l’interdiction des rassemblements est une question de vie ou de mort … sauf pour certaines manifestations ! Voilà qui met sérieusement en question la véritable motivation de la distanciation sociale (confinement et masque). Ces manifestations, dont de nombreux participants ne portaient pas de masque, n’ont d’ailleurs pas été suivies d’une remontée de la courbe épidémique, ce qui confirme que confinement et masque n’ont pas d’effet substantiel. Et pourtant un mois plus tard (11 juillet 2020) le gouvernement belge a rendu le port du masque obligatoire, sans doute pour « rentabiliser » les stocks achetés (après le sommet épidémique !) par ce même gouvernement qui avait fait déclarer l’inutilité des masques lorsque ceux-ci étaient indisponibles !
Didier Raoult sur le confinement et le masque (0m5s – juin 2020)
Selon le premier expert mondial en maladies transmissibles le confinement et le port du masque en public ne sont pas des décisions scientifiques mais politiques.
Et nous n’avons pas encore évoqué le gros point faible du confinement général : ses effets pervers …
Effets pervers de la SNP
https://konfedera.org/gestion-epidemies#effets-pervers-strategie-non-pharma
Les pouvoirs médiatique, académique et politique ne s’en sont jamais cachés : pour qu’un maximum de gens appliquent les mesures de la stratégie SNP (confinement, distanciation, masques, lavages) il faut faire peur à la population [exemple1, exemple2]. La SNP implique donc la terreur, or celle-ci induit de graves effets délétères :
- la panique, qui inhibe les capacités cognitives :
- des médecins hospitaliers : ainsi plus de 50% de la mortalité attribuée à covid-19 serait causée par les intubations abusives ! [source];
- des décideurs politiques : ainsi pour libérer des lits d’hôpitaux en prévision d’une prétendue « possible explosion » (sic) du nombre de malades sévères de la covid-19 il a été décidé d’isoler un maximum de vieillards dans les maisons de repos, or plus de la moitié des décès attribués à covid-19 ont eu lieu en dehors du milieu hospitalier, en l’occurrence essentiellement dans les maisons de repos [source p.10]; on peut classer ces décès en deux groupes selon leur niveau d’infection :
- gravement infectés : décès par manque de soins, ces homes ne disposant ni du matériel ni du personnel formé pour soigner les cas graves [source];
- peu ou pas infectés : nombreux décès provoqués par « l’effet de glissement » : privés d’affection familiale, terrorisés par les messages gouvernementaux ultra-anxiogènes et par les décès autour d’eux, beaucoup de vieillards se sont « laissés partir ».
- le stress psychique, qui inhibe le système immunitaire (NB : ces effets sont démultipliés par l’isolement qu’implique le confinement);
- la peur de la contamination, qui inhibe la demande et l’offre de services médicaux.L’agence de santé publique française notait dans son bulletin du 16 avril 2020 que « depuis le début de la période de confinement, l’activité toutes causes aux urgences a fortement diminué pour toutes les classes d’âges » [source].
D’autre part des effet d’entraves ont encore accru la mortalité attribuée à covid-19 :
- une réglementation médicale pénalisant l’utilisation de médicaments non spécifiques même dans une situation « de crise » face à un virus « nouveau »;
- le confinement général entrave la production & distribution de biens et services indispensables à la lutte contre l’épidémie (médicaments, respirateurs, …).
Conclusion
https://konfedera.org/gestion-epidemies#strategie-non-pharma-conclusion
L’analyse factuelle et logique à laquelle nous venons de procéder confirme les conclusions de l’analyse statistique (cf. supra #SIR-vs-covid19) : l’efficacité théorique du confinement général est non démontrée, fortement surestimée et peu probable, notamment en raison de ses effets pervers qui eux sont par contre très sous-estimés.
Appliquer malgré tout la distanciation sociale en vertu du principe de précaution relève du comportement magique car ce principe ne justifie aucunement d’appliquer des mesures irrationnelles. Il ne s’agit donc ni plus ni moins que d’une croyance irrationnelle, conduisant à un principe de précaution tout comme des gens vont à l’église ou à la mosquée dans l’espoir – sait-on jamais – d’être admis au paradis l’échéance venue (PS : au Moyen Âge le commerce des indulgences a d’ailleurs exploité ce type de croyance).
Les adeptes de l’épidémiologie mathématique rétorqueront que les victimes causées par ses effets nuisibles du confinement général sont moins nombreuses que les personnes qu’il protège supposément de la contamination.
Cependant les faits statistiques infirment cette thèse :
- comparaison spatiale : le taux de mortalité fut plus élevé dans la région de Wuhan (où le confinement général fut appliqué) que dans le reste de la Chine (où le confinement général ne fut pas appliqué);
- comparaison temporelle : les taux de mortalité des précédentes pandémies de virus « nouveaux » sont inférieurs à celui de COVID-19 « malgré que » (ou parce que) le confinement général ne fut pas appliqué.
La question demeure donc : pourquoi le confinement général fut-il appliqué pour covid-19 alors que selon Didier Raoult – un des premiers experts mondiaux en maladies transmissibles – cette pandémie n’avait rien d’exceptionnel, et que jamais dans le moderne le confinement n’a été appliqué pour neutraliser une épidémie (son efficacité n’ayant jamais été démontrée).
La réponse à cette question n’est pas de nature scientifique mais politique et économique. Il en a résulté que des gouvernements ont fortement aggravé la situation : la mesure historiquement exceptionnelle du confinement général a suscité la panique dans la population ⇒ effets pervers ⇒ aggravation de la létalité du virus. C’est typiquement un phénomène bien connu des économistes sous le nom de prophétie autoréalisatrice (« self-fulfilling prophecy »).
Stratégie pharmaceutique (SP)
https://konfedera.org/gestion-epidemies#strategie-pharmaceutique
Nous allons ici traiter de la stratégie pharmaceutique (SP), dont nous avions exposé les principes théoriques dans la section #SIR-strategies. Les éléments de cette stratégie sont : traitement, dépistage & confinement ciblés
Traitements
Nous parlons ici des traitements médicaux pharmaceutiques (c-à-d chimiques) et mécaniques (respirateurs, etc.), donc liés à stratégie SP, par opposition à la stratégie SNP qui est de nature préventive.
Symptomatique
vs curatif
On a souvent pour habitude de distinguer traitements symptomatiques vs curatifs d’une maladie, tout en distinguant ceux de nature préventive. Cependant cette approche dichotomique du traitement médical est simpliste :
- symptomatiques : on peut favoriser la guérison naturelle en atténuant les symptômes (dans le cas de covid-19 : fièvre, toux et dyspnée) au moyen de médicaments habituels pour ces symptômes, donc éventuellement au moyen de médicaments non spécifiques à la cause des symptômes : selon des estimations le seul traitement symptomatique peut réduire de moitié le taux de mortalité [source].
- curatifs : le traitement curatif peut être appliqué avant l’apparition de symptômes ; le traitement curatif d’une infection virale ou bactérienne consiste notamment à abaisser sa charge virale ou/et bactérienne en-dessous d’un niveau correspondant à (i) la contagiosité de l’infection et (ii) l’apparition des symptômes de la maladie.
Ressource : drugvirus.info.
Repositionnement
En situation d’urgence et en l’absence de vaccin ni traitement curatif spécifique, il faut concentrer les ressources scientifiques disponibles sur le « repositionnement » c-à-d la recherche de médicaments existants permettant de traiter le nouveau virus. L’avantage du repositionnement c’est que ces médicaments sont déjà agréés, donc immédiatement disponibles. En outre leurs effets secondaires, posologie et interactions sont connues. Dans le cas de covid-19 le repositionnement fut réalisé avec succès et une rapidité stupéfiante (qui a suscité beaucoup de jalousies …) par l’équipe du Pr. Raoult (sur base de recherches chinoises sur des médicament antipaludiques). Il a ainsi été confirmé que les pays qui utilisent principalement des médicaments antipaludiques comme traitement de covid-19 voient une dynamique plus lente des décès quotidiens, le nombre de décès parmi les cas critiques étant divisé par deux [source].
Une façon d’identifier des médicaments candidats pour un repositionnement est donnée par le cas de la Chloroquine : en Italie covid-19 se serait répandu essentiellement dans les régions qui avaient été touchées par le paludisme … dont la Chloroquine est un traitement [à confirmer par une source crédible].
L’efficacité de certains médicaments non spécifiques peut donc s’expliquer par au moins deux causes :
- les mutations sont toujours partielles, de sorte qu’un virus (ou une bactérie) n’est jamais totalement « nouveau » (ou, autrement dit, les mutations mineures ne sont-elles pas la règle plutôt que l’exception ?) ⇒ la notion de familles de virus, pour lesquelles des médicaments non spécifiques à tous les membres sont efficaces;
- des traitements symptomatiques – donc éventuellement au moyen de médicaments non spécifiques à la cause des symptômes – peuvent réduire de moitié le taux de mortalité.
Le repositionnement repose donc sur un savoir qui doit s’accumuler par la pratique. Ce fait plaide en faveur d’une certaine liberté de médication non spécifique, et cela pas seulement en période d’épidémie.
Médecine de guerre. Dans une situation de crise telle que la pandémie covid-19 – virus nouveau pour lequel il n’existe pas de médicament spécifique – l’utilisation immédiate de ces traitements non spécifiques devrait être appliquée dans des conditions moins strictes que celles habituellement requises (réplication des résultats par d’autres équipes, étude randomisée en double-aveugle, …). La situation s’apparente en effet à une situation de guerre, ce qui requiert logiquement l’application d’une médecine de guerre. Dans ce cas la primauté doit être redonnée temporairement aux médecins traitants (l’art de la médecine) sur la méthodologie scientifique applicable en situation hors crise (« temps de paix »).
On s’étonnera donc à juste titre de de l’accusation portée par le journal Le Monde à l’encontre du Pr. Raoult, premier expert mondial en matière de maladies transmissibles selon l’indice expertscape, que le journal a accusé de propager une « fake news » (sic) en annonçant les résultats d’une étude scientifique suggérant l’efficacité d’un traitement non spécifique pour covid-19 : source).
Diagnostiquer et traiter (18m25s – 16 mars 2020)
Selon Raoult il n’existe dès aujourd’hui aucune barrière autre que politique au dépistage et au traitement de covid-19 [fiches de la présentation].
Covid-19
France. L’équipe du Pr. Raoult recommande (et applique) l’association d’hydroxychloroquine (200 mg x 3 par jour pour 10 jours) et d’azithromycine (500 mg le 1er jour puis 250 mg par jour pour 5 jours de plus), dans le cadre des précautions d’usage de cette association (avec notamment un électrocardiogramme à J0 et J2), et hors AMM. Dans les cas de pneumonie sévère, un antibiotique à large spectre est également associé [source1 ; source2]. Ce traitement permettrait de réduire le temps de portage moyen du virus (durée entre le début et la fin de l’infection, et donc de la contagiosité possible) de 20 jours [source] à 6 jours. L’efficacité du protocole hydroxychloroquine+azithromycin a été confirmée par une étude publiée le 27 mai 2020 par le International Journal of Infectious diseases [source].
Chine. Les autorités chinoises ont autorisé l’utilisation :
- du favipiravir (un médicament antigrippal dont l’utilisation clinique a été approuvée au Japon en 2014) après un essai clinique montrant une bonne efficacité contre covid-19 et n’ayant provoqué aucune réaction adverse [source];
- des médicaments de la médecine traditionnelle chinoise [source].
Angleterre. En Angleterre le gouvernement a autorisé l’utilisation du dexaméthasone chez les patients les plus atteints [source].
Covid-19
cas « sévères »
Plus de 50% de la mortalité covid-19 serait causée par les intubations abusives ! « L’intubation serait trop facilement pratiquée chez patients Covid-19 selon une reco publiée dans The American journal of Tropical Medicine and Hygiene et citée par Stat, un journal américain en ligne. La sémiologie des pneumonies sévères en cas Sras-Co-2 serait différente de celle observée classiquement. L’hypoxie serait en fait mieux tolérée, notamment chez les patients de moins de 60 ans. Elle ne doit pas conduire à la mise en place systématique d’un respirateur artificiel. Certains médecins ont même recours à des dispositifs utilisés dans l’apnée du sommeil. Au total, les auteurs estiment à une réduction de la mortalité de plus de 50 % chez les patients Covid-19 grâce à la prescription moins fréquente de l’intubation » [source]. « Mortality rates for those who received mechanical ventilation in the 18-to-65 and older-than-65 age groups were 76.4% and 97.2%, respectively. Mortality rates for those in the 18-to-65 and older-than-65 age groups who did not receive mechanical ventilation were 1.98% and 26.6%, respectively » [source].
Voilà qui illustre les effets de la panique sur les capacités cognitives des médecins ! Il en résulte un effet de prophétie autoréalisatrice. La société ne pourra faire l’économie d’un procès du business de « l’info » et de ses scientifiques de plateau TV.
Dépistage
https://konfedera.org/gestion-epidemies#depistage
Définition. Par dépistage on entend le test d’une population, pour identifier les personnes infectées mais non symptomatiques (qui peuvent transmettre la maladie), et ainsi :
- informer les personnes de leur état, voire les contraindre à une action (isolement, vaccination, …);
- évaluer le taux d’immunité collective, ce qui requiert soit de tester 100% de la population (ce qui n’est pas souhaitable) soit de tester un échantillon supposé « représentatif de la population ».
Coût. À supposer que le dépistage soit pertinent (c-à-d faisable, efficace et souhaitable) il est cependant très coûteux :
- en termes financiers ⇒ il doit être ciblé;
- en termes démocratiques ⇒ son éventuelle obligation doit faire l’objet d’un référendum (organisé en période non épidémique).
Ciblage. Le dépistage devrait être ciblé sur deux types de « groupes à risque » :
- type « blanc » : les personnes avec une haute probabilité de développer des symptômes sévères, par exemple des personnes âgées avec polypathologie chronique (hypertension, diabète, maladies cardiovasculaire, cancers, …) ;
- type « noir » : les super-contaminateurs :
- individus avec forte charge virale ;
- individus avec nombre élevé de contacts (dans le temps et l’espace).
Il s’agit alors de :
- isoler les groupes blancs ⇒ dépister au sein de ce groupe et diminuer la charge virale des positifs, même en l’absence de symptômes ;
- dépister au sein des groupes noirs (par exemple les enfants) ⇒ isoler les positifs et réduire leur charge virale.
Les groupes à risque représentent souvent un faible pourcentage de la population.
Les groupes blancs sont immédiatement observables puisque c’est précisément leur apparition (les décès causés par l’infection virale) qui attire l’attention. Les groupes noirs peuvent alors être identifiés puis caractérisés par l’analyse du processus de contamination des membres du groupe blanc.
Quelques formes de tests :
- le test PCR mesure la présence de l’ARN viral, attestant ainsi la contamination et son intensité; il est réalisé sur un prélèvement nasal;
- le test sérologique (par exemple ELISA) mesure la présence d’anticorps dans le sang, (et partant l’immunisation);
- imagerie (par exemple scanning des poumons dans le cas de covid-19) : permet de repérer des symptômes (mais avec plus d’incertitude que les tests quant à l’agent pathogène);
- scanners rapides de la température corporelle; …
Recommandations du gouvernement français pour les prélèvement de dépistage par RT-PCR :
- pour les agences régionales de santé (ARS) ;
- pour les professionnels de santé.
Si nécessaire les tests peuvent être proposés (ou imposés) dans les aéroports, ports et postes frontières. Et des cliniques ambulantes peuvent réaliser des tests partout sur le territoire, avec résultats envoyés par SMS le lendemain. Si possible le test peut être réalisé par les personnes elles-mêmes au moyen d’un kit disponible en pharmacie et dans les grandes surfaces.
Pas de
traçage
En Corée du Sud et en Chine, les personnes ayant eu des contacts avec des individus contaminés furent recherchées de manière systématique afin d’être testées à leur tour et confinées de force. Nous pensons cependant que c’est aller trop loin, et fut probablement motivé par des considérations plus politiques que scientifiques. Selon nous le traçage doit être volontaire et ne peut donc être imposé : c-à-d que si Alice accepte d’être tracée et qu’elle rencontre Bob qui n’a pas accepté d’être tracé, un contact entre Bob et Alice ne peut être enregistré.
Principe de précaution ?
https://konfedera.org/gestion-epidemies#principe-precaution
L’invocation du principe de précaution par les conseillers scientifiques de nombreux gouvernements pour « justifier » l’imposition de la stratégie préventive dite « non pharmaceutique » (confinement, distanciation, masques, lavages) est fallacieuse. En effet le principe de précaution ne consiste pas à appliquer une mesure incertaine sous prétexte qu’elle pourrait peut-être fonctionner, mais au contraire à ne pas appliquer une mesure sans être certain que ses effets pervers ne l’emportent pas sur ses supposés effets positifs.
Ainsi associer le principe de précaution à une obligation est absurde. Soit on applique le principe de précaution en recommandant aux gens d’appliquer telle ou telle mesure, soit on contraint la population d’appliquer une mesure mais dans ce cas il faut qu’il y ait certitude que des effets pervers ne l’emportent pas sur les effets positifs supposés.
La vidéo suivante compare l’analyse rationnelle du physicien Denis Rancourt aux propos hallucinants de l’épidémiologiste Yves Coppieters.
Covid-19 et principe de précaution : Rancourt vs Coppieters (2020- 2m5s)
Quelle stratégie appliquer ?
https://konfedera.org/gestion-epidemies#meta-strategie
Nous nous situons dans le cas d’une pandémie d’un virus « nouveau » (« worst case« ) :
- Cette situation n’est pas nouvelle, et fut chaque fois gérée avec succès dans le monde moderne sans recourir au confinement, distanciation et port du masque généralisés.
- Toutes les épidémies s’éteignent naturellement avant d’avoir contaminé 100% de la population. Et la plupart avant même d’avoir atteint le taux d’immunité collective, pour des raisons encore inconnues mais très probablement liées au virus lui-même et/ou aux écosystèmes dans lesquels il évolue. Sans ce phénomène comment la population mondiale aurait-elle pu croître ?
- Le recours à des modèles épidémiologiques à des fins de suivi épidémique et de pilotage de gestion anti-épidémique doit être absolument rejeté car :
- dans le cas des virus « nouveaux », leur paramètres sont inconnus et ne peuvent être évalués en temps réel (c-à-d en cours d’épidémie) en raison de biais de mesure ne pouvant être corrigés qu’une année après le début supposé de l’épidémie;
- pour la plupart des virus, connus ou non, les paramètres ne sont stables ni dans le temps ni dans l’espace, en raison de la nature écosystémique c-à-d complexe des phénomènes infectiologiques.
- Il résulte du point précédent qu’il est irrationnel d’appliquer une politique de gestion épidémique d’urgence de type préventive c-à-d la stratégie SNP (confinement, distanciation, masques, lavages généralisés). Est rationnelle la stratégie pharmaceutique (SP), qui est réactive.N.B. Aucun manuel d’épidémiologie sérieux ne recommande l’application généralisée de la stratégie SNP. Il n’existe d’ailleurs pas de critère objectif permettant de déterminer un niveau de risque de mortalité au-delà duquel il faudrait appliquer la stratégie SNP, et en-dessous duquel cela ne serait pas nécessaire.
- Dans le cas d’épidémie de virus « nouveau », donc en l’absence de traitement spécifique, il faut utiliser des médicaments non spécifiques (« repositionnement« , médecine de guerre). Dans la mesure où il s’agit là d’un savoir qui doit s’accumuler par la pratique, la réglementation devrait veiller à rendre celle-ci possible.
- Le dépistage est utile mais très coûteux :
- en termes financiers ⇒ il doit être limité aux groupes blancs et noirs (cf. section précédente);
- en termes démocratiques ⇒ son éventuelle obligation doit faire l’objet d’un référendum (organisé en période non épidémique).
- s’il existe des groupes à risque ⇒ dépistage ciblé au sein des seuls groupes à risque noir et blanc ;
- si toute la population est également à risque ⇒ dépistage massivement ⇒ confiner et traiter les seuls positifs.
- Étant donné qu’il suffit qu’augmente le nombre de tests réalisés (par exemple suite à l’annonce de « prévisions » catastrophistes) pour qu’apparaisse une « seconde vague », il résulte de cet effet de recensement que la gestion anti-épidémique doit évidemment être pilotée en fonction du taux de mortalité (toutes causes) par rapport à la population, et surtout pas en fonction du taux d’infections.Prendre en compte l’intelligence collective (juin 2020- 0m52s)
- Enfin concernant la problématique internationale de la gestion épidémique je n’ai à ce jour lu aucun argument scientifique justifiant de façon convaincante la fermeture des frontières. Cela n’est pas très étonnant puisque cette mesure revient in fine à appliquer le confinement aux nations. Il s’agit là encore d’une stratégie de nature politicienne et non pas scientifique.
Analysons maintenant pourquoi dans le cas de covid-19 ces principes évidents et connus depuis des dizaines d’années n’ont pas été appliqués.
covid-19 : analyse d’un délire collectif
https://konfedera.org/gestion-epidemies#covid-19-analyse-delire-collectif
Cette section est composée de deux parties. La première compare vérité médiatique et réalité statistique. La seconde identifie les agents du délire collectif autour de covid-19 ainsi que leurs possibles motivations.
QUOI : Info vs réalité
https://konfedera.org/gestion-epidemies#info-vs-realite
Cette section est composée de trois parties :
Charge hospitalière
https://konfedera.org/gestion-epidemies#charge-hospitaliere
Dans la section #SIR-parametrage-fin-confinement nous avons vu que la charge hospitalière liée à covid-19 a atteint un maximum de 16% en Belgique, pays où le taux de mortalité de covid-19 fut le plus élevé au monde. Les quotidiennes « informations » assénées quotidiennement, selon lesquelles les capacités hospitalières étaient « au bord de la rupture », étaient donc soit biaisées (cas particuliers médiatisés comme fait général) soit tout simplement mensongères (nous analyserons les possibles motivations de ces malversations dans la section #agents-delire-covid19).
covid-19 : hôpitaux débordés … vraiment ? (1m7s – avril 2020)
On notera d’autre part que plus de la moitié des décès ont eu lieu en dehors du milieu hospitalier, en l’occurrence essentiellement dans les maisons de repos ! [source p.10]. Et cela parce que, mis sous pression par le catastrophisme extrêmement agressif des médias « d’information » [exemple], le gouvernement a paniqué et pris la décision absurde d’interdire aux maisons de repos d’hospitaliser leurs résidents quel que soit le problème qu’ils avaient ! source].
Mortalité toutes causes
https://konfedera.org/gestion-epidemies#mortalite-toutes-causes
L’évolution de la mortalité toutes causes montre une régularité cyclique, sous la forme d’une sinusoïdale calquée sur les saisons annuelles. Cette dynamique est due principalement aux variations des propriétés physico-chimiques de température et d’humidité de l’air, qui influencent le métabolisme des organismes vivants ainsi que la propagation des virus et bactéries.
Ainsi dans le graphique suivant la courbe hachurée inférieure montre que la mortalité globale est relativement constante d’une année à l’autre, avec le sommet en début d’année et le creux en milieu d’année. NB : ce ne sont pas les hauteurs maximales de la courbe qui sont déterminantes mais la surface en-dessous, sur des périodes identiques (mortalité « intégrale »). Si l’on prend chaque fois la période commençant vers octobre de l’année précédente on voit que la surface de 2020 est légèrement supérieure à celle de 2018 ou de 2017.
La tendance sur les pics des années 2017 à 2019, étant baissière, suggère que la mortalité en 2020 aurait été inférieure à celle de 2019 s’il n’y avait eu la panique et le confinement général. Cependant on ne peut ici inférer le futur à partir du passé.
Mortalité toutes causes en Europe (janvier 2016 à 29 juin 2020)
Quelle est la cause de ce pic très élevé et très fin de 2020, jamais observé lors des précédentes épidémies ? Et pourquoi est-il observé même chez les adultes de moins de 65 ans ?
Pour tenter de répondre à cette question constatons un premier fait atypique : ce pic n’est observé que dans environ 50% des pays européens ! Deuxièmement il apparaît en même temps (troisième semaine de mars 2020) et juste après la mise en confinement et la recommandation faite par l’OMS de préparer les hôpitaux à des afflux massifs de patients nécessitant une aide respiratoire. Cela suggère donc que c’est le mode de gestion épidémique qui a provoqué le pic, et non pas le virus ! Des faits documentés confirment cette thèse :
- en Belgique, où plus de la moitié des décès ont eu lieu en dehors du milieu hospitalier, en l’occurrence essentiellement dans les maisons de repos [source p.10], celles-ci avaient reçu instruction du gouvernement de ne plus hospitaliser leurs résidents quel que soit le problème qu’ils avaient ! [source];
- plus de 50% de la mortalité covid-19 serait causée par les intubations abusives : « Mortality rates for those who received mechanical ventilation in the 18-to-65 and older-than-65 age groups were 76.4% and 97.2%, respectively. Mortality rates for those in the 18-to-65 and older-than-65 age groups who did not receive mechanical ventilation were 1.98% and 26.6%, respectively » [source].
Étudions maintenant le rapport entre mortalité covid-19 et mortalité toutes causes.
Polypathologies
Abstraction faite des décès causés par la mauvaise gestion épidémique, la plupart des décès des personnes positives à covid-19 sont en réalité causés par des pathologies chroniques (hypertension, diabète, maladies cardiovasculaire, cancers, etc). À nouveau la mortalité est abusivement attribuée au virus alors qu’elle résulte ici de la combinaison de ces affections.
Le tableau suivant montre les dix premières causes de mortalité dans le monde. On constate que la plupart sont très impliquées dans la mortalité attribuée, à tort ou à raison, à covid-19.
Source : OMS.
La létalité de covid-19 est très faible pour des personnes saines : le cas du navire de croisière US Diamond Princess suggère ainsi un taux de létalité (morts/infectés) de seulement 1% pour les personnes âgées en bonne santé [source].
Didier Raoult – premier expert mondial en maladies transmissibles selon le classement expertscape – rappelle qu’il y a une surmortalité saisonnière, que l’on a attribuée à la grippe pendant très longtemps, et qui en réalité représente probablement toutes sortes de mortalités associées à des infections virales y compris leur conséquences [source]. Ainsi près de 30% des cas suspects de covid-19 seraient en réalité des grippes … [source].
Regroupement
statistique
Par conséquent, si tous ces décès sont classés comme comme « décès par covid-19 » – donc y compris ceux qui sont en réalité des « décès avec covid-19 » – il en résulte que le taux de mortalité de covid-19 surestime la réalité, et sera donc revu à la baisse dans les mois à venir. Il est donc possible que les statistiques de mortalité globale de 2020 seront caractérisées par un nombre anormalement bas de décès causés par le diabète, les crises cardiaques, les cancers, etc, qui auront été classés comme « décès par coronavirus » plutôt que « décès avec coronavirus ».
Méthodes
de calcul
La source du graphique de mortalité toutes-causes en Europe supra est euromomo.eu, une agence nationale danoise, qui centralise les données en provennce d’agences nationales d’autres pays européens [liste des partenaires]. Cependant la comparaison des graphiques pour la France montre que la « méthode de calcul » utilisée peut donner une image très différente, du moins pour l’année 2020 … (NB : il faut comparer la surface en-dessous de la courbe sur des périodes de mêmes longueur et dates : notion de mortalité intégrale).
Mortalité toutes causes en France (janvier 2016 à juin 2020) selon la source
Sources : euromomo.eu – insee.fr
Il faut alors se poser des questions sur la validité du graphique supra concernant la mortalité toute cause sur l’ensemble de l’Europe : comment se fait-il que le maximum relatif de 2020 pour l’Europe montre un maximum relatif si proche de celui de la France (pays avec une des plus fortes mortalités en 2020) alors que – comme nous allons le voir dans la section suivante – la moitié des pays européens n’ont pas de surplus de mortalité en 2020 … ?
Différences entre pays
https://konfedera.org/gestion-epidemies#mortalite-differences-entre-pays
Faits
Il est extrêmement étonnant de constater qu’aucun pic notable de mortalité n’a été constaté durant la « pandémie de covid-19 dans près de la moitié des pays européens, alors qu’au même moment on observait un pic historique dans les autres pays … [source] :
- pas de pic notable : Allemagne, Autriche, Danemark, Finlande, Grèce, Hongrie, Norvège, Portugal;
- pic historique : Angleterre, Belgique, Espagne, France, Hollande, Italie, Suède, Suisse.
Ce fait suggère que la cause de cette dichotomie ne serait pas naturelle mais liée à la gestion de l’épidémie.
Causes
Les maladies transmissibles constituent un phénomène d’écosystème, c-à-d extrêmement complexe (grands nombre de facteurs, relations non linéaires, effets de rétroaction, etc) qui peuvent expliquer que dans deux pays voisins une même pandémie pourra avoir des effets très différents. Parmi ces facteurs de différenciation il y a probablement :
- la capacité hospitalière, l’intuition suggérant une corrélation négative avec le taux de mortalité;
- la densité de population, l’intuition suggérant une corrélation positive avec le taux de mortalité;
- les pratiques culturelles;
- les particularités régionales aléatoires, comme par exemple les nombreuses affections respiratoires chroniques en Chine en raison de la pollution atmosphérique, ou encore en Iran suite aux intoxications chimiques durant la guerre contre l’Irak;
- le type de stratégie anti-épidémique appliquée et son intensité; …
Par conséquent lorsque l’on étudie les causes de différences d’incidence d’une même pandémie entre pays, il faut pouvoir déterminer la part de chacun des ces facteurs. Dans les cinq ci-dessus la dernière a une particularité importante qui la distingue des autres : elle peut être changée du jour au lendemain.
Capacité
et densité
Sur base des statistiques de mortalité covid-19 actuelles l’analyse statistique ne révèle pas de corrélation significative, ni avec le taux de lits de soins intensifs, ni avec la densité de la population [source]. Ces résultats contre-intuitifs sont-ils observés chaque année (une possible explication étant la nature multifactorielle des maladies transmissibles) ou bien sont-ils une exception ?
Pratiques
culturelles
Une différence dans la consommation d’un aliment particulier peut avoir pour effet que telle substance se retrouvant dans les organismes en quantités moyennes très différentes entre deux pays pourra avoir pour effet des sensibilités différentes par rapport à un virus ou une bactérie. D’autres habitudes culturelles comme le fait de cracher par terre peuvent se traduire par une propagation plus rapide d’un agent pathogène. Et l’on peut probablement trouver d’autres exemples presque à l’infini …
Stratégie
nationale
Notre analyse statistique (dont la taille de l’échantillon doit être élargie) suggère une certaine corrélation positive entre taux de mortalité et stratégie SNP (mesurées en degrés de confinement) : les pays ayant appliqué une stratégie de confinement fort (degré 3/3) – c-à-d le confinement général – ont généralement un taux de mortalité supérieur à celui observé dans les pays ayant appliqué un confinement faible (degré 1/3) – c-à-d le confinement ciblé sur les seuls groupes à risque.
Mortalité vs stratégie SNP (confinement)
Les données du graphique proviennent du tableau ci-dessous : les carrés représentent les pays de la colonne A, les valeurs d’abscisse correspondent à la colonne B, et les valeurs d’ordonnée à la colonne E.
Mortalité vs stratégies
SNP : stratégie non pharmaceutique (confinement)
1 : confin. faible – 2 : confin. moyen – 3 : confin. fort
SNP : stratégie pharmaceutique (dépistage & traiter)
Source
Le cas de la Suède est très intéressant : bien que faisant partie du groupe 2 (SNP), son taux de mortalité est relativement élevé, ce qui pourrait s’expliquer par le fait que le taux de dépistage (stratégie SP) dans ce pays est très bas. La Belgique est un autre cas intéressant : ce pays, dont le taux de mortalité attribué à covid-19 est le plus élevé, est passé de SP(1) à SP(2) durant le mois d’avril.
Cependant on ne distingue pas de corrélation notable entre taux de mortalité et stratégie SP (dont l’intensité est mesurée en nombre de tests par 1000 hab.). Cela avoir deux causes possibles : (i) le nombre encore limité de pays repris dans le tableau (nous allons l’augmenter) ; (ii) le nombre de test est un moins bon indicateur de la stratégie SP que le degré de liberté des médecins d’appliquer des traitements non spécifiques.
Mortalité vs stratégie SP (dépister & traiter)
Pour illustrer la thèse d’une corrélation positive de la stratégie SNP, et négative de la stratégie SP relativement au taux de mortalité, nous utilisons l’indice combiné niveau de confinement – niveau de nombre de tests (⇒ échelle de 1-3=-2 à 3-1=2). Nous trouvons effectivement une corrélation positive, mais faible (< 0,5).
Ainsi, confrontés à un virus nouveau les pays dont la législation médicale est très restrictive en matière d’autorisation de médicaments (interdiction d’utiliser des médicaments non spécifiques même pour traiter un virus nouveau) auront par conséquent un faible niveau de SP (et donc une valeur relative élevée pour le paramètre λ du modèle SIR). Le gouvernement peut alors être tenté de compenser par un fort niveau de SNP, ce qui a théoriquement pour effet d’abaisser la valeur du paramètre β, mais selon nous d’augmenter la mortalité en raison d’une part de l’inefficience pratique du confinement général (cf. supra #efficacite-strategie-non-pharma), et d’autre part de ses effets pervers (cf. supra #effets-pervers-strategie-non-pharma).
Mortalité vs stratégie SNP(+) + SP(-) (dépister & traiter)
Covid-19 : Les mensonges de l’OMS (Prof. Denis Rancourt) (38 min. – 2020)
Nous sommes arrivés ici à la fin de l’analyse statistique du phénomène covid-19, qui confirme la thèse selon laquelle c’est la panique et le confinement général, et non le virus, qui constitueraient la cause essentielle de surmortalité (modérée) de covid-19 dans certains pays. L’analyse statistique permet de mesurer rationnellement un phénomène et d’ainsi corriger nos perceptions, qui sont très influencées par les médias de masse. Ce qui nous conduit à la section suivante …
Agents du délire collectifs
https://konfedera.org/gestion-epidemies#agents-delire-covid19
Nous allons ici montrer que le délire collectif autour de covid-19 fut une parfaite illustration :
- de ce que les phénomènes sociaux sont généralement multifactoriels ;
- d’un effet « boule de neige », c-à-d cumulatif, par lequel les facteurs originels en induisent d’autres, qui renforcent les premiers par boucle de rétroaction.
Nous allons analyser les agents de ces phénomènes en distinguant agents sources (la vague) et agents induits (les surfeurs, qui ont pour effet d’amplifier la vague) :
- agents sources :
- entreprises « d’information »;
- atlantisme anti-chinois;
- « surfeurs » :
- scientifiques de plateaux TV;
- personnel médical;
- gouvernements.
Entreprises « d’information »
https://konfedera.org/gestion-epidemies#catastrophisme-mediatique
La concurrence que représentent les médias sociaux pour les entreprises « d’information » incite ces entreprises à toujours plus de catastrophisme (« biased news ») afin de doper l’audimat et partant les revenus publicitaires. Ainsi dans le cas de l’épidémie covid-19 ces médias « professionnels » ont annihilé chez les infos-dépendants toute capacité d’analyse des faits statistiques, en les matraquant de messages catastrophistes focalisant sur des cas particuliers (exemple) mais en passant sous silence le fait que chaque année on observe de tels cas dits « atypiques » rien qu’avec la grippe saisonnière.
Les médias ont également dénigré des informations contrecarrant le très rémunérateur catastrophisme (audimat = revenus publicitaires). Ainsi le journal Le Monde a accusé Didier Raoult – premier expert mondial en matière de maladies transmissibles – d’avoir propagé des « fake news » dans sa vidéo annonçant la disponibilité d’un traitement de l’infection à covid-19 [source] !
covid-19 : hyper-hystérisation (8m03s – 2020)
Voici le témoignage surjoué de Christine Borowiak, une journaliste de la RTBF (télévision publique belge) qui s’est rendue à l’hôpital pour des symptômes grippaux. Seule différence, le nom de cette maladie est covid-19.
Atlantisme anti-chinois
https://konfedera.org/gestion-epidemies#atlantisme-anti-chinois
Une autre force de fond, et tout aussi manifeste, fut le biais anti-chinois des entreprises « d’information » occidentales (pudiquement dénommée « presse »). Les parts de marchés gagnées par la Chine dans le commerce international depuis le début des années 2000 poussent les pays occidentaux à abandonner le principe de libre échange. Ce points sera développé plus loin (#contexte-economique). Nous allons ici nous concentrer sur la réaction du gouvernement chinois face à cette campagne médiatique, alors que la Chine fut la source de l’épidémie de covid-19.
Il suffit de suivre la presse chinoise (peopledaily.com.cn, news.cn, scmp.com) pour constater que le gouvernement chinois est extrêmement sensible à son image internationale. Selon notre analyse, s’inspirant de la technique du judo (exploiter l’attaque – ici médiatique – de l’adversaire), le gouvernement chinois a ainsi surfé sur la vague médiatique (voire même l’aurait amplifiée) pour positionner la Chine en champion de la gestion des épidémies, une fois la « bataille » gagnée « avec brio », et d’autant plus facilement que l’épidémie n’avait rien d’exceptionnelle. Ainsi le confinement général de l’agglomération de Wuhan (foyer de l’épidémie) – visuellement très spectaculaire – n’avait aucune nécessité de santé publique, mais fut motivé par des raisons d’image du gouvernement chinois dans l’opinion publique étrangère, et aussi semble-t-il pour des raisons de politique intérieure, liées aux relations entre pouvoir central et régions.
Scientifiques de plateau TV
https://konfedera.org/gestion-epidemies#scientifiques-de-plateaux-TV
Les entreprises « d’information » n’ont aucune peine à attirer sur leur plateau ou dans leurs colonnes des scientifiques considérant être injustement méconnus, et espérant que la fréquentation des plateaux de télévision et les contributions dans les colonnes de la presse écrite, leur permettra – en alimentant le catastrophisme – d’enfin briller sous les spotlights. Il existe d’ailleurs dans le jargon des médias « d’information » professionnels un terme pour dénommer ces experts : des « bons clients » [exemples pour la Belgique].
Spectacle médiatique. Le temps d’antenne et l’espace rédactionnel sont limités par de fortes contraintes liées à l’audimat et aux proportionnels revenus publicitaires. Il en résulte que le discours de ces scientifiques est simplifié à outrance, ce qui facilite son détournement en « biased news » à des fins économiques ou politiques.
Incompétents ou
charlatans ?
À la question « s’agit-il d’incompétence ou de compromission ? » on pourrait être tenté de répondre qu’il s’agit de compromission étant donné le haut niveau de formation de ces scientifiques. Cependant il ne faut pas sous-estimer la possibilité d’une gigantesque incompétence chez certains scientifiques spécialisés dès qu’ils sortent de leur domaine de compétence. Ainsi un sommet d’absurdité fut atteint en Belgique par le très médiatisé Marc Van Ranst, professeur à la Katholieke Universiteit Leuven lorsqu’il s’est exprimé en faveur, si nécessaire, d’un confinement « à la Wuhan » (foyer de l’épidémie en Chine) c-à-d d’un couvre-feux (!) national [source]. Ce faisant le virologue oublie (i) que grâce aux cellules locales du Parti Communiste – dont il n’existe aucune organisation équivalente en Europe – les habitants de toute la province du Hubei étaient dépistés et ravitaillés (nourriture et médicaments) [source], (ii) que cette province était approvisionnée par les provinces chinoises environnantes, ce qui ne pourrait être le cas en Europe, vu l’absence flagrante de solidarité et de coordination au sein de l’UE. C’est donc à un effondrement de la société belge qu’aurait conduit une telle mesure. Comment se fait-il qu’après avoir énoncé de telles inepties ce scientifique ait pu conserver la moindre crédibilité ?
Personnel médical
https://konfedera.org/gestion-epidemies#delire-collectif-soignants »
La politique « libérale » de l’UE a pour effet d’asphyxier les entreprises publiques du service public en réduisant progressivement leur financement public. Il en résulte des conditions de travail de plus en plus difficiles pour le personnel médical ⇒ dégradation de la qualité des services ⇒ les citoyens sont ainsi poussés vers des entreprises privées plus chères [ France : L’hôpital public au bord de la crise de nerfs (avril 2018) ; Belgique : Hôpitaux publics bruxellois: le ras-le-bol des blouses blanches (juin 2019) ]. Dans le contexte catastrophiste de covid-19, certains médecins et infirmières ont pu amplifier l’effet boule de neige en cédant à la panique (crainte de surcharge au pic de l’épidémie) ou en exagérant leur situation pour revendiquer plus de moyens financiers pour les hôpitaux.
covid-19 : hôpitaux débordés … vraiment ? (1m7s – avril 2020)
Gouvernements
https://konfedera.org/gestion-epidemies#delire-collectif-gouvernements »
Une fois mis au pied du mur par l’hystérie médiatique, la plupart des gouvernements s’y soumettent. Peut être certains décideurs politiques (ou leurs « sponsors » …) ont-ils aussi vu dans l’hystérie collective une opportunité pour faire avancer des mesures controversées (protectionnisme, politique anti-immigration, vaccination obligatoire, traçage de nos relations, …) ?
Quoi qu’il en soit la méthode utilisée – consistant à terroriser la population (et de façon très hypocrite, comme le montre l’extrait vidéo ci-dessous) – est inacceptable.
Comment un gouvernement terrorise la population (1m07s – mars 2020)
Chaque jour à 11 heures le gouvernement belge organisait une conférence de presse, présentée par des scientifiques, et consistant essentiellement (i) à mentionner le nombre de nouveaux décès ; et (ii) à répéter inlassablement les mêmes instructions. Or citer chaque jour le nombre de nouveaux décès sans les placer en perspective (notamment par rapport au nombre quotidien de victimes de la grippe saisonnière) n’a aucune valeur informative, et ne peut avoir pour effet que de terroriser la population.
Des pratiques telles que celle illustrée par la vidéo ci-dessus mettent gravement en question la crédibilité des gouvernements et de la communauté scientifique (le monsieur qui parle dans la vidéo ci-dessus est un scientifique qui fut ultra-médiatisé par la presse belge, et d’une façon qui n’est pas sans rappeler la création de « héros nationaux » par les régimes totalitaires : exemple). Leur volonté manifeste d’attiser la peur par des effets de focalisation pose une question légitime : quelles autres pratiques manipulatoires les gouvernements sont-ils prêt à appliquer pour convaincre la population d’accepter, par exemple, le traçage de leurs relations privées ? Ainsi parmi ces autres mesures il y a-t-il la modification de statistiques « pour le bien de la population » ?
- Un autre exemple flagrant de manipulation sémantique apparaît dans les articles de presse évoquant le traçage « des malades » plutôt que celui « des citoyens » en général [vérifier]. Or par définition le traçage ne se limite pas qu’aux malades car si ceux-ci étaient identifiables en tant que tels le traçage ne serait plus nécessaire.
- Les manipulations de l’opinion publique par des scientifiques « respectables et bien-pensants » existent dans d’autres domaines que l’épidémiologie, comme en témoigne cet exemple dans le domaine de l’écologie.
Contexte économique
https://konfedera.org/gestion-epidemies#contexte-economique
Diverses forces économiques ou idéologiques ont pu jouer un rôle substantiel dans le phénomène de surmédiatisation catastrophiste de covid-19.
Concurrence chinoise
Depuis 2015 la Chine est la première puissance économique mondiale en terme de PIB mesuré en PPA [source]. Il suffit d’observer les messages anti-chinois propagés par les entreprises « d’information » occidentales pour constater que cette concurrence déplaît fortement aux classes dirigeantes des pays atlantistes. Alors que jusqu’au début des années 2000 le libre-échange international était la pierre angulaire de l’idéologie atlantiste, on assiste à un rétro-pédalage intégral de la part des pays atlantistes depuis que cette logique se retourne contre eux. Pour « justifier » ce retournement de veste, la prégnance du réchauffement climatique et le risque épidémique ont manifestement été amplifiés par les entreprises « d’information » occidentales ainsi que par les dites « organisations non gouvernementales ».
Sur l’exploitation médiatique du réchauffement climatique : allocation-universelle.net/developpement-durable#rechauffement-climatique.
Mondialisation ? La modification actuelle des rapports de forces commerciales ne doit pas être confondue avec la mondialisation des échanges, qui est un phénomène ancien. Le transport maritime intercontinental est florissant depuis plusieurs siècles, et le transport intercontinental par avion existe depuis huit décennies [source]. Par conséquent il est faux d’affirmer qu’il y aurait depuis quelques années une augmentation de la propagation des épidémies en raison de la mondialisation. Les épidémies ne sont ni plus nombreuses ni plus virulentes. Par contre leur suivi statistique et la médiatisation de ce suivi ont augmenté exponentiellement depuis les années 1990 (début d’Internet grand public), avec tous les biais de mesures et d’interprétations qu’illustre le phénomène sociologique covid-19 (cf. supra #suivi-temps-reel).
Big Data & Pharma Inc.
https://konfedera.org/gestion-epidemies#big-pharma-data
En suscitant une paranoïa collective la décision d’imposer le confinement général a fortement stimulé le marché des vaccins ainsi que celui du big data (le traçage des individus est une source de revenus gigantesques pour les entreprises qui collecteront et revendront ces données). Le « LancetGate » illustre parfaitement les dérives auxquelles peut conduire l’appât du gain.
LancetGate
Surgisphère est une société de Big Data dont les données mensongères ont été utilisées pour produire (en mai 2020) deux articles scientifiques discréditant l’hydroxychloroquine comme traitement de covid-19 [article-1, article-2]. Parmi les auteurs de ces deux articles figurent Sapan S. Desai, fondateur de Surgisphère, et Mandeep Mehra, qui avait collaboré avec la société pharmaceutique Gilead Science. Mehra a menti en déclarant n’avoir pas de conflits d’intérêts : en avril 2020 il avait participé à une conférence sponsorisée par Gilead et concernant Covid-19 [source]. Des conflits d’intérêt entre Mehra et des entreprises pharmaceutiques, dont Gilead et Bayer, avaient été mentionnés en 2013 [source]. Malgré le caractère évident des fraudes (cf. vidéo ci-dessous) les deux articles de mai 2020 furent publiés dans des revues scientifiques réputées : The Lancet pour le premier article et New England Journal of Medicine pour le second. Ces revues furent contraintes de se rétracter [rétractation-1, rétractation-2].
Commentaires de Didier Raoult sur le « LancetGate » (15m26s – 2 juin 2020)
Fin juin 2020 l’Agence européenne des médicaments (EMA) publia un avis recommandant l’autorisation du Remdesivir, un médicament concurrent de la Chloroquine (et beaucoup, beaucoup plus cher) produit par … Gilead [source] ! En avril 2020, la même EMA avait publié un avis défavorable à la Chloroquine [source], alors que sur la seule année 2019 trente six millions de comprimés de ce médicaments avaient été consommés dans le monde, sans ordonnance [source] !
De nombreux chercheurs du secteur médical sont intoxiqués par des sources d’informations « scientifiques » formatées et conditionnées par l’industrie pharmaceutique, et ont en outre des conflits d’intérêt avec elle.
Enfin on notera à quel point la gestion de covid-19 par de nombreux appareils d’État (gouvernement, scientifiques de plateaux TV, presse, …) est cohérente dans la combinaison de ses effets favorables au business pharmaceutique :
- « nouvelle normalité » de « l’ennemi invisible et omniprésent » (terreur médiatique) ⇒ distanciation et stress ⇒ inhibition permanente du système immunitaire des individus ⇒ élargissement du marché des vaccins, dans le temps et l’espace;
- dénigrement voir interdiction des médicaments non spécifiques ⇐ qui accepterait de se faire vacciner si un traitement peu coûteux est disponible … ?
Data
business
Le potentiel financier et politique du « Big data » est tel (il concerne la quasi totalité des secteurs économiques) que de très fortes pressions ont pu être exercées sur les décideurs politiques afin que ceux-ci profitent de la vague médiatique catastrophiste de covid-19 pour amener les populations à accepter le traçage de leur vie privée. On notera à cet égard le fait pour le moins surprenant que dans de nombreux pays le « déconfinement » (sic) à été conditionnalisé à l’application du traçage [exemple] !
Il apparaît que la plupart des citoyens ne participent pas spontanément au traçage. Il est donc plus que probable que celui-ci sera imposé aux populations de façon plus insidieuse. Ainsi dès le mois de juin 2020, alors que l’épidémie était déjà quasiment éteinte, l’accès à des services publics (dont des piscines) fut converti – en un temps record – à la réservation préalable par Internet, en sous-traitant la gestion du système à des entreprises privées (par exemple qweekle.com). Pour réserver il faut obligatoirement mentionner un numéro de téléphone en plus de l’adresse email. Quant à ceux qui n’ont pas accès à Internet, tant pis pour eux (mais de toute façon ils n’intéressent pas les entreprises du data business).
Idem pour le traçage (!), avec des sociétés telles que devside.com, en dehors de véritable démocratique et dans le silence assourdissant du pouvoir judiciaire.
Dans tous ces cas, comment les procédures d’appel d’offre ont-elles pu être appliquées correctement dans un délai aussi court … ?
Extrémisme vert
Décroissants. L’extrémisme vert commence-t-il à prendre des proportions inquiétantes, notamment dans le milieu des universités ? Depuis quelques années une dangereuse idéologie, issue notamment de la théorie des jeux, est en train de se développer dans le milieu scientifique, selon laquelle il serait rationnel d’imposer la supposée « vérité scientifique » par la contrainte (psychique ou physique) plutôt que par le seul partage du savoir. Se pourrait-il que des scientifiques enfermés dans leurs convictions se soient convaincus de la nécessité de tromper l’opinion publique au nom de la décroissance ? J’invite le lecteur qui croirait que j’exagère à lire ce cas que j’ai personnellement constaté … et documenté.
PIB jusqu’au premier trimestre 2020
Problématique politique
https://konfedera.org/gestion-epidemies#problematique-politique
Pour exposer cette problématique il faut considérer deux cas de figures correspondant chacun à l’une des deux stratégies théoriques SNP et SP (cf. supra #SIR-strategies) :
- SP : le gouvernement reconnaît le fait que les modèles épidémiologiques ne peuvent prévenir l’avenir d’une épidémie ⇒ la capacité hospitalière est régulièrement adaptée à l’évolution observée de la demande de services de soins hospitaliers, en termes qualitatifs (« quels services ») et quantitatifs (« en quelles quantités »)
- ⇒ selon le budget alloué aux soins de santé et la qualité de leur gestion il y a dans certains pays une surcapacité durant toute l’année, alors que dans les autres pays on observe régulièrement des périodes (généralement assez courtes) durant lesquelles la capacité est dépassée, ce qui se traduit par une surmortalité.
- SNP : le gouvernement croit dans la capacité (i) des modèles épidémiologiques à anticiper l’évolution d’une épidémie, et (ii) de la stratégie SNP (confinement, distanciation, masques, lavages) à abaisser et reculer le sommet de l’épidémie ⇒ cette stratégie sera appliquée à chaque fois que l’on découvrira des virus « nouveaux » et aussi longtemps qu’il n’y aura pas de médicament ou vaccin efficace ⇒
- au niveau santé publique : le gouvernement pourra « justifier » la suppression de la surcapacité hospitalière, ce qui se traduira par de très fréquentes surcharges dès lors que les hypothèses i et ii sont erronées et que les effets pervers du confinement sont avérés ;
- au niveau politique : régression vers un régime totalitaire;
- au niveau économique : baisse de la production & consommation.
Éthique et
démocratie
Les forces extrêmement puissantes qui en 2020 ont réussi à imposer la stratégie SNP s’appuyaient sur un argument implicite qu’on pourrait qualifier de « zéro mortalité épidémique » et qui s’oppose au principe (lui aussi implicite) qui était la norme avant 2020, à savoir un « nombre tolérable de victimes« . Celui-ci peut à priori paraître scandaleux ou auto-destructeur, et pourtant nous l’appliquons en n’interdisant pas le transport routier (PS : les accidents de la route constituent une des dix premières causes de mortalité).
D’autre part la stratégie SNP risque fort d’être appliquée en permanence. Il y a en effet une vingtaine de virus associés aux seules infections respiratoires qui circulent dans le monde [source], causant tous des victimes. En outre le nombre des virus par continent augmente en raison de la mondialisation, et le nombre des virus connus augmente avec le progrès scientifique [source]. D’autre part des infections peuvent se transmettre pendant plusieurs dizaines d’années, avant de s’atténuer et de disparaître [source].
Fusion
écologisme
libéralisme
Les écologistes radicaux pourraient voir dans le totalitarisme SNP un moyen d’imposer la décroissance aux populations. D’autre part on pourrait assister en occident à une fusion idéologique entre écologisme et libéralisme atlantistes dès lors que pour celui-ci la décroissance serait le prix à payer pour neutraliser la Chine.
Notons également le rôle joué par l’Union européenne, qui depuis trente ans, lentement mais sûrement, étrangle les services publics et les entreprises publiques du secteur médical, ce qui a pour effet d’en dégrader la qualité des services, et d’ainsi pousser les patients (du moins les plus aisés …) et le personnel médical vers des entreprises privées [approfondir].
Conclusion
https://konfedera.org/gestion-epidemies#conclusion
Hystérie
collective
Malgré que covid-19 fut précédé d’autres pandémies de virus nouveaux (grippes aviaires, H1N1, SARS, MERS, Ebola, chikungunya, Zika, …) dont nous savons que leurs surmédiatisations catastrophistes n’était pas fondées, il semble que nous sommes incapables d’apprendre les leçons du passé, y compris de nombreux scientifiques. Avec covid-19 une barre a été franchie : le confinement général et le port obligatoire du masque sont le signe que les modèles-jouets nous ont fait perdre confiance dans la nature c-à-d dans la vie.
Étant donné que (i) la pandémie de covid-19 n’a, au niveau modial, rien de particulier par rapport aux précédentes pandémies de virus « nouveaux » ; et (ii) que l’on « découvre » régulièrement de « nouveaux » virus (suite au progrès scientifique), il en résulte logiquement que si les populations ne se révoltent pas contre le confinement général, celui-ci deviendra la norme. Or nous avons montré qu’en appliquant le confinement général on ne neutralise pas une pandémie, mais on massacre la démocratie, la santé psychique de la population et le développement économique.
Info &
savoir
Business de « l’info ». Le délire collectif covid-19 qui a submergé la planète illustre la puissance aussi phénoménale que délétère des médias « d’information ». S’agit-il d’une forme de coup d’État version 21° siècle, ou du dernier soubresaut d’un pouvoir médiatique contesté par les réseaux sociaux c-à-d par la démocratie ?
Médias vs réseaux sociaux : qui dit la vérité (1m05s – 2020)
Le conférencier est Didier Raoult, le premier expert mondial dans le domaine des maladies transmissibles.
On notera, dans le chef des journalistes, un comportement d’inversion accusatoire consistant à accuser « les réseaux sociaux » de propager des « fake news ». Or si cela est certes exact il reste à démontrer que globalement ces réseaux nuiraient à la qualité de l’information. Or de récentes recherches scientifiques sur l’intelligence collective suggèrent plutôt le contraire [approfondir].
Opportunisme médical. On notera également le rôle néfaste joué par une partie du personnel médical qui, cédant à la panique (crainte de surcharge au pic de l’épidémie) et/ou pour revendiquer plus de moyens financiers pour les hôpitaux, a exagéré la gravité de la situation : #delire-collectif-soignants.
Modèles épidémiologiques. Nous avons d’autre part démontré la réalité du charlatanisme de l’épidémiologie mathématique et l’ampleur des force « tectoniques » qui sont en train de nous mener vers le totalitarisme, par le biais d’une déconnexion totale du business de « l’info » et du « savoir » par rapport à la réalité.
Totalitarisme
sanitaire
Le délire médiatique autour de COVID-19 nous rappelle qu’aucun citoyen ne devrait renoncer à sa capacité de jugement (le bon sens populaire), quel que soit le domaine. Il ne faut pas abandonner le pouvoir aux scientifiques de plateau TV. La science doit convaincre et non pas contraindre.
La contrainte – fondée ici sur le chantage au supposé risque porté à autrui (« tu obéis et tu te tais sinon je t’accuse d’être un meurtrier potentiel ») – est très probablement le résultat de la corruption de décideurs politiques par le « lobbying » du business pharmaceutique (vaccins obligatoires) et du « big data » (traçage), comme montré et documenté dans la section #big-pharma-data;
Démocratie
directe
Les faits exposés dans cet article confirment la nécessité d’une prise de contrôle démocratique des moyens de production de l’information et du savoir. Cette évolution devrait selon nous se réaliser en parallèle avec la création d’une Confédération mondiale de démocraties directes souveraines. Nous avons montré dans d’autres publications que ces démocratie du 21° siècle ne pourront exister qu’en faisant du statut de grande entreprise (dont les banques et les entreprises « d’information ») un monopole public, et en gérant ces entreprises publiques sous statut de coopératives publiques.
Toute démarché collective étant la somme d’actions individuelles il importe que chacun prenne conscience de la nuisibilité de l’info-dépendance et de la nécessité absolue de détruire la TV et de résilier son abonnement.(34)Sélectionner une langue▼
Infos
Une publication de François Jortay
⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.