Quand la science devient pseudo-science

20/08/2024 (2022-09-25)

[Source : strategika.fr]

Urmie Ray est mathématicienne, diplômée de l’université de Cambridge. Elle a eu une carrière de 25 ans en tant que qu’universitaire, entre autres, à l’Institut des Hautes Études Scientifiques, à l’Institut Max Planck pour les mathématiques, au Centre de Recerca Matemàtica, à l’université de Californie à Santa Cruz. Elle a ensuite démissionné de son poste de professeur des universités en France pour se consacrer à l’étude de questions culturelles et historiques. Elle est l’auteur de plusieurs articles et son dernier livre s’intitule “On Science:  Concepts, Cultures, and Limits” (Routledge 2021).

[Voir aussi, avec Urmi Ray :
Dr. Andrew Kaufman – La théorie virale mise à mal
L’effondrement de l’hypothèse virale
Dr Valentina Kiseleva  Le virus et autres mythes]

Par Urmi Ray (Basé sur mon livre : « On Science :  Concepts, Cultures, and Limits » – Routledge 2021)

1.  Qu’est-ce que la science ?

Une grande confusion règne sur ce qu’est ou plutôt n’est pas la science.  Donc commençons par discuter de ce qu’est la science.

Comprendre la réalité dans laquelle on vit

Pour survivre, il est essentiel de comprendre la réalité physique dans laquelle nous vivons.  Donc dès ses débuts, partout dans le monde, notre espèce a tenté de s’en faire une idée.

Comprendre signifie pouvoir décrire, expliquer et prédire. Une description tend à répondre à la question “comment ?” et peut prendre la forme d’une formulation mathématique, mais c’est loin d’être nécessaire.   Une explication tend à répondre modestement à la question beaucoup plus difficile du “pourquoi ?”.  Ces trois aspects sont étroitement liés.  La qualité des prédictions dépend de la qualité des descriptions et des explications.  Et inversement, plus une description est de qualité, plus elle mènera à des explications et des prédictions de qualité.

La différence entre une approche scientifique et une approche religieuse réside essentiellement dans la nature des explications.  Il est probable que très rapidement nos ancêtres ou au bon vouloir d’un Dieu, ne permettait pas trop de prévoir, et donc de se prémunir contre les aléas du climat.  Parallèlement, la domestication croissante du feu va de pair avec une compréhension de plus en plus grande de ce phénomène.

Donc, il y a bien longtemps qu’une approche du monde qu’on perçoit à travers nos sens et notre esprit s’est distinguée d’autres approches.  Il fallait que la connaissance obtenue soit communicable à d’autres, pour qu’ils puissent eux aussi vérifier, notamment pour pouvoir prédire aussi systématiquement que possible. 

Je conçois que certains soient convaincus de la force de la prière, mais la connaissance spirituelle, même si elle est basée sur des expériences, celles-ci restent personnelles et non-communicables.

Donc l’approche qui s’est peu à peu développée en ce qu’on appelle depuis le 19e siècle la science est fondée sur deux outils : l’observation et le raisonnement.
Mais comme nos premières écoles de philosophie naturelle se sont rendues compte bien avant l’ère chrétienne, la question de la fiabilité est au coeur de cette approche.  À quel point notre interprétation correspond-elle à la réalité physique donnée ?

Observation reproductible

Une observation qui reste limitée peut ne pas être fiable.  Par exemple, ce n’est pas parce tous les cygnes qu’on observerait sont blancs, qu’on peut en conclure qu’ils sont tous blancs.  Il y a des cygnes noirs. Donc l’observation doit être reproductible à volonté, en particulier pour être vérifiable.

En conséquence, le domaine d’investigations scientifiques est limité aux caractéristiques descriptibles, c’est à dire qu’on puisse comparer.  Les concepts absolus tels que la chaleur ou la hauteur font certainement partie de notre expérience de la vie.  Mais ils n’ont pas leur place en science.  Car il n’existe aucun moyen de vérifier comment deux individus différents les perçoivent.   Ce qui peut être communiqué et convenu, c’est qu’un objet est plus chaud ou plus froid, plus grand ou plus petit qu’un autre. En d’autres termes, seuls les attributs qui peuvent être comparés à une référence externe peuvent faire l’objet d’un examen scientifique.   Donc les concepts absolus tels que Dieu sont hors limites car ils ne peuvent pas être décrits par la comparaison.

C’est aussi là que réside le problème avec la physique Newtonienne.  Elle est fondée sur une notion du temps et de l’espace qui est absolue.  D’ailleurs Newton en était conscient.  Mais c’est le physicien Ernst Mach qui a le premier vraiment compris la signification de cette lacune à la fin du 19ème siècle.  C’est notamment basé sur ses travaux qu’Albert Einstein en est venu à sa théorie de la relativité.

Ajoutons une remarque importante : il ne suffit pas de connaître les propriétés intrinsèques d’un phénomène.  Il faut aussi se faire une idée de ses interactions avec l’environnement.  D’où la nécessité de l’étudier à la fois isolément dans un laboratoire et dans dans son environnement naturel, dans le temps et dans l’espace. Certains effets et leur portée peuvent ne pas être immédiatement perceptibles.

Raisonnement

Par ailleurs, si nous restons liés à notre expérience immédiate limitée, il faudrait sans cesse collecter des faits et on ne pourrait prédire. Donc la science vise à obtenir des descriptions et des explications unifiées de phénomènes disparates. 

Le raisonnement est ce qui nous permet de ne pas rester liés à ce processus d’essais et d’erreurs constants.

Il doit lui aussi être communicable.  Donc il doit être basé sur des méthodes consensuelles qui ont varié au cours du temps ou même d’école à école.

Concepts

Trouver des explications unifiant divers phénomènes nous oblige à fonder nos théories sur des concepts – forces, atomes, gènes, etc.  Nous n’avons aucun moyen de déterminer s’il s’agit de caractéristiques de notre réalité ou s’il s’agit de constructions de l’esprit humain pour rendre compte d’expériences communes à nous tous. Ils sont indéfinissables scientifiquement, sauf en utilisant d’autres concepts.  Cependant, et c’est fondamental, la pertinence des concepts doit être confirmée par des effets qu’on peut percevoir et décrire.  Ils doivent être remplacés par des concepts plus appropriés si l’observation et le raisonnement l’exigent.

En résumé

La science est l’étude raisonnée basée sur l’observation reproductible et suffisamment reproduite de propriétés descriptibles par comparaison du monde perceptible et des effets perceptibles attribués aux concepts évolutifs et changeants ainsi déduits – une étude qui englobe les interactions avec l’environnement naturel.

Nous avons tous un esprit scientifique.  La différence entre une approche scientifique et une approche usuelle est une différence de degré plutôt que de nature. Elle apporte précision et systématisation là où elles faisaient défaut. Par exemple, on a tous une idée de la différence entre fruits et  légumes, basée sur de vagues raisons et de vagues comparaison, parfois culturelles. La définition scientifique d’un fruit est celle d’un organe qui contient des graines, qui les protège lors de leur développement et aide à leur dispersion. Par conséquent, les tomates et les concombres sont des fruits, contrairement à l’idée reçue selon laquelle ce sont des légumes.

En d’autres termes, la science précise les similitudes et les différences entre des objets comparables en poussant l’observation au-delà du superficiel.  Ainsi les ambiguïtés sont réduites.

Il est essentiel d’insister sur le fait que nos conclusions ne peuvent être des déductions fantaisistes et inexpliquées.  Elles ne peuvent être considérées comme scientifiques tant qu’elles ne sont pas étayées par des arguments raisonnés. L’obtention de résultats satisfaisants pourrait être une pure coïncidence. À l’inverse, un raisonnement qui ne repose pas sur des bases empiriques solides n’est pas une science.

Mathématiques

Voilà pourquoi les mathématiques ne sont pas une science.  La science a émergé de la faculté humaine de donner un sens à une réalité autrement chaotique en lui attribuant des schémas. Les mathématiques sont nées de l’étude des schémas qui sont quantifiables.
Pour maîtriser les notions interdépendantes de quantité et d’espace,  nos ancêtres ont élaboré les concepts des nombres entiers et des objets géométriques ont été élaborés en excluant la nature particulière des objets en question pour ne garder que leur quantité ou leur forme.  Ils ont dû se rendre compte que si notre seul intérêt est la quantité et non les autres qualités des objets concernés, alors il n’y a aucune différence entre deux doigts et deux longueurs égales, mais que ceux-ci diffèrent de cinq doigts. En d’autres termes, les nombres sont nés de notre reconnaissance de schémas concernant la quantité en rendant aussi efficace que possible notre outil de raisonnement le plus fondamental, à savoir la comparaison. 
Sans entrer dans des discussions plus détaillées, je dirai que les mathématiques sont l’étude logique des relations entre des concepts abstraits, basée sur la notion de nombres.

 2.  Des faiblesses intrinsèques à la science

Ces caractéristiques de la science rend notre connaissance scientifique très précaire.

Simplification et approximation

Même l’approche la plus holistique est une simplification. L’esprit humain est incapable d’englober la totalité d’une nature complexe insondable.  Toutes nos déductions, toutes nos observations, toutes nos mesures ne sont qu’une approximation de la réalité.

Ces problèmes sont exacerbés dans les théories mathématiques.  Une hypothèse doit d’abord être exprimée dans un langage banal. Le processus de traduction en symbolisme mathématique s’accompagne d’une grande perte d’informations.  Elle élimine d’emblée tout ce qui n’est pas quantifiable.   Donc plus on s’éloigne du monde inanimé,  moins une description mathématique est appropriée. Même parmi les caractéristiques quantitatives, on doit faire un choix. Les mathématiques ne peuvent traiter qu’un nombre très limité de paramètres, et seulement une version très simplifiée de leurs relations.  Donc un modèle mathématique ne reflète que très imparfaitement la réalité.
Le processus d’approximation va encore plus loin. Bien que les équations aient des solutions exactes en théorie, dans tous les cas, sauf les plus simples, nous ne pouvons les résoudre qu’approximativement.  C’est généralement le cas des équations différentielles, c’est-à-dire des équations indiquant l’évolution d’un système dans le temps et l’espace et sur lesquelles reposent donc les prédictions.  Toute une série d’approximations se produit à nouveau lors de la retraduction de notre théorie mathématique en langage courant, c’est-à-dire de son application dans la réalité concrète, notamment parce ce qu’elle est susceptible d’impliquer des nombres non exacts tels que √2 ou π. 

Par ailleurs, la partie mathématique peut, comme en physique quantique avoir plus d’une interprétation scientifique.

En conclusion, la parfaite exactitude inhérente au formalisme mathématique nous permet un plus grand contrôle sur certaines caractéristiques quantifiables, mais, précisément à cause de cette exactitude, elle est très éloignée de la réalité.

Pour citer Einstein, “Dans la mesure où les propositions des mathématiques se réfèrent à la réalité, elles sont incertaines ; et dans la mesure où elles sont certaines, elles ne se réfèrent pas à la réalité”.  

Imprévisibilité

Il n’est donc pas surprenant que l’imprévisibilité s’ensuit même dans la théorie déterministe la plus simple :

Considérons l’exemple suivant construit par le physicien Max Born. Une particule se déplace sans friction le long d’une ligne droite de longueur l entre deux murs.  Lorsqu’elle atteint l’extrémité de la ligne, elle rebondit. Supposons que sa position initiale est donnée par le point x0 sur la ligne et sa vitesse initiale est vet que l’imprécision de nos mesures initiales est de Δx0 et Δv0. Selon la première loi de Newton, à un instant t, il devrait se trouver au point x = x0 + tv0. Cependant, selon la même loi, notre prédiction de sa position à l’instant t s’écartera de cette valeur de Δx = Δx 0 + t Δv0. Ainsi notre erreur va continuer à augmenter avec le temps. Après un temps critique tc = l/ Δv0, cet écart sera supérieur à la longueur l de la ligne. En d’autres termes, pour tout instant t > tc, nous ne pourrons plus du tout prédire la position de la particule.  Elle pourrait se trouver n’importe où sur la ligne.
Nous pouvons perfectionner nos instruments de mesure et réduire l’imprécision initiale, mais nous ne pourrons jamais nous en débarrasser complètement. Tout ce que nous ferons, c’est étendre l’intervalle de temps dans lequel la prédiction est possible.

Cet exemple concerne un système fermé simple et idéal. Dans le réél, d’innombrables facteurs sont impliqués, aggravant l’imprévisibilité. En gros, à cause d’erreurs inévitables, notre capacité à savoir ce qui se passe au-delà d’un certain temps peut être limitée d’une manière qu’aucun progrès technique ne peut surmonter.
Dans nos calculs effectués par ordinateur, il peut arriver que de minuscules erreurs se propagent et s’accroient.  En effet, la manière codée dont un ordinateur aborde les calculs internes implique une erreur d’arrondi. L’erreur survient également lorsque le résultat en langage codé est retraduit sous la forme imprimée sur l’écran.

Observation à l’âge informatique

L’informatisation ajoute également de nouvelles problématiques à l’acte d’observation. On sait depuis bien avant l’ère chrétienne que l’observation, résultat d’une collaboration complexe entre nos sens et notre esprit, est loin d’être neutre et peut être trompeuse.

Depuis, les instruments d’observation ont introduit toute une série de nouvelles complications, en dépit des possibilités insoupçonnées qu’ils ont ouvertes. Outre l’introduction d’erreurs, l’étude des événements de notre espace-temps quadridimensionnel à partir de représentations symboliques unidimensionnelles ou bidimensionnelles soulève la question de la perte d’informations. Plus important encore, les ordinateurs sont constitués de processus algorithmiques représentés par des 0 et des 1, et sont donc sévèrement limités par des prémisses trop simplifiées. Ils ne peuvent pas aller au-delà de celles-ci, ils ne peuvent pas inférer.  On peut donc se demander s’ils ne peuvent détecter que ce qui correspond à nos idées préconçues.

En fait, le problème s’aggrave à mesure que le processus d’observation est de plus en plus automatisé, éliminant ainsi l’observateur humain : la machine observe et interprète. C’est encore pire lorsque l’observation est supprimée et que les conclusions sont basées sur des simulations et non sur des expériences réelles, comme c’est de plus en plus le cas. Ces problèmes soulèvent bien des question en ce qui concerne notre connaissance du monde microscopique.   Elle dépend entièrement des instruments.  Nous n’avons pour ainsi dire aucune représentation non filtrée pour comparer l’image qu’ils nous donnent.  En plus pour l’observer, le plus souvent non seulement les échantillons sont retirés de leur environnement, mais il faut le plus souvent les préparer, notamment par une technique de coloration.  Il y a donc adultération.

Généralisation                                                                                         

Tout cela remet en cause le processus de généralisation, c’est-à-dire de déduction de principes, à partir de données qui ne peuvent être que limitées. Le problème de généralisation est encore plus sérieux car l’observation peut être reproduite, mais ne sera jamais similaire.  Donc, dans quelle mesure les résultats doivent-ils être similaires pour être acceptés comme justification d’une conclusion donnée ? La question se pose d’autant plus que nous n’essayons pas simplement de déduire la couleur des cygnes à partir d’observations répétitives, mais de déduire des principes de base à partir de l’observation d’une grande variété de cas dissemblables.  Trop peu de données peuvent nous conduire à des modèles erronés, et donc à des prédictions erronées.

Plus le nombre de paramètres est élevé, plus la sensibilité des résultats aux conditions initiales est grande, moins on peut s’attendre à ce que les résultats de nos expériences restent proches. Qui plus est, les résultats peuvent dépendre de l’interprétation et du protocole appliqué. Obtenir des résultats cohérents pourrait donc s’avérer difficile. Donc combien de fois une expérience doit-elle être reproduite avant que ses résultats puissent être acceptés ?

Fondamentalement, la question de savoir quand la vérification expérimentale peut être considérée comme satisfaisante n’a pas de réponse claire. On ne peut pas nécessairement affirmer qu’elle doit dépendre du succès de ses applications, car leur inconvénient peut prendre un certain temps avant d’être remarqués. Même lorsqu’une hypothèse est élaborée dans le meilleur esprit scientifique, des failles sérieuses peuvent rester non identifiées pendant des décennies, précisémment car notre observation reste limitée, ne serait-ce que pour des raisons techniques.

Quand est-il alors raisonnable d’appliquer une hypothèse, c’est-à-dire de construire de nouvelles hypothèses reposant sur elle ou de l’utiliser technologiquement ?

Hypothèses

Il ne peut y avoir de science sans hypothèses.  On doit d’abord avoir établi une relation à l’univers avant que nous puissions même penser scientifiquement.  En d’autres termes, la métaphysique précède toujours la science.  Plus généralement,  la science reste fondée sur des hypothèses qu’on oublie car elles sont cachées et devenues trop familières.   Celles-ci peuvent fortement influencer les théories que nous élaborons.

Par exemple, les prédictions mathématiques impliquent l’intégration. Derrière ce concept se cache l’hypothèse de l’uniformité selon lequel les processus seraient restés les mêmes à travers le temps et l’espace. Cette hypothèse est à la base de toute généralisation. L’uniformité était présumée très limitée par le Bouddha. C’est Démocrite qui a introduit sa version la plus extrême comme principe scientifique de base. Galilée est resté prudent. Il a été réaffirmé d’abord par les physiciens au  XVIIe siècle, puis par les géologues, pour qui les taux des processus géologiques sont restés les mêmes au fil du temps.

Cependant, à cause de l’imprévisibilité, nous n’avons aucune idée dans quelle mesure l’uniformité tient.  Il vaut donc mieux rester prudent en ce qui concerne les phénomènes lointains.

D’ailleurs l’uniformité dans le temps a été remise en question par des découvertes géologiques depuis les années 1960 qui suggèrent que des cataclysmes uniques ont modifié de façon critique les conditions existantes dans l’histoire de notre planète.

Les Limites de la science

Pour toutes ces raisons, bien qu’étant la forme de connaissance la moins fantaisiste, nous ne pouvons pas savoir si la science peut nous conduire à des vérités. Notre compréhension scientifique est constamment approfondie.  Elle nous éloigne donc des contre-vérités.  En effet, la science ne peut pas sciemment nous dire des contre-vérités.  À tout moment, elle doit se conformer à toutes les données connues.  On améliore nos approximation certes.  Mais dans l’infinitude du monde, cela nous rapproche-t-il d’une quelconque vérité ? 

Le doute est donc caractéristique d’une approche scientifique. La science remet en question les idées reçues. L’importance du doute a été souligné par les penseurs scientifiques de toutes les époques et traditions. Les théories ne doivent pas être rejetées, mais leur acceptation ne doit pas être passive.

Procéder scientifiquement, c’est reconnaître que la science est une “philosophie de la nature”, même si elle se distingue des autres philosophies en “interrogeant la nature elle-même pour obtenir des réponses à ce qu’est la nature”. Procéder scientifiquement, c’est espérer que nos pensées scientifiques sont en harmonie avec la nature, car sinon nous serions incompatibles avec les conditions de vie données, mais c’est aussi reconnaître que la science est loin d’être objective. Elle présuppose toujours l’existence de l’homme et nous devons prendre conscience que nous ne sommes pas de simples observateurs mais aussi des acteurs sur la scène de la vie.

 3.  De la science au dogme

Rester sur la voie scientifique demande prudence. Il est facile de s’en écarter. 
Il ne faut cependant pas confondre des erreurs sincères avec une quelconque dogmatisation.  C’est par l’erreur qu’on avance d’autant plus qu’à chaque époque, dans chaque culture, la science est tributaire par les pensées et les techniques d’observation existante.  Ainsi, c’est interpréter la physique newtonienne de manière anachronique que de lui appliquer notre compréhension actuelle et de la considérer comme faussée.  Elle reste suffisamment satisfaisante pour certains phénomènes courants du moment que les vitesses impliquées sont bien inférieures à celle de la lumière.  

Cela dit, la nature de la science a été très bien estimée depuis des millénaires, par exemple par certaines écoles de pensées dans l’Inde ancienne.  Elle a aussi fait l’objet de discussions passionnées au tournant du 20e siècle lorsque les problématiques du positivisme étaient devenues claires.  Donc, la déformation de la science moderne en dogme est facilitée par ses faiblesses intrinsèques, mais pour la comprendre, il faut la placer dans le contexte économique.

Or au 19ème siècle, on a transformé le capitalisme marchand en capitalisme financier.  La  perspective de maximisation du profit qui s’est peu à peu mise en place exige une croissance matérielle incessante, et donc une production toujours plus efficace.

Par conséquent, la technologie doit s’appuyer sur des recherches avancées pour accroître l’efficacité, générant des modifications incessantes et croissantes de notre environnement.  Celui-ci devient de moins en moins adapté à la vie humaine.  Le fait qu’une chose semble temporairement réalisable ne garantit pas sa compatibilité avec le maintien des conditions nécessaires à la vie humaine à moyen et long terme, ni même à court terme : les problèmes de santé et d’environnement ont rapidement suivi et n’ont cessé d’augmenter.  Puis, un stade a été atteint où, pour maintenir le cap, la recherche a perdu de plus en plus sa nature scientifique et en est venue à trahir la science elle-même.  

En d’autres termes, la science s’est transformée en pseudo-science.  Il s’agit d’un ensemble de principes qui se réclament de la science, mais qui n’en présentent pas les caractéristiques, en particulier qui ne reposent pas sur un raisonnement fondé sur l’observation, reproduite et reproductible.  Il s’agit donc d’une croyance.  

Les recherches actuelles peuvent trop souvent être qualifiées de telles. L’ampleur des dérives est difficile à mesurer car une condition de base – la transparence – sans laquelle il ne peut y avoir de science, car les conclusions restent invérifiables, est aujourd’hui communément ignorée, sous couvert de concurrence ou de secret d’État.

Selon Richard Horton, rédacteur en chef du prestigieux Lancet, “une grande partie de la littérature scientifique, peut-être la moitié, pourrait être tout simplement fausse. Affligée par des études portant sur des échantillons de petite taille, des effets minuscules, des analyses exploratoires invalides et des conflits d’intérêts flagrants, ainsi que par l’obsession de suivre des tendances à la mode d’importance douteuse, la science a pris un virage vers l’obscurité “.

 Des conclusions infondées

 Prenons deux exemples.

1) Sur la base d’hypothèses et d’une théorie purement mathématique, il avait été extrapolé à partir d’expériences menées avec des rayonnements électromagnétiques (REM) “dans les bandes visibles, ultraviolettes et des rayons X”, c’est-à-dire avec des “fréquences supérieures à la limite inférieure de l’infrarouge”, que tous les REM sont quantifiés, c’est-à-dire constitués de photons.  Ce n’est qu’en 2015, qu’on a expérimentalement vérifié cette affirmation et trouvé qu’elle était erronée pour les REM inférieurs à la limite inférieure de l’infrarouge, ce qui inclut tous les REM dûs à nos antennes –  une raison pour laquelle ces rayonnements sont préjudiciables à la santé humaine.

2)  La thèse virale est aussi une hypothèse.  Contrairement au cas de la quantisation du REM venant des antennes, elle n’a pas été prouvée fausse. [NDLR En fait, les travaux de Stefan Lanka — qui a notamment eu recours à des expériences de contrôle — tendent à nettement démontrer (depuis quelques années) la fausseté de la théorie virale. Voir le dossier Vaccins et virus.]  Mais aucune particule n’a jamais été observée d’abord dans l’air, puis entrant dans le corps, et devenant la source d’une maladie.  Le virus demeure donc de l’ordre du concept.  Est-ce une hypothèse utile ? Peut-être les unicornes ou les fantômes seraient des hypothèses utiles pour expliquer  certains phénomènes.  Mais une conclusion scientifique doit être fondée sur l’observation reproductible, et ce n’est certes pas le cas.  Et donc on peut développer le concept d’un anti-virus, tel un vaccin.  Mais on ne peut en aucun cas fabriquer matériellement un vaccin contre quelque chose dont l’existence matérielle n’est pas prouvée.  Et on ne peut élaborer des politiques sur des hypothèses qui demeurent invérifiées à ce jour.  Le débat sur la pertinence de telle ou telle hypothèse doit rester interne au monde scientifique, et c’est ainsi que nous évoluons dans notre compréhension.

Les tentations financières

La recherche est désormais pleinement ancrée dans le capitalisme de marché, qu’elle a d’abord rendu possible et continue de rendre possible. Les gains financiers sont devenus un motif principal dans une culture où de plus en plus de chercheurs créent eux-mêmes des entreprises privées pour exploiter financièrement leurs résultats.

Suite à des politiques délibérées visant à transférer le financement de la recherche des organismes publics aux organismes privés, de nombreux membres de la hiérarchie de la nouvelle Église du scientisme sont des bénéficiaires personnels des largesses de divers groupes d’intérêt. La corruption est désormais endémique et les conflits d’intérêts compromettent sérieusement les activités de recherche. Seuls les conflits directement liés à un travail donné doivent être divulgués, à savoir tout financement direct qui pourrait influencer ses conclusions. Cette obligation est facilement contournée : les faveurs peuvent prendre de nombreuses formes, de la nomination en tant que consultant à la participation à des conseils d’administration d’entreprises. Lorsque les généreux donateurs des universités, des laboratoires de recherche et des sociétés scientifiques incluent certains des conglomérats multinationaux les plus puissants, tout travail effectué dans leur enceinte peut-il être vraiment désintéressé ?

De la connaissance à la production

Cette corruption va de pair avec la transformation des objectifs de la science depuis le tournant du 20e siècle afin de se plier aux exigences d’un capitalisme financiers : de comprendre, l’objectif est devenu produire.  Le début du 20e siècle a vu l’émergence du chercheur-technologue, tout d’abord en chimie, puis en physique, et depuis en biologie.

Cet asservissement de la recherche à l’idéal économique est notamment entretenu par une culture de prix.  Celle-ci a été initiée par un industriel de premier plan du complexe militaro-industriel naissant, Alfred Nobel, précisément au moment où le contrôle de la recherche devenait indispensable. Elle contribue à mettre en avant les individus et les sujets qui se consacrent à cet idéal.  La forte subjectivité qui sous-tend les décisions est occultée puisque, contrairement à la science, le nouveau credo de la pseudo-science professe une objectivité dépourvue de valeurs.

Cela ne veut pas dire que des œuvres d’exception ne sont jamais reconnues à leur juste valeur.  Mais il est préférable qu’elles contribuent au maintien des objectifs économiques. Einstein n’a reçu le prix Nobel que pour ses travaux sur les effets photoélectriques.

Mais les prix ont contribué à l’ascendant qu’a pris la pseudo-science puisque c’est elle qui peut soutenir la production.

Par exemple, l’un des premiers prix Nobel (en chimie) a été attribué à Fritz Haber pour la synthèse de l’ammoniac.  Or la méthode de production des molécules artificielles ne reproduit pas le processus naturel et donc leur géométrie diffèrent de leurs équivalents naturels.  L’approche scientifique correcte aurait donc été d’étudier leur impact sur l’environnement et la santé humaine.

Marie Curie a eu le prix deux fois et donc il serait normal de croire selon le critère du prix que ses travaux sont plus importants que ceux d’Einstein.  Ils le sont certes du point du vue du profit.   Son objectif était circulaire : étudier les propriétés de la radioactivité pour accroître incessamment la production.  Toutes les tragédies liées à ces travaux étaient pour développer la radiothérapie comme traitement du cancer.  Or ici aussi nous avons un schéma circulaire : l’application de radiations pour soulager une maladie qui était  relativement rare comparée à d’autres maladies et dont elle a contribué à augmenter la prévalence.

De plus en plus, la recherche est devenue une affaire de machines colossales exigeant un financement colossal dans une poignée de sites colossaux.  Donc elle est basée sur des expériences ponctuelles qui ne sont pas reproductibles à volonté, ne serait-ce qu’en raison de l’infrastructure nécessaire.  Cette dépendance excessive à l’égard de la technologie nous fait oublier que les processus créés artificiellement dans les laboratoires peuvent très bien ne pas correspondre à leurs équivalents réels.

Par exemple, dans les années 1950, on a découvert dans des conditions créées en laboratoire que de la matière organique pouvait émerger de ce que l’on pourrait décrire grossièrement comme une soupe de méthane.   En raison de ce succès, on a oublié que cela n’implique pas que c’est ainsi que les choses se sont passées.  Et en effet, la première étude expérimentale visant à reconstituer cette atmosphère primitive sur la base de preuves empiriques réelles, réalisée en 2011, indique qu’au contraire, elle ne pouvait pas être aussi pauvre en oxygène qu’on le pensait.

Une inversion de la relation entre les mathématiques et la science

La prise de contrôle progressive de la science par la pseudo-science se reflète dans le renversement progressif de la relation entre la science et les mathématiques.

Avec l’importance croissante de la production industrielle, les mathématiques ont acquis une plus grande primauté au sein de la science car c’est par le mesurable que la science peut-être convertie en technologie.

La première grande étape a été la naissance de l’informatique dûes aux exigences de la technologie lorsque la physique et les mathématiques et la technologie ont été amalgamés en un seul domaine.  Cette synthèse s’est certes avérée très constructive, mais comme elle a été réalisée dans une perspective de profit, elle a également contribué à maintenir sa maximisation.  Dans ce processus, les mathématiques ont discrètement pris la place du conducteur.

Les applications mathématiques dépendent de notre objectif et ne sont pas limitées par la nécessité de se conformer à la réalité, contrairement à la science.  Ainsi, le fait de céder le leadership aux mathématiques a largement contribué à l’émergence de la pseudo-science. Ce renversement est aussi la consécration de la perspective matérialiste puisque les mathématiques ne peuvent pas prendre en compte le facteur de la vie. 

La seconde étape a été la création de la bio-ingénierie, un des secteurs dont la croissance est des plus rapides.  On en est venu à considérer la vie comme un immense ordinateur dont les programmes sous-jacents peuvent être transformés à volonté. Ainsi, la vision mécaniste de la nature a été adaptée à la nouvelle phase technologique dans laquelle nous sommes entrés. 

Les mathématiques via l’informatique mène maintenant son processus au stade final, où l’intelligence y est réduite à une quantité mesurable et la connaissance à des flux d’informations, c’est-à-dire à  l’intelligence artificielle qui au final doit nous conduire au transhumanisme – la fusion totale de la vie avec la machine au poste de pilote.

Il y a cependant une erreur de base avec une virtualité fabriquée par une machine qui nie notre réalité donnée. Les “réalités” n’étant pas des “fantômes”, l’écrivain Charles Dickens a prévenu qu’il y avait “un plus grand danger de les voir s’engouffrer” tôt ou tard.

4.  Science et avenir

Donc, le problème auquel nous sommes confrontés est la déformation de la science en une pseudo-science responsable des périls causés par l’homme.  En revanche, malgré toutes ses faiblesses, une approche fondée sur l’observation et la raison est certainement la mieux adaptée à l’étude de la réalité perceptible. Rejeter la science, c’est renoncer à la formidable possibilité de percer certains des mystères de la nature, même si ce n’est que superficiellement, même si nous finissons toujours par trouver que nos conclusions précédentes n’étaient pas tout à fait correctes.   Rejeter la science, c’est rejeter notre principal outil de survie.

Éducation

Il est donc d’abord essentiel de distinguer la science de sa déformation.  Pour cela, il faut développer une certaine appréciation non seulement de la technique de la science, mais aussi de sa nature.  La science n’est pas l’affaire des experts.  L’amateur doit réclamer son droit non seulement de comprendre, mais aussi de juger selon ses propres lumières. Tout le monde est capable de comprendre les idées qui se cachent derrière la partie technique.  Pour apprendre à le faire, le meilleur moyen est de lire les œuvres des esprits scientifiques pionniers. Qui mieux qu’eux pour expliquer le pourquoi et le comment des idées qu’ils ont contribué à élaborer.

Cependant, la seule véritable façon de dissiper la confusion entre science et pseudo-science est de veiller à ce que l’éducation dispensée aux générations futures nourrisse l’intuition scientifique qui nous est innée.  Assimiler l’esprit de la science revient à apprendre à penser par soi-même en se basant non pas sur des dogmes, mais sur une évaluation correcte de la gamme d’informations disponibles.  Il faut pour cela que  l’instruction de la technique soit mise dans le contexte d’une discussion sur la nature de la science.

Il existe plusieurs façons d’y parvenir et toutes ne conviennent pas à chaque élève.  C’est pourquoi le pluralisme est indispensable dans le type d’enseignement proposé, tant à l’école qu’à l’université.

Réduire la portée des recherches nuisibles

La question d’éthique

Jusqu’à présent, le débat s’est concentré sur les questions d’éthique.  Pourtant, les problèmes n’ont pas été résolus. Au contraire, ils continuent de s’aggraver. 

L’éthique influence assurément la science. Fonder la science sur des valeurs propices à un avenir plus serein peut sembler la meilleure voie à suivre. Mais est-ce vraiment le cas ? Quelles devraient être ces valeurs ?

Les débats éthique restent inefficaces.  D’autre part, restreindre la recherche dans un quelconque cadre éthique est préjudiciable à la science.  Fixer des limites à l’esprit humain érode le dynamisme créatif essentiel aux civilisations. La forme que prend la créativité est imprévisible, et il faut donc lui donner libre cours. 

Le débat doit être déplacé sur un plan moins controversé.

Les périls créés par l’homme sont le résultat d’une recherche clairement non scientifique.  Le débat devrait donc porter sur la nature scientifique d’une recherche. Il est vrai que l’on ne peut s’attendre à ce que la science soit définie de manière précise ou à ce qu’elle fasse l’objet d’un consensus suffisant.  Cependant, il est possible d’identifier clairement ce qui n’est pas scientifique.  Ce sont des recherches contredites par des études fondées sur des bases empiriques solides, des recherches fondées sur des observations non reproductibles à volonté, ou dont les conclusions découlent d’un raisonnement non corrélé aux données fournies.   Cela permettrait notamment de réduire considérablement les expériences controversées, voire d’y mettre fin.

Par exemple, le domaine de la médecine continue à être basé sur l’expérimentation animale bien que celle-ci soit sans cesse dénoncée pour des raisons éthiques depuis plus d’un siècle.  Aujourd’hui comme hier, la réponse est que des vies humaines sont sauvées en conséquence.  Or, en raison des dissemblances biologiques entre les autres espèces et nous, l’extrapolation aux humains est rarement justifiée et peut même s’avérer préjudiciable. En d’autres termes, ces expériences sont superflues et la science n’est certainement pas une question d’effectuer des expériences pour le plaisir de le faire.

Parallèlement, la transparence de toutes les recherches devrait être légalement imposée.  C’est loin d’être le cas aujourd’hui.

Recherches et argent

Cela dit, la raison d’être de la pseudo-science est la recherche du profit.  Le lien entre l’argent et la recherche doit donc être rompu.  Pour cela, il faut bien sûr empêcher toute personne ayant des intérêts particuliers d’exercer une influence fâcheuse sur la recherche.  L’anonymat empêcherait le donateur de choisir le bénéficiaire. Car l’objectif de la science a été transformé en un moyen pour faire du profit.  Mais cela va plus loin : l’activité scientifique elle-même a été transformée en une activité génératrice de richesse, grâce à l’élaboration de la notion de propriété intellectuelle et de brevets.  Par conséquent, la valeur d’un travail scientifique dépend désormais de la quantité d’argent qu’il génère. Or, ce n’est pas que la science soit au-dessus ou au-dessous de l’argent, elle n’a simplement aucun rapport avec lui. Ainsi, le choix d’un critère inapproprié pour la science a contribué à sa déformation.  Donc il serait utile de discuter de la suppression des lois sur les brevets et de la manière d’y parvenir.

Spécialisation à outrance

Une trop grande surspécialisation empêche non seulement l’étude correcte des questions les plus fondamentales et les plus urgentes, car elles chevauchent généralement plusieurs domaines, mais aussi l’identification de ces questions.

Pour remédier à ce problème, on pourrait transformer les universités en petites communautés savantes sans aucune barrière de domaines et de rendre les études de universitaires moins spécialisées. Certes le nombre d’années d’étude augmentera. Mais la rapidité de la formation actuelle résulte de l’état d’esprit des siècles derniers. Elle a perdu de sa pertinence avec une durée de vie plus grande et des technologies qui nous libèrent de diverses corvées en les mécanisant.

Quelle science pour l’avenir ?

En ce qui concerne la science elle-même, la question est de savoir quelle forme elle doit prendre.  L’objectif devrait être de réduire ses faiblesses.

Les images de Maurits Escher montrent à quel point nous sommes peu capables d’appréhender la complexité de la réalité.  Même dans le cas de deux motifs entrelacés, le cerveau humain ne peut en observer qu’un seul à la fois. En d’autres termes, toute lumière provenant d’une seule perspective n’éclaire que certains aspects.  Ces aspects peuvent même apparaître différents selon différentes perspectives. 

Or chaque forme que prend la science est fondée sur des hypothèses.   Par conséquent, chacune d’entre elles peut passer à côté d’aspects critiques.  La science doit donc être rétablie dans toute sa diversité. 

Commencer par une synthèse des différentes formes que la science a prise au cours de l’histoire pourrait s’avérer utile et aboutir à des modes de pensée radicalement nouveaux.   Il serait stupide de rejeter d’emblée le vaste réservoir de connaissances déjà développé dans les différentes cultures à différentes époques et de tâtonner dans l’obscurité.

La pertinence des approches anciennes dans le contexte moderne est soulignée par l’exemple du mathématicien Srinivas Ramanujan : les résultats qu’il a obtenus en suivant une tradition qui remonte aux âges védiques se sont avérés essentiels dans la physique moderne la plus sophistiquée.

Bien sûr les méthodes éprouvées ne doivent pas être abandonnées, mais complétées par d’autres, en tenant compte des nombreuses évolutions de notre perception de la réalité induites par la science elle-même. 

Bref, tout comme avec l’éducation, ce n’est que par le retour d’un véritable pluralisme que nous pouvons tenter de surmonter quelques unes des lacunes de la compréhension humaine. 

Applications scientifiques

Ce n’est qu’après avoir atteint une compréhension théorique étendue et approfondie que l’on peut commencer à penser aux applications technologiques.  Comme l’ont proposé Ralph et Mildred Buchsbaum il y a un demi-siècle, “la charge de la preuve … de [l’absence] de préjudice marqué pour l’homme” devrait être légalement “placée sur l’homme qui veut introduire un changement”. Aujourd’hui, la preuve d’un préjudice réel doit être apportée par les victimes. Mais il n’est pas réaliste de compter sur la science pour identifier la cause exacte d’un dommage.  En effet, la science est dans l’ensemble incapable de démêler l’écheveau de plus en plus complexe des causes et de désigner un coupable. Ou, lorsqu’elle y parvient, c’est un processus de longue haleine ; entre-temps, des dommages sont créés, parfois irréversibles.  Trop souvent, il subsiste un doute raisonnable. Cela met les populations à la merci de jugements juridiques qui reposent sur des détails techniques et sur l’opinion de ceux qui les rendent.

Une fois que le public a donné son assentiment à un type particulier d’applications, des expériences encore plus minutieuses doivent être menées pour s’assurer que les effets collatéraux n’auront pas d’impact négatif sur nous. En d’autres termes, nous devons nous donner du temps avant d’introduire des éléments nouveaux dans la nature ; seules des expériences soigneusement menées dans des environnements naturels et sur des périodes de temps suffisamment longues peuvent nous aider à faire la différence entre les applications dont le principal problème est l’utilisation excessive, et qui peuvent donc être utilisées dans certaines limites, et les applications qui posent d’autres problèmes. 

5. Conclusion 

Revenons à la question initiale :  qu’est-ce que la science si elle est dans un flux constant ?

C’est la tentative désordonnée, mais héroïque, de l’esprit humain de comprendre le fonctionnement de l’univers en s’obstinant face à des obstacles insurmontables, face à une compréhension insaisissable, malgré d’innombrables échecs et erreurs.  Ces erreurs à leur tour donnent lieu à de nouveaux questionnements auxquels il faut répondre. La connaissance scientifique est ce qui se rapproche le plus des certitudes, mais elle est incapable d’offrir des certitudes parce que les certitudes sont incompatibles avec notre condition humaine.

Malgré l’emprise de la pseudo-science, cette vraie science a continué de faire son chemin.  Au cours des deux derniers siècles, la science que nous avons développée a ébranlé la croyance en une réalité manifeste composée de substances matérielles interagissant selon des règles mécaniquement rigides.  D’une réalité de substances isolées, elle en est venue à considérer chaque chose comme faisant partie d’un tout.  Ce tout ne peut être réduit à la somme de ses parties.  Inversement, aucune partie ne peut être expliquée indépendamment de ce tout.  Et pourtant chaque partie individuelle a sa propre importance et reflète le tout de différentes manières.  Bref, notre compréhension scientifique prend de plus en plus en compte la complexité de notre réalité.

Il ne tient qu’à nous de rétablir la science à sa juste place dans un environnement favorable où les scientifiques seront enfin libres de se concentrer sur des sujets constructifs de leur choix.  Aujourd’hui, trop doivent gaspiller leurs talents et leurs efforts à contrer les mensonges élaborés et propagés au nom de la science.

Dans ce contexte, les activités industrielles aussi ne seront pas nécessairement nuisibles, mais bénéfiques à l’humanité.

⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.