William M. Briggs
La science brisée

Traduction libre À propos de ce document Cet article est tiré de la transcription d’une conférence donnée par le professeur Briggs au Hillsdale College, Michigan, en avril 2023. Il s’agissait d’une contribution invitée sous les auspices de la Broken Science Initiative (Initiative pour la science brisée), https://brokenscience.org/. À propos de l’auteur William M. Briggs est […]

Traduction libre

À propos de ce document

Cet article est tiré de la transcription d’une conférence donnée par le professeur Briggs au Hillsdale College, Michigan, en avril 2023. Il s’agissait d’une contribution invitée sous les auspices de la Broken Science Initiative (Initiative pour la science brisée), https://brokenscience.org/.

À propos de l’auteur

William M. Briggs est l’auteur de Uncertainty : The Soul of Modeling, Probability & Statistics, et co-auteur de The Price of Panic: How the Tyranny of Experts Turned a Pandemic into a Catastrophe (Le prix de la panique : comment la tyrannie des experts a transformé une pandémie en catastrophe) & Everything You Believe Is Wrong (Tout ce que vous croyez est faux). Il est titulaire d’un doctorat en statistiques et d’une maîtrise en physique atmosphérique, tous deux obtenus à l’université Cornell. Il étudie la philosophie de la science et l’utilisation et l’abus des prédictions scientifiques. Son site : https://www.wmbriggs.com/.

***

Introduction

Une expérience fascinante a été menée il n’y a pas si longtemps. Une expérience sur les expériences. Sur la manière dont les scientifiques parviennent aux conclusions de leurs propres expériences. Voici ce qui s’est passé : le chercheur en sciences sociales Nate Breznau et d’autres ont distribué des données identiques à un grand nombre de chercheurs et ont demandé à chaque groupe de répondre à la même question. La question était la suivante : L’immigration réduirait-elle ou augmenterait-elle « le soutien du public à la mise en place de politiques sociales par le gouvernement » ?

C’est peut-être difficile de s’en souvenir. Reformulons donc cette question d’une manière plus mémorable et plus largement applicable à nos autres exemples. X affecte-t-il Y ? Est-ce que X, l’augmentation de l’immigration, affecte Y, le soutien du public à certaines politiques ?

Il s’agit d’un langage causal, n’est-ce pas ? X affecte Y ? Ce sont des mots sur la cause, sur ce qui cause quoi. La cause, et la connaissance de la cause, sont d’une importance capitale pour la science. À tel point que je prétends — et j’espère défendre cette idée — que le but de la science est de découvrir la cause des choses mesurables. Nous y reviendrons plus tard.

Un peu plus de 1200 modèles ont été remis par les chercheurs, tous pour répondre à la question de savoir si X affectait Y. Je ne saurais trop insister sur le fait que chaque chercheur a reçu des données identiques et qu’il lui a été demandé de résoudre la même question.

Breznau a demandé à chaque scientifique de répondre à la question par « Non », « Oui » ou « Impossible à dire ». Seul un groupe de chercheurs a répondu qu’il ne pouvait pas le savoir. Tous les autres groupes ont donné une réponse précise. Environ un quart — une fraction dont nous devrions tous nous souvenir — a répondu « Oui », c’est-à-dire que X a affecté Y — négativement. Autrement dit, plus de X, moins de Y.

Les chercheurs ont également été autorisés à donner une idée de la force de la relation, ainsi que de son existence ou non. Et ce quart de personnes qui a déclaré que la relation entre X et Y était négative ont donné une réponse allant d’une réponse fortement négative à une réponse plus faible, mais tout de même avait une « significativité (significance) ». Significativité. Nous reviendrons sur ce mot.

Vous le voyez venir… environ un autre quart des modèles a dit « oui », X affecte Y, mais que la relation était positive ! Plus de X, plus de Y, pas moins ! Là encore, la force de la relation allait de très forte à faible, mais avait toujours une « significativité ».

L’autre moitié des modèles n’a pas pu se résoudre à dire « non » : ils ont tous donné un « oui » provisoire, mais ont déclaré que la relation n’avait pas de « significativité ».

Vous voyez le problème. Il n’y a, en réalité, qu’une seule bonne réponse et une seule force d’association, si elle existe. Le fait qu’une relation n’existe pas peut même être la bonne réponse. Je ne sais pas quelle est la bonne réponse, mais je sais qu’il ne peut y en avoir qu’une. Pourtant, les réponses — les réponses très sûres, scientifiquement dérivées, étudiées par des experts — étaient toutes contradictoires et en désaccord total les unes avec les autres.

Chacun de ces modèles relevait de la science. On nous dit que nous ne pouvons pas nier la science. On nous ordonne de Suivre La Science.

Mais de quelle science s’agit-il ?

L’erreur de la falsification (ou réfutabilité)

Ces modèles étaient issus des sciences dites douces (humaines) : sociologie, psychologie, éducation, etc. Il n’est pas surprenant qu’il y ait des erreurs fréquentes dans ces domaines en raison de l’immense et hideuse complexité de leur sujet.

C’est pourquoi nous nous tournons souvent vers les matières dites « dures (pures) », comme la physique et la chimie, pour faire de la « vraie science ». Il s’agit de domaines dans lesquels les sujets étudiés sont plus faciles à contrôler et donc à examiner. Mais il s’agit souvent d’une illusion.

La physicienne Sabine Hossenfelder, dans un article du Guardian, attire l’attention sur un phénomène particulier en physique, la plus dure des sciences dures :

Depuis les années 1980, les physiciens ont inventé tout un zoo de particules, dont les habitants portent des noms tels que preons, sfermions, dyons, monopoles magnétiques, simps, wimps, wimpzillas, axions, flaxions, ere-bons, accelerons, cornucopions, magnons géants, maximons, macros, wisps, fips, branons, skyrmions, caméléons, cuscutons, planckons et neutrinos stériles, pour n’en citer que quelques-uns.

Aucune de ces particules ne s’est avérée réelle, mais de nouvelles sont constamment proposées. Hossenfelder blâme en partie l’idée de falsification (réfutabilité) de Popper, selon laquelle les propositions sont scientifiques si elles sont falsifiables. Toute proposition qui peut être falsifiée est scientifique. Il s’ensuit que toute proposition sur tout ce qui est mesurable, du Bigfoot à la théorie du genre en passant par l’existence de nouvelles particules, est scientifique. Faisons donc de la science en proposant beaucoup de propositions falsifiables !

Cette portée excessive a été une critique précoce, voire fatale, de la philosophie du falsificationnisme. Une autre critique, encore plus accablante, est qu’il est pratiquement impossible de persuader les scientifiques de cesser d’aimer leurs théories falsifiées — théories qui ne correspondent pas à la réalité — en particulier lorsque ces théories sont populaires ou lucratives. Le physicien Max Planck a proposé une philosophie supérieure : la science, disait-il, avance un enterrement à la fois. Pourtant, rares sont ceux qui ont réussi à convaincre les scientifiques en activité d’abandonner le falsificationnisme. Mais il s’agit là d’un sujet pour une autre fois.

Une multitude de modèles

Un autre élément à souligner dans l’expérience de Breznau est l’énorme pile de modèles rendus. Plus de 1200. Douze cents. Cela fait beaucoup de modèles ! Avec un tel nombre, il faut croire qu’il est facile d’élaborer des modèles. Créer des théories, c’est simple. Les chercheurs n’ont pas sué pour réaliser ce cache. Tout comme les physiciens qui ont proposé toutes ces nouvelles particules. Dans un sens très réel, la science — faire de la science — est trop facile. Il est trop facile de créer des modèles. Il est trop facile de dire que X est la cause de Y.

Et nos exemples — Breznau et la physique des particules — ne sont que deux petits exemples. Pensez à ce que cela signifie si extrapolé à toutes les branches et à tous les domaines de la science, dans le monde entier. Des gens y ont réfléchi. C’est là qu’intervient la crise de la réplication ou de la reproductibilité.

La crise de la réplication

Plusieurs groupes ont tenté, au cours de la dernière décennie, de reproduire à grande échelle ce que l’on considère comme les meilleurs articles, publiés dans des revues de premier plan telles que Nature et Science. Il s’agissait d’efforts importants et sérieux pour reproduire des expériences originales dans le domaine des sciences sociales, de la psychologie, du marketing, de l’économie, de la médecine et d’autres domaines. Ce qui est stupéfiant, c’est que les résultats de ces efforts ont été les mêmes : seule la moitié des reproductions a fonctionné, et l’autre moitié n’a pas fonctionné. Et sur la moitié qui a fonctionné, seule la moitié — un quart : ce chiffre que nous avons dû mémoriser — avait la même ampleur d’effet.

Prenons l’exemple de la médecine. Le médecin John Ioannidis, dont le nom est familier à certains d’entre vous, a examiné la crème de la crème des articles, c’est-à-dire les plus populaires, ceux qui sont cités plus de 1 000 fois chacun. Les scientifiques comptent leurs citations comme les influenceurs comptent leurs « likes ». Nous pouvons dire que les scientifiques — avec leurs H-index, leurs facteurs d’impact, leurs impacts normalisés par article et tout le reste, et la manière dont ils partagent et examinent avec empressement ces « métriques » — ont inventé les médias sociaux.

Quoi qu’il en soit, Ioannidis a examiné les 49 articles tops. Voici ce qu’il a trouvé :

…7 (16 %) ont été contredites par des études ultérieures, 7 autres (16 %) avaient trouvé des effets plus importants que ceux des études ultérieures, 20 (44 %) ont été répliquées et 11 (24 %) sont restées largement incontestées.

Vingt-quatre pour cent. Seulement un quart des articles ! Cela ne ressemble-t-il pas à l’expérience de Breznau ?

L’examen des nouveaux médicaments améliorés anticancéreux réalisé en 2017 par le British Medical Journal a révélé que seuls 35 % d’entre eux avaient un effet important et que « l’ampleur du bénéfice sur la survie globale variait de 1,0 à 5,8 mois. » C’est tout. Une moyenne de trois mois.

Richard Horton, rédacteur en chef de The Lancet, a annoncé en 2015 que la moitié de la science était erronée. Il a déclaré :

Les arguments contre la science sont simples : une grande partie de la littérature scientifique, peut-être la moitié, est tout simplement fausse. Affligée par des études portant sur des échantillons de petite taille, des effets minuscules, des analyses exploratoires invalides et des conflits d’intérêts flagrants, ainsi que par l’obsession de suivre des tendances à la mode d’une importance douteuse, la science a pris un virage vers l’obscurantisme.

La moitié de la science qui est erronée est, j’insiste, la meilleure science. Pensez à quel point la situation doit être mauvaise dans les niveaux inférieurs.

Sur la science perturbatrice

Vous avez peut-être entendu parler des travaux récents de Russell Funk, spécialiste en sciences de gestion, et d’autres chercheurs. Ils ont remarqué que la production de ce qu’ils appellent la « science perturbatrice » a chuté depuis 1950. Ils entendent par là des travaux véritablement nouveaux (et pas seulement « novateurs ») et fondamentaux. Elle s’est pratiquement arrêtée, et ce dans tous les domaines. Est-ce parce que la science a déjà fait la plupart des découvertes et que nous sommes maintenant dans une phase de conclusion ? Ou est-ce dû à un problème plus profond ?

En tout état de cause, il est impossible que tous les documents produits par la science aujourd’hui soient corrects, et même ceux qui le sont semblent être de moins en moins utiles.

Sur l’évaluation par les pairs

Nous avons appris qu’environ trois quarts, voire plus, de la science est erronés ou trop certains. Et, bien sûr, une partie est de la vraie science, mais même celle-ci a de moins en moins de valeur. Il n’y a pas de symétrie ici. Même si la moitié de la science est vraie, la moitié qui est fausse demande plus de temps et de ressources pour être traitée ou contrée, parce que la bureaucratie gère la science et que nos gouvernants sont libres de choisir « La Science » qui leur plaît.

Avez-vous remarqué qu’ils disent toujours « La Science » et non pas simplement « science » ?

Aujourd’hui, le nombre d’articles publiés est passé d’environ un quart de million par an en 1960 à environ 8 millions aujourd’hui, un chiffre qui continue à augmenter. Étant donné que la plupart de ces articles sont erronés et que la mauvaise science a des effets néfastes, nous sommes obligés de conclure qu’il y a trop de science. Il y a trop de scientifiques, trop d’argent et trop de ressources consacrés à la science.

La solution à cette surabondance est facile… en principe. Cessez de faire autant de science ! Hélas, il y a peu d’espoir de voir des appels à la réduction de l’enseignement des sciences ou à la diminution des dépenses.

Voyons plutôt pourquoi il est si facile de produire de la mauvaise science, et ce qui constitue de la mauvaise science. Certaines de ces raisons sont faciles à comprendre. Comme l’évaluation par les pairs. Parce que les scientifiques doivent vraiment publier ou périr, ils sont dans une large mesure à la merci de leurs pairs, qui agissent comme des gardiens de l’accès aux revues. Richard Smith, ancien rédacteur en chef du British Medical Journal, a déclaré en 2015 :

Si l’évaluation par les pairs était un médicament, il ne serait jamais mis sur le marché, car nous avons de nombreuses preuves de ses effets secondaires et nous n’avons pas de preuves de ses avantages. Il est temps d’abattre la vache sacrée.

Hélas, ce ne sera pas le cas.

L’évaluation par les pairs, ajoutée à la surabondance d’articles, aboutit à un système qui garantit la banalité, pénalise les écarts par rapport aux consensus, limite l’innovation et prend du temps — presque autant que la rédaction de demandes de subventions. Car non seulement il faut publier ou périr, mais il faut aussi fournir des frais généraux à votre doyen. Ces facteurs, ainsi que des activités telles que la fraude, qui se développe en raison de l’augmentation de l’argent et du prestige de la science, ont tous des effets négatifs connus.

Réfléchissons plutôt à des problèmes plus profonds. Des problèmes philosophiques.

Sur les problèmes philosophiques

Enfin, nous arrivons à la philosophie des sciences. Malheureusement, nous ne pouvions pas commencer par ce sujet en raison de l’admiration universelle dont jouit la science. Je devais au moins essayer de montrer que cette admiration n’est pas toujours justifiée. J’espère maintenant montrer que la philosophie a quelque chose à voir avec cela.

Quel est la nature ou l’objectif de la science ? J’ai affirmé plus tôt qu’il s’agissait de comprendre les causes des choses observables. Pourquoi, comment et quand X cause Y. De nombreux scientifiques, voire la plupart, ne sont pas en désaccord avec cela, bien que certains le soient. L’accord dépend de la philosophie de la nature que l’on adopte, de la philosophie de l’incertitude et de ce que sont les modèles et les théories. Et c’est là qu’il y a de nombreux différends.

Certains, qui se qualifient eux-mêmes d’instrumentalistes, se contentent d’affirmations telles que « Si X, alors Y », ce qui est similaire à « X cause Y », mais n’est pas la même chose. L’affirmation « Si X, alors Y » dit simplement que si nous connaissons X, alors Y s’ensuivra d’une manière ou d’une autre. Elle ne dit pas pourquoi, ou ne le dit pas entièrement.

L’instrumentalisme peut être utile. Prenons l’exemple d’un passager dans un avion à réaction. Il n’a aucune idée de la manière dont le moteur et les ailes fonctionnent ensemble pour faire voler l’avion. Mais il voit, et a confiance que l’avion volera. Si X, alors Y.

Cela se produit également en science, par exemple lorsque les expérimentateurs varient les conditions pour voir ce qui se passe. L’inventeur du tube à vide triode — appelé « audion » par Lee de Forest — n’avait aucune idée de son fonctionnement. Au début, personne ne le savait, et même il y a eu de nombreuses suppositions erronées, mais cela n’a pas empêché la société d’électronique RCA et d’autres d’utiliser ce dispositif manifestement supérieur dans les premières radios.

Mais l’instrumentalisme n’est jamais complètement satisfaisant, n’est-ce pas ? Il suffit de savoir « Si X, alors Y » ? Si l’on branche l’audion dans un certain circuit, un signal plus fort apparaît. N’est-il pas bien plus intéressant de prouver que la grille, lorsqu’elle est chargée de la même manière que la cathode, entrave le flux d’électrons vers la plaque et que, lorsqu’elle est chargée de manière opposée, le flux augmente, ce qui fait que la triode amplifie le signal sur la grille ? X cause Y.

La cause est donc notre objectif en science, ou devrait l’être. Mais cela ne veut pas dire que c’est facile. Il y a de nombreuses façons de manquer cet objectif — ou de se tromper.

Voici donc quelques-unes (mais pas toutes) des erreurs commises par la science dans sa tâche fondamentale qui consiste à découvrir pourquoi, comment et quand X cause Y. J’irai du plus facile à comprendre au plus difficile à expliquer.

Sur les façons dont la science se trompe

1. X n’est pas mesuré, mais une approximation de X l’est, et tout le monde oublie l’approximation.

Celle-ci est extraordinairement populaire en épidémiologie. À tel point que sans elle, le domaine serait presque stérile. Cette erreur est si courante, et si fructueuse pour produire de la mauvaise science, que je l’appelle l’erreur de l’épidémiologiste, qui combine l’erreur écologique — confondre l’approximation de X avec X lui-même — avec le fait de prendre la corrélation pour la causalité.

Les PM2.5 — poussières d’une certaine taille — font fureur et font l’objet d’études sur leurs effets délétères supposés. Une multitude d’articles affirment que les PM2.5 sont « liées » ou « associées » aux maladies cardiaques ou à d’autres phénomènes de ce genre.

Le problème est que l’absorption réelle de PM2.5 n’est jamais mesurée ; seules des approximations d’« exposition » sont données. Par exemple, les codes postaux peuvent être utilisés pour déterminer la résidence principale enregistrée d’une personne et sa distance par rapport à une autoroute. Il est alors possible de construire un modèle de la quantité de PM2.5 produites par cette autoroute, et la quantité de PM2.5 disponible chez vous, où l’on suppose que cette disponibilité est votre exposition. Et que cette exposition est votre absorption.

Il faut comprendre que l’erreur ne consiste pas à affirmer à tort que les PM2.5 provoquent des maladies cardiaques. C’est possible ou pas. L’erreur réside dans l’excès de certitude. Une très grande certitude. Il y a trop d’étapes dans l’affirmation causale pour savoir ce qui se passe.

Je ne peux pas résister à l’envie de vous raconter mon exemple préféré de ce sophisme. Quelqu’un de la Kennedy School de Harvard a affirmé que X cause Y : que la participation à un défilé du 4 juillet transforme les enfants en républicains. La participation à la parade n’a jamais été mesurée. Au lieu de cela, ils ont mesuré la pluviométrie à l’emplacement des résidences répertoriées des personnes lorsqu’elles étaient enfants. S’il pleuvait, ils supposaient qu’aucun défilé n’avait lieu et qu’aucun enfant ne s’y rendait, même s’il assistait à un défilé chez sa grand-mère. S’il ne pleuvait pas, ils supposaient que tous les enfants y participaient, même s’ils étaient partis en colonie de vacances.

Ils ont utilisé un langage causal : « le fait d’avoir vécu le 4 juillet dans l’enfance augmente la probabilité que les gens s’identifient au parti républicain et votent pour lui à l’âge adulte ».

Ainsi, San Francisco, où il pleut rarement en juillet, devrait être un haut lieu du républicanisme.

2. Y n’est pas mesuré, mais une approximation de Y l’est, et tout le monde oublie l’approximation.

Parfois, ni X ni Y ne sont mesurés, mais tout le monde agit comme si les deux l’étaient. Il s’agit alors de l’erreur double de l’épidémiologiste. On trouve souvent ce type d’erreur en sociologie. Et dans les expériences permettant des « résultats multiples » en médecine. Le résultat peut être multiple, « SIDA, ou cancer du pancréas, ou insuffisance cardiaque, ou envies », et donc si nous entendons parler d’un nouveau médicament qui a réduit le critère d’évaluation, nous ne sommes pas sûrs de ce qui est revendiqué.

Les centres américains de contrôle et de prévention des maladies (Centers for Disease Control and Prevention) sont de grands utilisateurs de ce sophisme. C’est ainsi qu’ils ont réussi à imposer le port de masques, en dépit d’un siècle d’études montrant que les masques ne permettaient pas d’enrayer la propagation des virus respiratoires.

Au cours de la panique provoquée par Covid, l’une de leurs « principales » études a porté sur les « cas » — par lesquels ils entendaient les infections — dans les comtés non soumis aux mandats, ou plutôt ils ont regardé l’évolution des taux d’infection. Mais pour savoir si les masques empêchent les microbes respiratoires de se propager, il faut mesurer l’utilisation du masque et l’infection ou son absence qui s’ensuit. Si X, alors Y. À partir de là, nous pourrions arriver à la conclusion que X cause Y. Mesurer des choses bizarres telles que les changements au niveau des comtés dans les taux de « cas » avec et sans mandat ne vous permet pas de le savoir. Ni X ni Y n’ont été mesurés. La cause reste vague à un degré extrême.

Une étude a d’ailleurs bien fait les choses. Au Danemark, les chercheurs ont appris à un groupe à utiliser correctement les meilleurs masques et leur en ont donné plusieurs gratuitement, tandis qu’un autre groupe ne portait pas de masque. Ils ont ensuite mesuré les infections individuelles. Aucune différence n’a été constatée entre les groupes. Quoi qu’il en soit, si les masques fonctionnent, les masques auraient dû fonctionner.

3. Tenter de quantifier l’inquantifiable

Le roman Little Big Man de Thomas Berger (évitez le film) raconte l’histoire de Jack Crabb, un garçon blanc adopté et élevé par un clan Cheyenne vers 1850. Des années plus tard, Crabb se retrouve parmi les Blancs et s’étonne de toute cette quantification :

C’est le genre de choses que l’on découvre quand on retourne à la civilisation : la date et l’heure, le nombre de kilomètres qui nous séparent de Fort Leavenworth et le prix que le marchand de tabac y gagne, le nombre de bières que Flanagan a bues et le nombre de fois qu’Hoffmann a fait l’amour avec une prostituée. Des chiffres, des chiffres, j’avais oublié à quel point ils étaient importants.

C’est trop important. Laissez-moi vous demander, tout de suite, à quel point vous êtes heureux. Vous qui êtes dans le public. Sur une échelle allant de — 17,5 à e — le nombre naturel e — élevé au cube. J’aurais pu le demander, peut-être, sur une échelle de 1 à 5 ce qui me permet de placer scientifiquement mon score pour heureux sur une échelle de Likert, le nom scientifique donné à l’attribution de nombres entiers à des questions.

Soyons sérieux, faisons de la vraie science et appelons ma mesure l’« instrument de Briggs ». Les questionnaires sont appelés « instruments » lorsqu’ils sont quantifiés, le langage utilisé tentant d’emprunter la rigueur et la précision des vrais instruments, tels que les oscilloscopes ou les pieds à coulisse.

Supposons que j’interroge la moitié gauche de la salle, puis la moitié droite, et qu’il y ait des différences dans les scores pour heureux. Serais-je alors en mesure de dire que le fait d’être assis dans la moitié gauche des amphithéâtres rend moins heureux les auditeurs des discours d’après-dîner ? Je devrais l’être : c’est ainsi que l’on fait de la science.

Ce n’est pas que l’instrument breveté de Briggs ne nous dise rien sur le bonheur. Prenons deux personnes : l’une qui a répondu le mieux et l’autre le moins bien. Il existe probablement une réelle différence de bonheur entre ces deux personnes. C’est juste que nous ne sommes pas tout à fait sûrs de la nature de cette différence.

Que signifie « heureux » ? Le dictionnaire des synonymes dit : « bienheureux, content, enchanté, euphorique, joyeux, ravi, réjoui, satisfait », et ainsi de suite.

Chacun d’entre eux donne une nuance différente et authentique d’heureux. Comment savoir si les personnes qui répondent à l’instrument breveté de Briggs parlent des mêmes nuances ? La réponse habituelle consiste à affirmer que notre instrument a été validé. En gros, cela signifie qu’il a été appliqué à plusieurs groupes de personnes et que les réponses ont été à peu près les mêmes. Il ne s’agit pas d’une véritable validation — elle n’est pas possible.

4. Prendre la corrélation pour la causalité

Tous les scientifiques connaissent l’adage : la corrélation n’implique pas la causalité. Malheureusement, tout comme le biais de confirmation, cet adage s’adresse aux autres. La plupart des scientifiques ne peuvent résister à la tentation de dire « ma corrélation est ma causalité ». Pourquoi ? La pratique d’annoncer qu’une mesure de l’adéquation d’un modèle ou d’une théorie comme étant la preuve d’une cause. Horton, du Lancet, que nous avons rencontré précédemment, a également déclaré : « Notre amour de la “significativité” pollue la littérature avec de nombreux contes de fées statistiques ». Cette « significativité (significance) » est un mot dont la définition n’a aucun rapport avec le sens normal du mot anglais. Il s’agit d’avoir une petite valeur-p, un élément mathématique avec lequel est attaché tellement d’idées fausses que nous pourrions passer une heure à les détailler.

Nous nous en tiendrons donc à ceci : la significativité, c’est-à-dire une petite valeur-p, indique qu’un modèle s’ajuste bien à un ensemble de données. Elle est souvent interprétée comme signifiant que la cause a été trouvée. Il s’agit toujours d’une erreur. La cause peut exister, mais elle ne peut jamais être démontrée par la « significativité ». Il s’agit toujours d’une erreur, car cette significativité n’est qu’une mesure de la corrélation. Et nous sommes tous d’accord que corrélation n’implique pas causalité.

Seuls les chercheurs les plus paresseux sont incapables de trouver une « significativité » d’une certaine manière pour leur ensemble de données. En effet, il existe une infinité de modèles parmi lesquels choisir ; il est toujours possible d’obtenir une corrélation. Ce chiffre n’est pas exagéré. Le nombre de modèles possibles est potentiellement infini. Il est toujours possible d’en trouver au moins un pour qu’un ensemble de données présente une « significativité ». Ce qui veut dire simplement, rappelons-le, que le modèle s’adapte bien aux données, qu’il existe une corrélation.

Les exemples sont innombrables. Sans fin. Mon préféré est celui des méfaits du tabagisme de 3main. Vous avez entendu parler du tabagisme de seconde main : la fumée et les autres substances qui émanent des fumeurs et qui, d’une manière ou d’une autre, affectent les non-fumeurs. La fumée tertiaire n’est pas du tout de la fumée, mais les sous-produits du tabagisme qui émanent des fumeurs et laissent des traces, longtemps après leur départ, sur lesquelles les non-fumeurs peuvent involontairement tomber.

Une équipe de chercheurs s’est rendue dans un cinéma où des fumeurs avaient été présents et où des non-fumeurs avaient également assisté, mais plus tard, après que les fumeurs sont partis. Ils ont conclu, en raison de la significativité, que le fait de s’asseoir dans les fauteuils où s’étaient assis les fumeurs revenait à aspirer « l’équivalent de 1 à 10 cigarettes de fumée secondaire ». Ce qui correspond à peu près au nombre de cigarettes que les gros fumeurs consomment pendant un film.

Le résultat est absurde. Mais on y croit. Selon un rapport, « les effets étaient particulièrement prononcés pendant les films classés R, comme “Resident Evil”, ce qui, selon les auteurs, s’explique par le fait que ces films attirent un public plus âgé, plus susceptible d’avoir été exposé à la fumée ».

La significativité est également la raison pour laquelle il existe des titres contradictoires tels que « Un œuf par jour “DIMINUE votre risque de diabète de type 2’’ » et « Manger un seul œuf par jour augmente votre risque de diabète de 60 pour cent, selon une étude ». Je possède une collection de ce genre de choses : la science dit qu’à peu près tout peut à la fois vous tuer et vous guérir.

Il ne s’agit pas seulement de mauvaises statistiques. Ces physiciens qui ont inventé ce zoo à particules ont également mesuré leur succès en fonction de l’adéquation de leurs modèles avec des données anormales. C’est pour cela qu’ils ont créé les modèles : pour inclure ces anomalies.

L’adéquation du modèle est un critère nécessaire, mais loin, très loin d’être suffisant en ce qui concerne la qualité du modèle. Les modèles peuvent toujours être adaptés. Ils ne peuvent pas tous représenter la réalité. C’est pourquoi j’insiste sur le fait qu’on ne peut faire confiance à un modèle qui n’a pas été testé de manière indépendante par rapport à la réalité. La plupart des modèles ne sont pas testés ainsi. Cela dépend du domaine, mais dans certains domaines, généralement les sciences dites douces, les modèles ne sont jamais vérifiés de manière indépendante.

5. Multiplication des incertitudes

Nous sommes tous d’accord pour dire que la planète a besoin d’être sauvée. Tout le monde le dit. Depuis le refroidissement global.

À l’époque où la climatologie devenait un nouveau domaine, on a vraiment dit qu’une nouvelle ère glaciaire s’annonçait. En 1975, Newsweek a rapporté ce qui suit :

Des signes inquiétants indiquent que les conditions météorologiques de la planète ont commencé à changer radicalement et que ces changements pourraient être le signe d’une baisse drastique de la production alimentaire.

Le Time a déclaré en 1974 :

Le climatologue Kenneth Hare, ancien président de la Royal Meteorological Society, estime que la sécheresse persistante… a donné au monde une sinistre prémonition de ce qui pourrait arriver.

M. Hare prévient : « Je ne crois pas que la population mondiale actuelle soit viable si [les tendances se poursuivent] ».

Il y en a des centaines et des centaines, des scientifiques et des groupes tels que les Nations unies qui mettent en garde contre les décès massifs dus à la famine, etc. Eh bien, la science climatologique s’est développée, la température s’est réchauffée et alors nous avons le réchauffement climatique. Ce réchauffement est causé, soit dit en passant, par la même chose que celle qui serait à l’origine du refroidissement de la planète : le pétrole.

Avec le temps, le réchauffement de la planète est devenu le « changement climatique » : un nom brillant, car le climat de la terre change sans cesse. Ainsi, tout changement, ce qui est inévitable, peut être considéré comme étant dû au « changement climatique ». La corrélation devient ici facilement un lien de cause à effet.

Le terme « changement climatique » a rapidement été associé au scientisme, où il est devenu synonyme de « solutions » au « changement climatique ». En raison de cette erreur, les doutes exprimés sur les prétendues solutions ont valu à leurs auteurs d’être qualifiés de « négationnistes du changement climatique » — une appellation absurde, car aucun scientifique en fonction, pas un seul, ne nie que le climat de la terre change ou qu’il n’est pas affecté par l’homme.

La secrétaire américaine au Trésor, Janet Yellen, a récemment déclaré que « le changement climatique est une menace existentielle » et que « le monde deviendra inhabitable » si — vous connaissez la suite — nous n’agissons pas. Le mot « inhabitable » est très fort. En 2021, Rode et Fischbeck ont examiné les prédictions apocalyptiques en matière d’environnement et ont découvert que le délai moyen jusqu’à la fin, pour ceux qui affirment que nous « devons agir maintenant », comme l’a fait Mme Yellen, est d’environ neuf ans.

Les prédictions du type « il ne reste que neuf ans » ont commencé progressivement, dans les années 1970. Aujourd’hui, elles se produisent régulièrement. Ce qui est amusant avec ces prévisions, c’est que l’échec n’est jamais pris en compte dans la théorie. Ce qui est un autre obstacle à la falsification.

C’est une histoire à part entière. Jetons plutôt un coup d’œil à la science du « changement climatique ». Non à la thermodynamique ou à la physique des fluides, qui sont trop vastes pour nous ici, mais aux choses dont on prétend qu’elles vont mal tourner à cause du « changement climatique ».

C’est-à-dire tout. Il n’y a aucun mal qui ne sera pas exacerbé par le « changement climatique », et il n’y a aucune bonne chose qui échappera à la dégradation. Le « changement climatique » entraînera simultanément la prolifération de toutes les bêtes, de tous les insectes et de toutes les mauvaises herbes qui constituent une menace au développement, et il corrompra ou tuera tous les animaux à poils, délicieux et photogéniques.

Un confrère au Royaume-Uni collectionne ce genre de documents. Le total de sa « liste chaude » s’élève actuellement à environ 900 articles scientifiques, une sous-estimation. Les universitaires ont prouvé, à leur satisfaction, que le « changement climatique » causera ou exacerbera (il suffit de lire les quelques premiers) [1] : SIDA, destruction des pavots afghans, holocauste africain, décès par âge, pavots plus puissants, Afrique dévastée, Afrique en conflit, aide africaine menacée, mauvaises herbes agressives, crash d’Air France, poches d’air, changements de pression atmosphérique, adieux virtuels à l’aéroport, malaria à l’aéroport, courant des Aiguilles, villes d’Alaska lentement détruites, Al-Qaïda et les Talibans aidés, augmentation des allergies, allongement de la saison des allergies, [et mon préféré] alligators dans la Tamise ! Et nous sommes loin d’avoir fini avec la lettre A.

Il n’y a pas une seule étude, à ma connaissance, qui explique comment une légère augmentation de la température moyenne mondiale entraînera une augmentation des après-midi d’été chauds et agréables.

Le fait qu’un petit changement dans le climat de la terre, qu’il soit causé par l’homme ou non, ne puisse être considéré que comme totalement et entièrement mauvais, et ne puisse en aucun cas être bon, est une preuve suffisante, je pense, que la science s’est terriblement égarée. Ce n’est pas logiquement impossible, bien sûr, mais nous ne pouvons le croire.

Cependant, cela ne dit pas comment ces croyances sont générées. Elles se produisent par certaines des raisons que nous avons déjà mentionnées, mais aussi par l’oubli de la multiplication des incertitudes.

Compte tenu de la connaissance des pièces de monnaie, la probabilité d’obtenir Face lors d’un tirage est de la moitié. Deux Faces d’affilée est un quart : les incertitudes sont multipliées. Trois d’affilée, c’est un huitième ; quatre, c’est un sur seize. Si l’événement qui nous intéresse est cette série de quatre Faces, nous devons annoncer une faible probabilité d’environ 6 %. Ce serait une erreur évidente, et une maladresse mathématique stupide, de dire que la probabilité est de « la moitié » parce que la probabilité de la dernière Face est de la moitié. Et il serait scandaleux de titrer « La Terre verra une Face au dernier lancer ». D’accord ?

Mais c’est exactement comme cela que les histoires d’épouvante sur le « changement climatique » sont produites. Nous disposons tout d’abord d’un modèle de changement climatique et de la manière dont l’homme peut affecter le climat. Il n’y a qu’une chance que ce modèle soit correct. Ce n’est pas certain. Nous disposons ensuite d’un modèle météorologique, qui s’appuie sur le modèle climatique, et qui indique comment la météo changera lorsque le climat changera. Ce modèle n’est pas certain non plus. Nous disposons ensuite d’un troisième modèle, qui explique comment un élément important — le bien-être d’un animal ou l’importance de la production de café, par exemple — est affecté par le temps qu’il fait. Ce troisième modèle n’est pas certain. Nous disposons enfin, ou éventuellement, d’un quatrième modèle, qui montre comment une solution empêchera cette mauvaise chose de se produire. Ce modèle est également incertain.

À la fin, on annoncera : « Nous devons faire X pour arrêter Y ». Cela équivaut à « La Terre va voir une Face ». Langage causal. Ce qui, nous en sommes convenus, était une erreur.

La chaîne d’incertitudes doit être multipliée. Plus la chaîne est grande, plus l’ensemble doit être incertain. On ne s’en souvient jamais, mais il faut s’en souvenir, surtout lorsque le nombre des affirmations augmente presque sans limites.

6. Le scientisme.

Pascal a commenté « La vanité des sciences » :

La science des choses extérieures ne me consolera pas de l’ignorance de la morale au temps d’affliction, mais la science des mœurs me consolera toujours de l’ignorance des sciences extérieures.

Le scientisme est la croyance erronée que la science a toutes les réponses, que tout doit être fait au nom de la science ou justifié par elle. Pourtant, la science ne peut pas distinguer le bien du mal, le bon du mauvais. J’aurais aimé avoir le temps pour disséquer le scientisme en profondeur ; ses effets sont vastes et dévastateurs. Je ne mentionnerai que la drogue d’introduction au scientisme sérieux, que j’appelle le « scientisme de premier type ». Il s’agit d’annoncer comme « prouvées » par la science des connaissances qui sont évidentes ou qui sont connues depuis les confins de l’histoire. Cela encourage la croyance en des formes plus fortes et plus sombres de scientisme.

Des exemples ? Un groupe a cherché à savoir si les ordinateurs portables distrayaient les étudiants dans les salles de classe. L’armée a engagé une société pour étudier s’il existe des différences de capacités physiques entre les sexes.

Devinez ce qu’ils ont tous deux « découvert ».

7. Le péché mortel de la réification : confondre les modèles avec la réalité

Nous sommes ici en terrain difficile, car plus nous nous approchons de la véritable nature de la causalité, qui exige une compréhension claire de la métaphysique, plus les erreurs commises sont subtiles et difficiles à décrire. De plus, je vous ai retenu assez longtemps. Je ne donnerai donc qu’un seul exemple du péché mortel, sous deux formes.

J’espère que vous êtes d’accord avec moi pour dire qu’il serait manifestement faux de dire que Y n’a pas été ou ne peut pas être observé, alors que Y a en fait été observé, parce qu’une théorie X dit que Y n’est pas possible. Oui ?

Cette erreur est fréquente. X est un modèle ou une théorie chérie, et Y une observation qui est raillée, rejetée ou « niée » parce qu’elle ne concorde pas avec la théorie.

Cela se produit dans les sciences les moins importantes, comme la radiesthésie ou l’astrologie, où les praticiens nient leurs erreurs par réflexe. Mais c’est également le cas, avec une fréquence élevée et persistante, dans les plus grandes sciences, comme la physique.

L’exemple le plus tristement célèbre de Y est le libre arbitre. Il existe bien sûr des subtilités dans sa définition, mais pour nous, n’importe quel usage courant suffira. Nous constatons tous que nous disposons du libre arbitre : nous sommes confrontés à des choix, nous les faisons.

Pourtant, certaines théories, comme celle du déterminisme, qui affirme qu’il n’existe que des particules aveugles obéissant à ce que l’on appelle mystérieusement des « lois », prouvent que le libre arbitre est impossible. C’est le cas, aussi. Prouvez-le. Si nous acceptons le déterminisme. Ce que beaucoup font.

Parce que les scientifiques sont des personnes bienveillantes et qu’ils veulent ce qu’il y a de mieux pour l’homme, le fait de dire que le déterminisme rend le libre arbitre impossible conduit à une série interminable de documents et d’articles contenant ce même message profond et hilarant : si seulement nous pouvons convaincre les gens qu’ils ne peuvent pas faire de choix, ils feront de meilleurs choix ! Je vous promets que vous verrez une version de cette phrase dans chaque article contre le libre arbitre.

Cela conduit également à la mini-panique actuelle à propos de l’« IA », ou « intelligence artificielle ». Ce qu’elle n’est pas : de l’intelligence. Tous les modèles ne disent que ce qu’on leur dit de dire — une vérité philosophique qui, oubliée, conduit au scientisme — et l’IA n’est qu’un modèle. L’IA n’est rien d’autre qu’un abaque, qui fait ses calculs sous la direction d’une intelligence réelle avec des billes de bois, les billes étant remplacées par des différences de potentiel électrique.

Mais comme l’attrait et l’amour de la théorie sont trop forts, on pense que l’intelligence de l’ordinateur « émergera » d’une manière ou d’une autre en une véritable intelligence, tout comme le comportement des grands objets est censé « émerger » des interactions quantiques.

Je vais en contrarier plus d’un en disant qu’il s’agit toujours d’un bluff, d’un grand bluff. Il n’existe aucune preuve causale de l’« émergence » : s’il y en avait une, elle serait donnée. Parler d’émergence est toujours un vœu pieux, reflétant le désir de ne pas remettre en question la philosophie de ce que le philosophe Robert Koons et d’autres appellent le « microphysicalisme », l’ancienne idée démocritienne selon laquelle tout n’est que des particules qui s’entrechoquent.

Il existe des alternatives à cette philosophie, comme le renouveau de la métaphysique aristotélicienne, qui ferait des merveilles pour la mécanique quantique si elle était mieux connue. Malheureusement, nous n’avons pas le temps de les aborder.

Le péché mortel de la réification, qui consiste à confondre les modèles avec la réalité, est bien plus grave qu’il n’y paraît. Il conduit à des créations étranges et non testables, telles que le multivers et les « mondes multiples » en physique, la théorie du genre et tout ce qu’ils ont produit.

Fin

Voilà ce que j’ai à dire sur la mauvaise science. Peut-être ai-je tort. Je terminerai donc par les mots scientifiques les plus fréquemment utilisés : Des recherches supplémentaires sont nécessaires.

Texte original : https://www.netzerowatch.com/science-is-broken-2/