Bixonimania : comment l’IA a transformé un diagnostic inventé en « médecine évaluée par les pairs » par Leslie Eastman

Un chercheur a inventé une fausse affection oculaire appelée bixonimanie, a téléversé deux articles manifestement frauduleux à son sujet sur un serveur académique, et a vu les principaux systèmes d’IA la présenter comme une réalité médicale en quelques semaines.

Des chercheurs suédois ont créé une fausse maladie oculaire pour voir si des chatbots (agents conversationnels) d’IA la répéteraient comme si elle était réelle. Les résultats n’avaient rien de drôle.

À la fin de l’année dernière, j’ai mis en garde contre la quantité stupéfiante de fraude scientifique non contrôlée publiée via des usines à articles et des revues fantômes.

Cette tendance est particulièrement inquiétante, car l’adhésion à la théorie scientifique et à des recherches rigoureuses et reproductibles permet à l’humanité de progresser dans des domaines critiques essentiels à la vie civilisée (par exemple, la médecine, l’énergie, la santé publique et la sécurité nationale). Si nous ne pouvons plus faire confiance aux données, notre capacité à améliorer et à innover sera gravement compromise.

La confiance du public dans la recherche scientifique s’érode déjà, et des résultats erronés présentés comme « fiables » ont déjà influencé l’élaboration des décisions publiques de manière coûteuse et nuisible.

Or, l’adoption rapide de l’intelligence artificielle ajoute désormais une dimension encore plus troublante à la distorsion croissante de la « science ».

En 2024, des chercheurs ont créé une fausse maladie oculaire appelée « bixonimanie » afin de voir si des agents conversationnels d’IA la répéteraient comme si elle était réelle.

Ils ont rédigé des articles de recherche manifestement frauduleux sur cette affection inventée et les ont publiés en ligne, en y glissant des indices évidents, tels qu’un faux auteur et des notes précisant que le travail était fictif. En quelques semaines, les principaux agents conversationnels ont commencé à décrire la bixonimanie comme un véritable diagnostic et ont même donné des conseils aux personnes qui posaient des questions sur des symptômes oculaires.

Cette invention est le fait d’une équipe dirigée par Almira Osmanovic Thunström, chercheuse en médecine à l’Université de Göteborg, en Suède, qui a imaginé cette affection cutanée avant de téléverser deux fausses études à son sujet sur un serveur de prépublications au début de 2024. Osmanovic Thunström a mené cette expérience inhabituelle pour tester si les grands modèles de langage (LLM) absorberaient la désinformation pour ensuite la restituer sous forme de conseils de santé réputés fiables. « Je voulais voir si je pouvais créer une affection médicale qui n’existait pas dans la base de données », explique-t-elle.

Le problème est que l’expérience a trop bien fonctionné. En quelques semaines après la mise en ligne des informations sur cette affection, attribuées à un auteur fictif, les principaux systèmes d’intelligence artificielle ont commencé à répéter cette condition inventée comme si elle était réelle.

Plus inquiétant encore, selon d’autres chercheurs, ces faux articles ont ensuite été cités dans la littérature évaluée par les pairs. Osmanovic Thunström estime que cela suggère que certains chercheurs s’appuient sur des références générées par l’IA sans lire les articles sous-jacents.

Les prépublications mentionnaient une université inexistante, « Asteria Horizon University », située à « Nova City, Californie ». On y trouvait également une référence à la « Starfleet Academy » (même si une référence supplémentaire au Dr Leonard McCoy aurait été un joli clin d’œil).

Les réponses des agents conversationnels décrivaient pourtant la bixonimanie avec assurance, comme une réalité.

Le 13 avril 2024, Copilot de Microsoft Bing affirmait que « la bixonimanie est effectivement une affection intrigante et relativement rare », et, le même jour, Gemini de Google informait les utilisateurs que « la bixonimanie est une affection causée par une exposition excessive à la lumière bleue » et conseillait de consulter un ophtalmologiste.

Le 27 avril 2024, le moteur de réponses Perplexity AI en décrivait la prévalence — une personne sur 90 000 serait touchée — et ce même mois, ChatGPT d’OpenAI indiquait aux utilisateurs si leurs symptômes correspondaient à une bixonimanie. Certaines de ces réponses faisaient suite à des questions directes sur la bixonimanie, d’autres à des questions sur une hyperpigmentation des paupières liée à l’exposition à la lumière bleue.

Un chercheur a inventé une fausse affection oculaire appelée bixonimanie, a téléversé deux articles manifestement frauduleux à son sujet sur un serveur académique, et a vu les principaux systèmes d’IA la présenter comme une réalité médicale en quelques semaines. Les faux articles remerciaient la Starfleet Academy et mentionnaient un financement provenant de…

– Hedgie (@HedgieMarkets), 10 avril 2026

L’expérience de Thunström révèle de manière frappante le peu de vérification dont fait l’objet la « science » censée inspirer confiance, puisque ses soumissions de test étaient truffées de signaux d’alerte qui auraient dû être évidents pour quiconque lisait réellement le texte. Des références à cette fausse recherche se sont retrouvées dans une publication « évaluée par les pairs ».

  • Trois chercheurs de l’Institut Maharishi Markandeshwar des sciences médicales et de la recherche, en Inde, ont publié un article dans Cureus, une revue à comité de lecture éditée par Springer Nature, qui citait les prépublications sur la bixonimanie comme des sources légitimes.

  • Cet article a ensuite été rétracté une fois la supercherie découverte.

Le problème dépasse largement une seule fausse maladie. Le rapport 2026 de l’ECRI sur les risques liés aux technologies de la santé a révélé que des agents conversationnels ont proposé des diagnostics incorrects, recommandé des examens inutiles, promu des fournitures médicales de qualité inférieure et même inventé des éléments anatomiques inexistants en réponse à des questions médicales. Le tout est présenté avec le ton assuré et autoritaire qui rend les réponses de l’IA si convaincantes.

L’ampleur du risque est énorme. Selon une analyse d’OpenAI, plus de 40 millions de personnes se tournent chaque jour vers ChatGPT pour obtenir des informations de santé. À mesure que la hausse des coûts des soins et la fermeture de cliniques réduisent l’accès aux services médicaux, de plus en plus de patients risquent d’utiliser les agents conversationnels comme substitut à un avis médical professionnel.

Lorsqu’un diagnostic inventé pour plaisanter se transforme en recherche « évaluée par les pairs », il devient clair que la crise de crédibilité scientifique ne se limite plus à des recherches bâclées ou à des revues corrompues, mais qu’elle s’étend désormais aux algorithmes sur lesquels de nombreuses personnes comptent pour obtenir des réponses à des questions de santé sérieuses.

Les fausses informations et les données erronées peuvent — et vont — être réinjectées par l’IA pour servir de base à une « science » inutile, voire potentiellement nuisible. Cette situation n’a absolument rien de drôle.

Je crains qu’il faille encore beaucoup de temps avant que nous puissions maîtriser les recherches frauduleuses et l’utilisation de fausses informations par l’IA.

Leslie Eastman : Professionnelle en santé, sécurité et environnement, rédactrice scientifique et technique pour divers médias et publications professionnelles. Militante citoyenne depuis 2009, elle est cofondatrice du groupe Southern California Tax Revolt Coalition, basé à San Diego

Texte original publié le 13 avril 2026 : https://legalinsurrection.com/2026/04/bixonimania-how-ai-turned-a-joke-diagnosis-into-peer-reviewed-medicine/