Annonce publicitairespot_img
AccueilScienceQuand une maladie inventée piège l’intelligence artificielle et s’invite dans une revue...

Quand une maladie inventée piège l’intelligence artificielle et s’invite dans une revue médicale

Avoir les paupières qui démangent, les yeux irrités, le contour de l’œil un peu plus sombre après des heures passées devant un écran. Rien que de très banal, a priori. Et pourtant, ces derniers mois, si vous aviez soumis ces symptômes à des outils d’intelligence artificielle (IA), vous auriez pu obtenir un diagnostic : vous souffrez sans doute de bixonimanie. À ceci près qu’une telle réponse pose un vrai problème. Et pour cause : cette maladie n’existe pas.

Elle a été inventée de toutes pièces par une chercheuse en neurosciences et psychiatrie, Almira Osmanovic Thunström (université de Göteborg, Suède), dans le cadre d’une expérience visant à tester la capacité des grands modèles de langage (LLM) à intégrer et diffuser de fausses informations médicales. Cette équipe de recherche voulait mesurer la vulnérabilité des agents conversationnels intelligents les plus utilisés, tels que ChatGPT, Gemini, Copilot ou Perplexity, face à des infox en matière de santé.

Ils n’ont pas été déçus ! En quelques semaines, le nom de cette nouvelle maladie (bixonimanie) a été intégré, répété, recyclé par plusieurs systèmes d’IA, jusqu’à se retrouver cité dans un article publié dans une revue médicale censée avoir un comité de lecture. Cet épisode a été raconté par le journaliste Chris Stokel-Walker dans un article publié sur le site web de la revue Nature.

Une pathologie inventée de toutes pièces

La bixonimanie apparaît pour la première fois en mars 2024 sur le site internet américain Medium, une plateforme de blogs. Cette pathologie correspond à une hyperpigmentation périorbitaire, autrement dit à une coloration rose foncé du contour des yeux, associée à des démangeaisons des paupières du fait d’une inflammation. Autant de symptômes qui seraient imputables à une exposition prolongée à la lumière bleue des écrans.

Afin de donner plus de crédit à son expérience, la chercheuse de l’université de Göteborg décide de fabriquer deux « faux » pour accréditer l’existence de cette nouvelle maladie fictive. Elle met en ligne, en avril et en mai 2024, deux prépublications (preprints) sur la plateforme SciProfiles, un réseau social académique en accès libre où des chercheurs peuvent immédiatement présenter leurs travaux avant évaluation par les pairs.

Ces deux articles sont signés par un certain Lazljiv Izgubljenovic, affilié à l’Asteria Horizon University, basée à Nova City, Californie. Cette université et cette ville sont totalement fictives. Le prénom de l’auteur, Lazljiv, en serbe/croate, signifie menteur, mensonger. Quant au nom, il est improbable.

Derrière cette mise en scène, le projet de la chercheuse suédoise est clair : implanter une entité médicale factice dans le paysage numérique, puis observer comment les LLM vont l’ingérer, la reformuler et la propager dans leurs réponses aux internautes.

Une supercherie intentionnellement facile à repérer pour un humain

L’expérience n’a pas été conçue pour piéger des cliniciens, mais pour qu’un lecteur humain, un tant soit peu attentif, comprenne qu’il s’agit d’une supercherie. Les signaux d’alerte sont en effet nombreux et totalement assumés. D’abord, le nom lui-même : « bixonimanie ».

Osmanovic Thunström dit avoir choisi un terme volontairement incongru dans un tel contexte clinique. Aucun trouble oculaire ne reçoit le suffixe « -mania », réservé aux affections neuropsychiatriques.

Mais ce n’est pas tout. Dans la section « Remerciements », adressée aux principaux acteurs qui ont aidé ou soutenu l’équipe de recherche, ainsi qu’aux sources de financement de l’étude, les auteurs louent « la professeure Maria Bohm, de l’Académie de Starfleet, pour sa gentillesse et sa générosité en partageant ses connaissances et son laboratoire à bord de l’USS Enterprise ».

On y apprend aussi que le financement a été assuré… par un personnage de la série télévisée d’animation The Simpsons (Professor Sideshow Bob Foundation for its work in advanced trickery)… dans le cadre d’un programme porté par l’université de la communauté de l’Anneau et de la triade galactique (University of Fellowship of the Ring and the Galactic Triad).

Plus encore, certains passages lèvent carrément le voile sur cette supercherie. Le texte des préprints commence avec des formules du type « this entire paper is made up » (la totalité de cet article est inventé) et précise que « fifty made-up individuals aged between 20 and 50 years were recruited for the exposure group » (cinquante individus inventés, âgés de 20 à 50 ans, ont été recrutés pour le groupe exposé).

Autant d’indices qu’une personne lisant cet article sur une prétendue nouvelle maladie caractérisée par une inflammation des paupières et du pourtour des yeux ne peut manquer de révéler, sans sourciller, si j’ose dire !

Des modèles de langage qui avalent des récits médicaux fantaisistes

Les LLM sont entraînés sur des corpus de texte gigantesques, qui combinent articles scientifiques en ligne, billets de blogs, textes institutionnels et divers contenus du web indexés dans de grandes bases comme Common Crawl. Une fois le billet publié sur Medium et les préprints en ligne, il ne restait plus qu’à attendre pour voir si ces textes allaient être absorbés et digérés par les outils d’IA générative.

La réponse ne s’est pas fait attendre. Dès mi‑avril 2024, Copilot, chatbot conversationnel de Microsoft, présente la bixonimanie comme une affection « intrigante et relativement rare ». Le même jour, Gemini, l’IA de Google, explique qu’il s’agit d’une maladie causée par une « exposition excessive à la lumière bleue » et recommande de consulter un ophtalmologiste.

Le moteur de recherche conversationnel Perplexity indique la prévalence de cette pathologie émergente : une personne sur 90 000, comme s’il s’agissait d’une estimation issue d’études épidémiologiques.

De son côté, ChatGPT, l’assistant d’IA développé par OpenAI, informe, selon les réponses, que la bixonimanie est un diagnostic à envisager quand ces symptômes apparaissent ou intègre cette entité médicale dans la liste des troubles pouvant être associés à la fatigue oculaire liée aux écrans et à l’hyperpigmentation périorbitaire.

Selon les cas, ces réponses apparaissent lorsque l’utilisateur demande directement des informations sur la bixonimanie, tandis que d’autres la mentionnent lorsque l’internaute se contente de lister des symptômes banals (démangeaisons, assombrissement des paupières, exposition à la lumière bleue) pour demander un avis.

En 2026 toujours, les réponses de ces agents conversationnels restent inconstantes : selon la formulation, un même outil d’IA générative peut reconnaître qu’il s’agit probablement d’un terme inventé ou, au contraire, la décrire comme un « nouveau sous-type de mélanose périorbitaire » lié aux écrans.

Quand la fiction contamine la littérature scientifique

Tout aurait dû en rester là, en l’occurrence à une curiosité confinée à ces assistants virtuels. Mais la bixonimanie a réussi à franchir la barrière de la littérature scientifique.

En novembre 2024, trois chercheurs du Maharishi Markandeshwar Institute of Medical Sciences and Research (Mullana, Inde) publient dans la revue en ligne Cureus une étude descriptive sur la mélanose périorbitaire (periorbital melanosis, POM). On y parle des signes cliniques, de l’évaluation dermoscopique, du retentissement psychologique et de l’impact sur la qualité de vie. L’article, qui porte sur 250 patients vus en consultation de dermatologie, évoque aussi les facteurs de prédisposition génétiques, le style de vie, les durées de sommeil et les temps d’écran, les éventuelles comorbidités et traitements antérieurs. Les auteurs utilisent plusieurs échelles pour mesurer l’impact psychosocial de cette vraie pathologie dermatologique qui se caractérise par une hyperpigmentation du contour des yeux, liée à un excès de mélanine dans la peau.

C’est dans ce contexte très sérieux que le terme « bixonimania » apparaît, comme pour appuyer leurs propos sur la maladie réelle dont ils parlent et qui n’a pourtant rien à voir.

L’article décrit donc, au passage, la bixonimanie comme une « forme émergente de mélanose périorbitaire (POM) liée à l’exposition à la lumière bleue, ajoutant que des recherches supplémentaires sont en cours pour en préciser le mécanisme. L’habitude de se frotter régulièrement les yeux a également été mise en cause dans le développement de la POM, peut-être en raison de facteurs environnementaux ou d’un comportement compulsif ».

Ce passage s’appuie sur une référence bibliographique renvoyant en réalité à l’un des préprints fictifs d’Almira Osmanovic Thunström : Bixonimania : A Study of Blue Light’s Effects on Periorbital Hyperpigmentation of the Eyelids — a Randomized Controlled Trial (RCT) Using an r‑BS Design. Là encore, il faut comprendre qu’il n’existe aucun « plan r‑BS » en méthodologie des essais cliniques randomisés. L’abréviation renvoie à real bullshit, que l’on pourrait traduire, en bon français, par « vraie connerie ».

Autrement dit, une maladie inventée, truffée d’invraisemblances, a été intégrée comme entité émergente dans une étude clinique sur un symptôme dermatologique banal et bien connu : l’hyperpigmentation péri‑orbitaire post‑inflammatoire, c’est‑à‑dire des taches irrégulières brunes ou grises autour des yeux, autrement dit sur des cernes pigmentés pouvant constituer un préjudice esthétique.

Tout laisse donc à penser que cette référence à un article bidon a été ajoutée à la bibliographie de l’article publié dans Cureus sans que ni les auteurs, ni les relecteurs, ni même l’éditeur ne prennent la peine de la vérifier. Le plus probable est qu’ils se sont tous laissés abuser par une suggestion ou un résumé généré par une IA.

C’est seulement après qu’Almira Osmanovic Thunström a dévoilé son expérience, et qu’elle a été relayée par plusieurs médias britanniques et indiens (dont Nature, The Print et NDTV), que Cureus a décidé de rétracter l’article en mars 2026, en mentionnant la présence de trois références « non pertinentes », dont une renvoyant à une maladie fictive. Les auteurs ont contesté la décision, mais la rétractation a été maintenu.

Citée par Nature, Alex Ruani, chercheuse travaillant sur la désinformation en matière de santé à l’University College London, souligne que le problème ne se limite pas aux LLM : « C’est une leçon magistrale sur la mésinformation et la désinformation. Ça a l’air drôle, mais attendez un peu, on a un problème là ».

Un épisode qui constitue un message d’alerte

En effet, si la chaîne de production scientifique (auteurs, relecteurs, éditeurs) ne parvient pas à filtrer une référence bibliographique aussi farfelue, cela révèle les failles du système d’édition scientifique : la facilité d’infiltrer une information erronée dans l’écosystème numérique, où elle est ensuite amplifiée, validée, et reprise par des médecins et chercheurs dans leurs publications.

Cet épisode sonne comme un signal d’alarme. Dans le domaine médical, où la fiabilité de l’information est cruciale, sa diffusion – même restreinte aux cliniciens et chercheurs, même transitoire – peut entraîner des conséquences graves.

Le rôle du vernis médical dans les « hallucinations » des IA

Pourquoi cette supercherie, pourtant grossière, a-t-elle aussi bien fonctionné ? Une partie de la réponse tient au format des données médicales et scientifiques sur lesquelles les LLM s’entraînent. En effet, la forme peut suffire à conférer une apparence de contenu valide, indépendamment du fond.

Publiée en janvier 2026 dans la revue The Lancet Digital Health, une étude américaine dirigée par Mahmud Omar (Mount Sinai Health System, New York) a montré que les LLM hallucinent davantage – produisent des affirmations fausses, mais formulées avec une grande assurance – lorsque le texte sur lequel elles s’entraînent adopte les codes formels du discours médical professionnel (compte rendu hospitalier, article de revue scientifique) plutôt qu’un style informel, de type réseau social. Dès que le texte ressemble à ce qu’écrirait un médecin ou un chercheur, le modèle d’IA est plus enclin à le considérer comme valide et élaboré et donc à le considérer comme plausible, acceptable, intéressant.

Des fake news ingurgitées par l’IA et réinjectées dans des contenus

Dans le cas de la bixonimanie, les préprints ont été rédigés, structurés et maquettés, en incluant tous les codes éditoriaux de vrais articles : titre, résumé (abstract), sections « méthodes » et « résultats », références bibliographiques, avec un langage pseudo‑technique, malgré, répétons-le, des clins d’œil évidents à Star Trek et à des personnages de fiction. Les modèles d’IA n’y voyant que du feu, ces données sont devenues des objets textuels valides, au même titre que d’autres publications médicales.

Résultat : les éléments d’information qu’ils contenaient – définition de la bixonimanie, association à la lumière bleue, données de prévalence farfelues – se sont retrouvés réinjectés dans les réponses des assistants d’IA aux utilisateurs.

L’équipe d’Almira Osmanovic Thunström ne s’est pas lancée à la légère dans cette expérience de publication médicale bidon. Inventer une maladie, même bénigne et l’injecter dans la littérature scientifique comporte un risque éthique évident, surtout dans le champ de la médecine. Pour limiter ce risque, elle avait consulté un conseiller en éthique et avait choisi une maladie sans aucun enjeu vital direct, sans compter qu’elle avait multiplié les indices humoristiques et les aveux explicites que tout cela n’était que pure invention.

Le choix du thème – lumière bleue, écrans, fatigue oculaire, cernes pigmentés – n’est évidemment pas anodin. Ces sujets, déjà saturés de discours marketing, de demi-vérités scientifiques et d’inquiétudes relayées par une presse papier et en ligne, gagnent mécaniquement en crédibilité lorsqu’une entité pseudo-médicale bien ficelée s’y ajoute, sans recul critique.

Mais la leçon la plus troublante réside ailleurs : la bixonimanie n’a pas seulement trompé des algorithmes. Elle a piégé des humains : médecins intégrant une référence de preprint sans la lire, relecteurs aveugles aux indices grossiers, éditeur imperméable aux signaux d’alarme. Dans ce cas, l’IA n’a fait qu’amplifier, accélérer et diffuser à grande échelle notre propension à créditer trop vite un discours scientifique apparemment validé.

Interrogées après coup, les entreprises d’IA ont tenus un même discours, à l’unisson : leurs modèles se seraient améliorés, les versions récentes seraient plus prudentes et plus fiables sur les sujets médicaux, notamment les informations médicales sensibles. Certaines plateformes insistent sur la présence de messages d’avertissement selon lesquels l’IA ne remplace pas l’avis d’un professionnel de santé.

Quand de « faux » articles testent le système d’édition scientifique

L’histoire de la bixonimanie pourrait passer pour une curiosité propre à l’ère des IA génératives. En réalité, elle s’inscrit dans une tradition plus ancienne : celle de chercheurs, journalistes ou blogueurs qui ont délibérément fabriqué de faux articles ou des études absurdes pour tester la solidité du système de publication scientifique.

Ces canulars vont au-delà de la simple farce : ils agissent comme des tests de résistance éditoriale, de véritables « stress tests » révélant les failles du système. Revues prédatrices, peer-reviews (relecture par les pairs) purement formels, citations sans lecture des articles princeps, emballement médiatique peu scrupuleux sur la vérification des sources : tout y est pris en défaut.

Trois exemples, parmi d’autres, permettent de mesurer ce que ces fake news (ou infox) révèlent du fonctionnement de l’écosystème des publications médicales et scientifiques.

Un article parodique de Star Wars, publié comme si de rien n’était

Dans le prolongement de l’affaire de la bixonimanie, un autre canular devenu classique illustre de façon presque caricaturale les dérives de certaines revues scientifiques. En 2017, Neuroskeptic, un neuroscientifique, par ailleurs blogueur anonyme, a voulu tester plusieurs journaux en accès libre. Il a rédigé une fausse étude consacrée aux midi-chloriens, ces micro‑organismes de l’univers de Star Wars censés conférer aux Jedi leur sensibilité à la Force.

Pour fabriquer son manuscrit, il a recopié en grande partie la page Wikipédia sur les mitochondries, ces organites qui assurent la production d’énergie dans les cellules. Il remplace systématiquement le mot mitochondrie par « midi‑chlorien », puis retouche légèrement le texte pour masquer le plagiat tout en prenant soin de conserver des éléments volontairement absurdes.

Le résultat est sans ambiguïté pour quiconque connaît un tant soit peu l’univers de Star Wars, saga cinématographique créée par George Lucas. On y apprend notamment que le cycle de Krebs devient un « Kyloren cycle », que l’ADN mitochondrial se transforme en midichloria DNA (mtDNRey), ou encore que des anomalies des midi‑chloriens pourraient être impliquées dans des maladies neurologiques.

Une note de bas de page reconnaît d’ailleurs explicitement que l’essentiel du texte provient de Wikipédia. En outre, le manuscrit est émaillé de références explicites à la saga, jusqu’à des répliques attribuées à Palpatine. Autant dire que tout est fait pour signaler que ce texte est une supercherie.

Les clins d’œil ne s’arrêtent pas au contenu. Les deux auteurs affichés, Lucas McGeorge et Annette Kin, sont un clin d’œil malicieux à George Lucas et Anakin Skywalker, histoire de rendre la supercherie encore plus facile à repérer.

Neuroskeptic envoie le manuscrit à neuf revues se présentant comme « peer‑reviewed », c’est-à-dire doté d’un comité de relecture par les pairs. Quatre tombent dans le piège, malgré les indices grossiers de l’étude. Trois acceptent et publient l’article tel quel. Une quatrième se déclare prête à le faire, moyennant environ 360 dollars de frais de publication.

Plus troublant encore, certains relecteurs, semblant avoir perçu la plaisanterie, ajoutent des références bibliographiques tout aussi fictives, du style « Lucas et al., 1977 », « Palpatine et al., 1980 » ou « Calrissian et al., 1983 », achevant de transformer ce pseudo‑article en pastiche assumé de la saga Star Wars.

Des revues prédatrices, peu scrupuleuses

Ce canular met en lumière un phénomène désormais bien documenté : celui des revues prédatrices, qui offrent une publication rapide contre paiement, sans véritable évaluation par les pairs. Dans ce contexte, la validation scientifique n’est plus qu’une formalité, voire une illusion, et le processus d’évaluation par les pairs se réduit à un argument marketing plutôt qu’à un véritable filtre de qualité.

Neuroskeptic le souligne : son expérience ne prouve évidemment pas que toute l’édition scientifique est défaillante, mais rappelle que, dans certains journaux publiant des articles prétendument relus par les pairs, il n’existe en réalité aucune véritable relecture.

Un canular médical à pisser de rire

Dans le même esprit que l’affaire des midi‑chloriens, l’« uromycitisis » illustre, de façon tout aussi éloquente, les dérives de certaines revues prédatrices. Un entrepreneur spécialisé dans l’édition scientifique, John McCool, qui n’est ni urologue, ni même médecin, reçoit un jour une invitation non sollicitée à soumettre un article à une revue d’urologie en libre accès, l’Urology & Nephrology Open Access Journal (groupe d’édition MedCrave). Soupçonnant une revue prédatrice, il décide de tendre un piège en s’inspirant de la culture populaire américaine, plus précisément d’un épisode de la série télévisée humoristique Seinfeld.

Il rédige alors un faux cas clinique au titre impeccablement académique : « Uromycitisis Poisoning Results in Lower Urinary Tract Infection and Acute Renal Failure : Case Report » (Intoxication par uromycitisis entraînant une infection des voies urinaires inférieures et une insuffisance rénale aiguë : rapport de cas). Derrière cette apparence sérieuse se cache une maladie purement fictive, l’« uromycitisis », censée toucher « plus de 2 000 adultes par an aux États-Unis » et résulter d’une incapacité prolongée à vider la vessie.

Selon l’article, cette affection pourrait évoluer vers une pathologie grave : douleurs pelviennes, fièvre et, sans traitement rapide, insuffisance rénale aiguë potentiellement mortelle.

L’argumentaire pseudo-médical vire au burlesque : les patients devraient uriner « à tout moment et en tout lieu », sous peine de complications graves. Certaines juridictions dites « progressistes » auraient même instauré des « licences de miction publique » ou « permis d’uriner en public » pour raisons médicales, censés protéger ces patients de sanctions.

Le cas clinique rapporté est un modèle du genre. Il met en scène un homme de 37 ans, errant plus d’une heure dans un parking à la recherche de sa voiture, avant d’être soudain saisi d’un besoin impérieux d’uriner. Privé de toilettes et, circonstance aggravante, de son fameux « permis d’uriner en public » subtilisé par son frère, il est intercepté par un agent de sécurité au moment fatidique.

Incrédules face à ses explications, les autorités l’empêchent de se soulager pendant près de trois heures — délai que l’auteur juge largement suffisant pour déclencher une intoxication par « uromycitisis », avec douleurs intenses, nausées, tremblements, aboutissant à une hospitalisation en urgence pour infection urinaire basse compliquée d’insuffisance rénale aiguë.

Le canular est poussé très loin : McCool signe l’article sous le nom de Dr Martin van Nostrand, pseudonyme utilisé par Kramer dans la série Seinfeld, et ajoute comme coauteurs d’autres figures secondaires de la série. Il invente aussi le nom de l’établissement médical dans lequel il exerce et truffe la bibliographie de références manifestement bidon.

Tout, dans le choix des noms, des institutions et des citations, est pensé pour signaler que l’on évolue dans l’univers de Seinfeld plutôt que dans celui de la médecine fondée sur les preuves.

La réaction de la revue est édifiante. Moins d’une heure après la soumission, le journal accuse réception en annonçant que le manuscrit est accepté pour un processus de peer‑review. Trois jours plus tard, les rapports des prétendus reviewers tombent : quelques remarques purement formelles (raccourcir le résumé, préciser certaines valeurs biologiques), mais aucune objection de fond. À aucun moment n’est mise en doute l’existence de l’uromycitisis, la plausibilité des chiffres avancés et le caractère manifestement absurde des permis de miction dans un lieu public. L’article est officiellement accepté, moyennant 799 dollars de frais de publication, somme que McCool ne paiera jamais, même si le papier sera malgré tout mis en ligne par la revue.

Autrement dit, un cas clinique entièrement fictif, décrivant une maladie inexistante mais détaillée avec un luxe de précisions poussées au burlesque, a franchi sans encombre toutes les étapes supposées de l’évaluation par les pairs.

Ce type de canular illustre le fonctionnement dévoyé de certaines revues prédatrices, motivées par les gains financiers. Ces publications médicales, illégitimes ou frauduleuses, constituent une menace croissante et mondiale, dupent les auteurs et les lecteurs, et participent à la mauvaise conduite scientifique. Elles se caractérisent par la rapidité extrême du processus d’acceptation du manuscrit pour publication, l’absence totale de relecture critique et un modèle économique principalement centré sur la facturation des auteurs.

Manger du chocolat pour maigrir : un hoax qui perdure

Une troisième supercherie, devenue célèbre, a été élaborée en 2015 par le journaliste scientifique John Bohannon. Agissant sous le pseudonyme de Johannes Bohannon, il conçoit un canular pour un documentaire consacré aux dérives de l’industrie des régimes amaigrissants. Avec quelques collègues, il met sur pied une étude réelle mais délibérément bancale, et la publie sous le titre Chocolate with High Cocoa Content as a Weight Loss Accelerator (Le chocolat à forte teneur en cacao comme accélérateur de la perte de poids) dans la revue International Archives of Medicine. Pour lui donner une apparence de sérieux, il crée de toutes pièces un institut de recherche fictif, l’Institute of Diet and Health, qui n’existe que comme un site web doté d’une façade académique minimale.

Sur le plan méthodologique, l’étude est un concentré de « mauvaise science » assumée : un très petit effectif (une quinzaine de participants), de multiples variables mesurées et comparées sans correction statistique, un design biaisé, des interprétations abusives. Comme attendu dans ce type de configuration – nombreux paramètres, très peu de sujets – les analyses finissent par produire des résultats « significatifs », que les auteurs présentent comme la preuve que le groupe ayant consommé du chocolat noir a perdu plus de poids que les autres. Malgré ces faiblesses méthodologiques et statistiques flagrantes, la revue accepte l’article et le publie, là où une relecture rigoureuse aurait dû le rejeter.

Le reste de l’expérience se joue sur le terrain médiatique et scientifique. Bohannon orchestre la diffusion de la nouvelle via un communiqué de presse. De nombreux médias internationaux reprennent l’histoire, souvent sous forme de titres accrocheurs sur les vertus amaigrissantes du chocolat, sans véritable analyse critique de la méthode ou du contexte.

Le canular atteint son objectif : montrer à quel point une étude séduisante dans ses conclusions peut être relayée quasi mécaniquement dès lors qu’elle raconte ce que l’on a envie d’entendre.

Face aux critiques, la revue International Archives of Medicine finit par rétracter l’article. Mais la manière de le faire est elle‑même problématique : la notice de rétractation évoque un manuscrit « publié accidentellement » puis « finalement rejeté ». Le DOI initial, identifiant unique et permanent attribué à un article scientifique, renvoie désormais vers une publication sans rapport, consacrée à la résilience et à la spiritualité chez des femmes addictes et non addictes (sic). On est loin des recommandations du Committee on Publication Ethics (COPE), qui préconisent des avis de rétractation clairs, durablement liés à l’article d’origine.

Plus préoccupant encore : malgré son retrait officiel de la littérature médicale, l’étude sur le chocolat continue d’être citée dans des articles scientifiques : une analyse a recensé 28 citations, dont huit l’utilisent comme référence positive pour soutenir l’idée que le cacao ou le chocolat pourraient favoriser la perte de poids chez l’humain, sans mention ni de son caractère frauduleux ni de son retrait. Ces citations apparaissent notamment dans des articles publiés par des éditeurs, dont l’American Chemical Society, qui invoquent le canular comme s’il s’agissait d’une donnée probante sur les effets métaboliques du cacao.

Au final, ce hoax dépasse le seul problème des revues prédatrices. Il met en lumière une chaîne de défaillances : validation éditoriale insuffisante, traitement médiatique peu rigoureux et pratiques de citation parfois désinvoltes, y compris dans des journaux sérieux, où des études sont citées sans même vérifier qu’elles n’ont pas été rétractées.

Autrement dit, même lorsque la « mauvaise science » est officiellement corrigée, elle peut continuer à produire des effets durables dans l’espace scientifique et médiatique, et à alimenter les affirmations pseudo‑médicales les plus invraisemblables, les plus farfelues.

La bixonimanie n’existe donc pas, pas plus que les cas cliniques relatés dans ces canulars. L’article publié par le site Medium a d’ailleurs été retiré en avril 2026 à la suite de la parution de l’article paru dans Nature.

Toutes ces histoires soulignent une chose très concrète : ce n’est pas seulement l’intelligence artificielle qui est en cause, mais une partie de l’écosystème de production et de diffusion des connaissances médicales et scientifiques lorsque les frontières entre information et contenu non vérifié sont aussi poreuses.

À l’ère des IA génératives et des publications scientifiques en ligne, la lecture intégrale des articles, la vérification des références bibliographiques et la consultation des articles princeps au moindre doute, ne sont pas des réflexes archaïques et inutiles. Bien au contraire, ce sont des mesures d’hygiène intellectuelle élémentaires et indispensables.

Pour en savoir plus :

Stokel-Walker C. Scientists invented a fake disease. AI told people it was real. Nature. 2026 Apr ; 652 (8110) : 559-561. doi : 10.1038/d41586-026-01100-y

Izgubljenovic L, Thurberg B, Deep A. Bixonimania : Exploring the Influence of Blue Light on Periorbital Hyperpigmentation on the Palpebrae – an RCT with an r-BS design. Preprints 2024.

Izgubljenovic L, Tippet N, Thurberg B, Deep A. Using Machine Learning to Detect Bixonimania : An Early Feasibility Study. Preprints 2024.

Banchhor S, Gupta S, Mahendra A. Clinical and Dermoscopic Evaluation of Periorbital Melanosis and Its Psychological Impact and Effect on Quality of Life : A Descriptive Study. Cureus. 2024 Nov 27 ; 16 (11) : e74625. doi : 10.7759/cureus.74625. Retraction in : Cureus. 2026 Mar 30 ; 18 (3) : r223. doi : 10.7759/cureus.r223

Omar M, Sorin V, Wieler LH, et al. Mapping the susceptibility of large language models to medical misinformation across clinical notes and social media : a cross-sectional benchmarking analysis. Lancet Digit Health. 2026 Jan ; 8 (1) : 100949. doi : 10.1016/j.landig.2025.100949

Wagner KD, Croley JA, Wilson JM. Online skin disease hoaxes : Widespread and credible to viewers. J Am Acad Dermatol. 2021 Sep ;85(3) :731-733. doi : 10.1016/j.jaad.2019.06.036

LIRE aussi : La fraude scientifique, fléau de la littérature biomédicale


Source:

www.lemonde.fr