Si, ces derniers mois, vous avez interrogé une IA pour comprendre la mystérieuse pathologie d’un patient se caractérisant par des douleurs oculaires et des démangeaisons périorbitaires après une utilisation intensive des écrans, le chatbot vous a peut-être répondu qu’il s’agissait d’une bixonimanie.

Derrière ce terme se cache en réalité une expérience scientifique édifiante sur les limites des intelligences artificielles génératives ainsi que sur leur capacité à propager de fausses informations en santé.

La bixonimanie a été imaginée de toutes pièces par une équipe dirigée par la chercheuse suédoise Almira Osmanovic Thunström, de l’Université de Göteborg dans l’objectif de tester la capacité des grands modèles de langage (LLM) à intégrer et restituer des informations erronées lorsqu’elles imitent les codes de la littérature scientifique.

En mars 2024, deux billets de blog évoquent pour la première fois cette prétendue maladie oculaire liée à la lumière bleue. Quelques semaines plus tard, deux prépublications sont mises en ligne sur Preprints.org, signées par un faux chercheur, Lazljiv Izgubljenovic, affilié à une université fictive. Les articles accumulent pourtant les indices de leur caractère frauduleux : institutions inexistantes, références à la culture populaire et même des mentions explicites telles que « cet article est entièrement inventé ». Cerise sur le gateau, ces articles sont illustrés de photos de cas…générés par IA !

En quelques semaines à peine, les principaux chatbots du marché : ChatGPT, Gemini, Copilot ou encore Perplexity AI ont commencé à relayer la bixonimanie comme une pathologie réelle. Certains vont jusqu’à en décrire la prévalence, les mécanismes physiopathologiques supposés, et à recommander une consultation spécialisée. En outre ces réponses ne sont pas uniquement déclenchées par des questions mentionnant explicitement la maladie, mais aussi par de simples descriptions de symptômes compatibles. L’expérience met ainsi en lumière une faiblesse structurelle des LLM : leur tendance à accorder du crédit à des contenus formatés comme des publications scientifiques, indépendamment de leur véracité.

La littérature est un mensonge qu’on répète
La bixonimanie a également contaminé la littérature, illustrant les nouvelles inconduites scientifiques apparues avec les LLM. Une étude publiée en 2024 dans la revue Cureus cite cette maladie fictive comme une « forme émergente de mélanose périorbitaire liée à la lumière bleue ». L’article sera finalement rétracté en mars 2026, après identification de références inventées. Cet épisode met ainsi en lumière le fait (éminemment regrettable) que certains auteurs s’appuient sur des références générées par des IA sans en vérifier la source.

Depuis, les réponses des IA ont évolué, mais restent inconstantes. Interrogé par les auteurs début 2026, ChatGPT pouvait qualifier la bixonimanie de concept « probablement fictif », avant de la décrire quelques jours plus tard comme un « sous-type émergent » de pathologie oculaire. De leur côté, Gemini ou Copilot oscillent entre scepticisme et prudence, évoquant une entité « non reconnue mais en cours d’étude ».

L’auteur de ces lignes (qui n’est pas une IA), n’a néanmoins pas réussi à piéger ChatGPT et Gemini avec ce faux syndrome…

Pour Mahmud Omar, spécialiste des applications de l’IA en santé, qui commente cette affaire dans Nature, le problème est aggravé par le rythme de déploiement des modèles d’IA, qui rend difficile toute évaluation rigoureuse et standardisée de leur fiabilité. L’expérience suédoise met également en évidence un biais important : les IA hallucinent davantage lorsque les contenus analysés adoptent une apparence médicale formelle (articles, comptes rendus cliniques) que lorsqu’ils proviennent de sources informelles comme les réseaux sociaux.

Consciente des risques, Almira Osmanovic Thunström avait pris des précautions en choisissant une pathologie bénigne. Face à l’ampleur de leur diffusion, elle a finalement retiré ses prépublications le 10 avril 2026.