Mis en évidence en 2026 par une équipe de chercheurs de l’université de Stanford, notamment Fei-Fei Li, Ehsan Adeli et Euan Ashley, l’étude intitulée « Mirage: The Illusion of Visual Understanding »*, montre que des intelligences artificielles médicales peuvent produire des diagnostics détaillés à partir d’images qui ne leur ont pas été fournies.

Des diagnostics produits sans données médicales réelles

Dans leurs expérimentations, les chercheurs ont testé plusieurs modèles d’IA de pointe utilisés en santé ou capables de tâches médicales, notamment GPT-5, Gemini 3 Pro et Claude Opus 4.5, en supprimant volontairement les images des jeux de données tout en conservant les prompts.

Malgré l’absence totale d’imagerie, ces systèmes ont généré des descriptions visuelles précises, identifié des anomalies inexistantes et proposé des diagnostics médicaux complets avec un niveau de confiance élevé. Les résultats montrent que ces modèles peuvent atteindre des taux de performance de 70 à 80 % sur certains benchmarks médicaux sans aucune donnée visuelle réelle, ce qui indique qu’ils exploitent des corrélations statistiques issues de leur entraînement plutôt qu’une véritable analyse clinique.

Un raisonnement médical construit sur des éléments fictifs

Les chercheurs décrivent ce comportement comme une forme d’« épistémic mimicry », c’est-à-dire la construction d’un raisonnement médical cohérent reposant sur des éléments fictifs, allant jusqu’à décrire des radiographies inexistantes et diagnostiquer des pathologies graves comme des cancers ou des infarctus.

L’étude montre également qu’un modèle purement textuel, sans aucune capacité d’analyse d’image, peut surpasser des IA multimodales sur des tests de radiologie, révélant des failles méthodologiques importantes dans les protocoles d’évaluation actuels.

Une limite structurelle pour l’usage clinique de l’IA

Ainsi, même en l’absence d’information clé (comme une image), elles peuvent produire une réponse qui semble juste — mais ne repose sur aucune observation réelle. Ce phénomène s’inscrit dans un contexte de déploiement massif de l’IA en santé, avec plus de 1 200 outils déjà validés et une utilisation croissante dans la décision clinique.

L’effet mirage met en évidence une limite structurelle des IA actuelles : elles ne « comprennent » pas réellement les données comme un médecin humain. Cette dérive constitue un risque direct en cas d’usage non critique, en particulier dans des environnements cliniques où la fiabilité des informations conditionne la qualité du diagnostic et la sécurité des patients.

Quelles pistes pour encadrer ces dérives ?

Face à ces constats, les chercheurs de Stanford appellent à plusieurs évolutions :

  • Repenser les benchmarks : éliminer les indices textuels permettant de répondre sans données réelles.
  • Distinguer explicitement les situations avec et sans données : les performances chutent lorsque l’IA est consciente de ne pas avoir accès aux images.
  • Renforcer la transparence des modèles : Pour mieux comprendre sur quelles bases ils produisent leurs diagnostics.
  • Maintenir un rôle central du médecin : l’IA doit rester un outil d’aide, et non un décideur autonome.

Une technologie prometteuse, mais encore immature

Cet effet mirage rappelle une réalité essentielle : malgré leurs performances spectaculaires, les IA médicales restent des outils imparfaits. Elles peuvent assister, accélérer ou encore suggérer mais elles ne remplacent ni l’examen clinique, ni l’interprétation contextualisée, ni le jugement médical.
L’enjeu n’est pas de rejeter l’IA, mais de se souvenir que ces agents sont entrainés sur des modèles de probabilité, et pas sur une analyse individuel. Ils sont à utiliser avec lucidité et ne pas prendre au pied de la lettre les auto diagnostic assisté par IA.

 

*Mirage: The Illusion of Visual Understanding Mohammad Asadi, Jack W. O’Sullivan, Fang Cao, Tahoura Nedaee, Kamyar Rajabalifardi, Fei-Fei Li, Ehsan Adeli, Euan Ashley.