ChatGPT Health et les urgences médicales : des résultats préoccupants d'une nouvelle étude

Une étude alarmante sur ChatGPT Health
Publié le 03 mars 2026 par Hélène Bour.
L'outil d'intelligence artificielle (IA) ChatGPT Health ne s'avère pas être la solution idéale pour évaluer et gérer les urgences médicales. Une nouvelle étude, parue dans le numéro du 23 février 2026 de la revue Nature Medicine, met en lumière les lacunes de cet outil dans les situations d'urgence.
L'IA et la santé : un double tranchant
Il est indéniable que l'IA est en train de révolutionner le domaine de la santé, particulièrement dans les domaines de l'imagerie et du dépistage. Cependant, des angles morts sont à déplorer lorsque l'on aborde la question des urgences médicales. Cette étude révèle que ChatGPT Health pourrait induire en erreur ses utilisateurs lors de leurs demandes concernant des problèmes de santé, en omettant de reconnaître le caractère urgent de certaines situations.
Des chiffres préoccupants
Depuis son lancement, OpenAI, qui a développé ChatGPT Health, a annoncé que près de 40 millions de personnes l'utilisent quotidiennement pour obtenir des conseils médicaux, notamment pour évaluer la nécessité d'une consultation urgente. Cependant, la fiabilité et la safety des conseils fournis n'ont pas encore été évaluées de manière indépendante.
Les conclusions de l'étude
Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale à la faculté de médecine de Harvard, a précisé dans un communiqué : « Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. »
Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï (New York, États-Unis), a expliqué que l'objectif de l'étude était de déterminer si ChatGPT Health pouvait correctement indiquer à une personne confrontée à une véritable urgence médicale de se rendre aux urgences. Malheureusement, les résultats ne sont pas à la hauteur des attentes.
Incohérences dans les réponses
Les chercheurs ont noté des incohérences dans les réponses fournies par l'outil. Par exemple, des alertes recommandant d'appeler les urgences se déclenchaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus préoccupants, tels que des intentions suicidaires clairement exprimées. Girish N. Nadkarni, coauteur de l'étude, a déploré : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé dépassait l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique. »
Les limites de ChatGPT Health
Selon le Dr Ramaswamy, ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, comme un AVC ou une réaction allergique grave. Cependant, il a montré des difficultés dans des cas plus nuancés, où le danger n'est pas immédiatement évident. Il a été observé que, dans un scénario d'asthme, le système a identifié des signes d'insuffisance respiratoire, mais a recommandé d'attendre avant de consulter un médecin en urgence.
Recommandations des scientifiques
Face à ces résultats, les scientifiques recommandent de consulter directement un médecin plutôt que de s'appuyer sur ChatGPT ou tout autre outil d'IA lorsque l'état de santé se dégrade ou que des symptômes alarmants apparaissent (tels que l'essoufflement, les douleurs thoraciques ou des réactions allergiques sévères). En cas de pensées suicidaires, il est impératif d'appeler le numéro d'urgence dédié, le 31 14 en France.
Les chercheurs ne préconisent pas l'abandon des outils de santé basés sur l'IA, mais plutôt de connaître leurs limites et de les utiliser avec discernement.
Sources
- Ramaswamy, A., Tyagi, A., Hugo, H. et al. ChatGPT Health performance in a structured test of triage recommendations. Nat Med (2026). https://doi.org/10.1038/s41591-026-04297-7
- “Research identifies blind spots in AI medical triage”, Eurekalert, 24/02/26.


