SANTE

ChatGPT Health et les urgences médicales : une étude révèle des résultats préoccupants

March 3, 2026
ChatGPT Health et les urgences médicales : une étude révèle des résultats préoccupants

ChatGPT Health et les urgences médicales : une étude révélatrice

Publié le 3 mars 2026 par Hélène Bour

L'outil d'intelligence artificielle (IA) ChatGPT Health ne semble pas être à la hauteur pour évaluer et gérer des urgences médicales. Une étude récente, publiée en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine, met en lumière des conclusions inquiétantes.

Des résultats alarmants

Alors que l'IA révolutionne le secteur de la santé, notamment dans les domaines de l'imagerie et du dépistage, des lacunes subsistent concernant l'évaluation des situations médicales urgentes. L'étude révèle que ChatGPT Health pourrait induire les utilisateurs en erreur lorsqu'ils cherchent des conseils sur des problèmes de santé. En d'autres termes, l'outil pourrait ne pas reconnaître le caractère urgent de certains problèmes, mettant ainsi en danger la santé des utilisateurs.

Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale de la faculté de médecine de Harvard, explique : « Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. »

Une adoption massive mais des questions de fiabilité

Quelques semaines après son lancement, OpenAI, créateur de ChatGPT Health, a rapporté que près de 40 millions de personnes utilisaient cet outil quotidiennement pour des conseils de santé, y compris pour déterminer la nécessité de consulter en urgence. Cependant, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante.

Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï à New York, déclare : « Ce manque a motivé notre étude. Nous souhaitions répondre à une question fondamentale : si une personne se retrouve face à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? »

Incohérences dans les recommandations

Les résultats de l'étude sont préoccupants : les chercheurs ont constaté des incohérences dans les réponses de ChatGPT Health. Par exemple, des alertes demandant d'appeler les urgences apparaissaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus graves, comme des intentions suicidaires clairement exprimées.

Girish N. Nadkarni, coauteur de l'étude, souligne : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique : elles apparaissaient plus fréquemment dans les scénarios à faible risque que dans les cas où une personne décrivait ses intentions suicidaires. Dans la réalité, lorsqu’une personne explique précisément comment elle compte se faire du mal, c'est le signe d'un danger plus immédiat et plus grave, et non l'inverse. »

Des situations d'urgence plus classiques mieux gérées

Bien que ChatGPT Health ait démontré une certaine efficacité dans des situations d'urgence classiques, telles qu'un AVC ou une réaction allergique sévère, il a éprouvé des difficultés dans des contextes plus nuancés où le danger n'est pas immédiatement évident. Le Dr Ramaswamy précise : « Par exemple, dans un scénario d'asthme, le système a identifié des signes avant-coureurs d'insuffisance respiratoire, mais a tout de même conseillé d'attendre plutôt que de consulter un médecin en urgence. »

Recommandations des chercheurs

Face à ces résultats, les scientifiques recommandent de consulter un médecin directement plutôt que de se fier à ChatGPT ou à tout autre outil basé sur l'IA, surtout lorsque l'état de santé se dégrade ou que des symptômes inquiétants apparaissent, tels que l'essoufflement, des douleurs thoraciques ou des réactions allergiques graves.

En cas de pensées suicidaires, il est impératif d'appeler le numéro d'urgence dédié, qui est le 31 14 en France. Les chercheurs ne préconisent pas d'abandonner les outils de santé basés sur l'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement.

Conclusion

Cette étude met en lumière la nécessité d'une évaluation rigoureuse des outils d'IA utilisés dans le domaine médical. Les patients doivent être conscients des limites de ces technologies et privilégier le contact direct avec des professionnels de santé en cas d'urgence.

Sources :

  • Ramaswamy, A., Tyagi, A., Hugo, H. et al. ChatGPT Health performance in a structured test of triage recommendations. Nat Med (2026). https://doi.org/10.1038/s41591-026-04297-7
  • “Research identifies blind spots in AI medical triage”, Eurekalert, 24/02/26.