SANTE

ChatGPT Health et les Urgences Médicales : Une Étude Alarmante sur la Fiabilité de l'IA

March 3, 2026
ChatGPT Health et les Urgences Médicales : Une Étude Alarmante sur la Fiabilité de l'IA

Une Révolution Technologique sous Surveillance

Publié le 03 mars 2026 par Hélène Bour

Récemment, l'outil d'intelligence artificielle (IA) ChatGPT Health a suscité des préoccupations quant à son efficacité dans l'évaluation et la gestion des urgences médicales. Une étude récente, parue en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine, met en lumière des résultats inquiétants.

Une Étude Révélatrice

Selon cette étude, ChatGPT Health pourrait mal orienter les utilisateurs lorsqu'ils le consultent pour des préoccupations de santé. En d'autres termes, cet outil pourrait passer à côté du caractère urgent de certains problèmes médicaux, mettant ainsi en péril la santé de ses utilisateurs. Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale de la faculté de médecine de Harvard, souligne : "Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles."

Une Adoption Rapide sans Évaluation

Quelques semaines après son lancement, OpenAI, qui a développé ChatGPT Health, a rapporté qu'environ 40 millions de personnes utilisaient cet outil quotidiennement pour des conseils sur leur santé, y compris sur la nécessité de consulter en urgence. Cependant, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante. Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï, a déclaré : "Ce manque a motivé notre étude. Nous avons voulu répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ?"

Des Résultats Inquiétants

La réponse à cette question est plutôt négative. Les chercheurs ont observé des incohérences dans les réponses de l'outil, notamment des alertes invitant à appeler les urgences dans des scénarios à faible risque, alors qu'elles faisaient défaut dans des contextes plus préoccupants, tels que des intentions suicidaires clairement exprimées. Girish N. Nadkarni, coauteur de l'étude, déclare : "Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique : elles apparaissaient plus fréquemment dans les scénarios à faible risque que dans les cas où une personne décrivait ses intentions suicidaires."

Des Scénarios d'Urgence Mal Évalués

Il est à noter que, bien que ChatGPT Health ait bien fonctionné dans des situations d'urgence classiques comme un AVC ou une réaction allergique grave, il a rencontré des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Le Dr Ramaswamy explique : "Dans un scénario d'asthme, par exemple, le système a identifié des signes avant-coureurs d'insuffisance respiratoire dans son explication, mais a tout de même conseillé d'attendre plutôt que de consulter un médecin en urgence."

Recommandations des Chercheurs

Au vu de ces constatations, les scientifiques recommandent de consulter directement un médecin plutôt que de se fier à ChatGPT ou à tout autre outil basé sur l'IA lorsque des symptômes préoccupants apparaissent, tels que :

  • Essoufflement
  • Douleurs thoraciques
  • Réactions allergiques graves

En cas de pensées suicidaires, il est crucial d'appeler le numéro d'urgence dédié, qui est le 31 14 en France. Cependant, les chercheurs ne préconisent pas d'abandonner les outils de santé basés sur l'IA, mais plutôt d'en connaître les limites et de les utiliser avec discernement.

Conclusion

Alors que l'IA continue de transformer le paysage de la santé, il est essentiel de rester vigilant et informé sur ses capacités et ses limites. La santé ne devrait jamais être compromise par une confiance aveugle dans la technologie.

Sources

  • Ramaswamy, A., Tyagi, A., Hugo, H. et al. (2026). ChatGPT Health performance in a structured test of triage recommendations. Nat Med. https://doi.org/10.1038/s41591-026-04297-7
  • “Research identifies blind spots in AI medical triage”, Eurekalert, 24/02/26.