« Incroyablement dangereux » : pourquoi vous ne pouvez pas vous fier à ChatGPT Santé selon les spécialistes
Maux de tête, essoufflement, nausée... Vous souffrez, ChatGPT Santé vous dit pourquoi et s'il faut vous inquiéter. Or, une fois sur deux, le logiciel d'IA se trompe. C'est ce que révèle la première étude indépendante de l'outil santé d'OpenAI, publiée dans la revue scientifique Nature Medicine.

Lancé discrètement en janvier dernier par OpenAI, ChatGPT Santé (pas encore autorisé en Europe) se veut un espace dédié qui se connecte à vos données physiologiques et vos antécédents cliniques. L'ambition affichée : transformer l'assistant conversationnel en conseiller santé personnalisé. Mais très vite, des interrogations se sont posées en matière de confidentialité et de sécurité.
Un outil conçu sans évaluation indépendante
Cette nouvelle initiative d'OpenAI vient répondre à un constat de taille : chaque semaine, plus de 230 millions de personnes dans le monde sollicitent déjà la plateforme pour des questions liées à leur bien-être physique ou mental. Or lorsqu’il s’agit d’évaluer l’urgence d’une situation médicale, de nombreuses zones d'ombre persistent.
Une nouvelle étude, parue dans le numéro du 23 février 2026 de la revue Nature Medicine, révèle que l'outil IA oriente mal les utilisateurs lorsqu'ils font une recherche pour un soucis de santé. Autrement dit, en confiant vos inquiétudes à l'IA, vous risquez de passer à côté du caractère urgent de votre mal, mettant votre santé encore plus en péril.
Les spécialistes mettent en garde
Pour Isaac S. Kohane, directeur du département d’informatique biomédicale de la faculté de médecine de Harvard, cité dans un communiqué, « les systèmes d’intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. »
L'étude, parue dans la revue Nature Medicine, est la première évaluation indépendante de sécurité de ChatGPT Santé. L'équipe de chercheurs de l'Icahn School of Medicine at Mount Sinai, à New York, ont soumis à l'outil soixante scénarios cliniques, couvrant 21 spécialités, sous 16 conditions contextuelles différentes (genre, ethnie, présence d'un proche minimisant les symptômes, absence d'assurance maladie).
Le constat des travaux est alarmant : parmi les cas que les médecins jugeaient relever d'une urgence immédiate, ChatGPT Santé en a sous-trié 52 %. Dans des cas qui relèvent de l'urgence médicale, comme celui d'une insuffisance respiratoire, l'outil d'IA décèle les signaux mais conseille d'attendre. Le plus glaçant ? La réponse de la plateforme face aux risques suicidaires.
L'équipe de chercheurs compte poursuivre ses travaux notamment en pédiatrie, en sécurité médicamenteuse et sur les langues autres que l'anglais. D'ici là, consultez un vrai médecin en cas de doutes sur des symptômes !
Références de l'article :
Santé Magazine, ChatGPT Health et les urgences médicales : découvrez les résultats inquiétants d'une nouvelle étude
Les Numeriques, “Incroyablement dangereux” : ChatGPT Santé rate une urgence vitale sur deux, des chercheurs sonnent l'alarme