L'IA contre les médecins : les chatbots peuvent-ils vraiment poser des diagnostics corrects ?

L’IA contre les médecins : les chatbots peuvent-ils vraiment poser des diagnostics corrects ?

Par Dr. Kyle Muller

Psychologue, chef cuisinier, traducteur, parfois même partenaire : l’intelligence artificielle peut (plus ou moins bien) assumer de nombreux rôles, remplaçant les vrais professionnels – avec tous les risques que cela comporte. Mais comment se porte-t-il en tant que médecin ? Peut-on faire confiance aux diagnostics formulés par des chatbots comme ChatGPT ou Gemini, ou est-il encore mieux de s’adresser à des médecins dotés d’une intelligence humaine ?

La réponse est, dans un certain sens, rassurante : selon ce que révèle une étude publiée dans Réseau JAMA ouverts’il est vrai que l’IA réussit assez bien à formuler des diagnostics lorsqu’elle dispose de toutes les informations nécessaires, elle n’est pas du tout fiable dans la phase initiale où, avec peu de données en main, il faut comprendre de quelle maladie le patient pourrait souffrir et quels examens doivent être prescrits pour enquêter.

Les limites de l’intelligence artificielle

Les chercheurs ont demandé à 21 LLM, dont ChatGPT, DeepSeek, Claude, Gemini et Grok, de se faire passer pour des médecins dans 29 scénarios cliniques.

Les résultats mettent en évidence toutes les limites de l’IA, incapable de raisonnement déductif et efficace seulement si elle est « nourrie » avec les données correctes : si d’une part les chatbots se sont révélés être des médecins valables dans plus de 90 % des cas lorsqu’ils disposaient de toutes les informations utiles en même temps, d’autre part ils ont eu beaucoup de mal dans les phases préliminaires du processus de diagnostic, celles où il est nécessaire d’établir une liste de diagnostics différentiels à vérifier. Les LLM analysés n’ont pas permis d’aboutir à des diagnostics différentiels corrects dans plus de 80 % des cas.

Assistants uniquement

« Malgré des améliorations continues, les grands modèles de langage ne sont pas encore prêts pour une utilisation clinique autonome et non supervisée », commente Marc Succi, l’un des auteurs.

«Les diagnostics différentiels sont au cœur du raisonnement clinique et constituent la base de l’art médical que l’intelligence artificielle n’est pas encore capable de reproduire». Chers médecins, rassurez-vous : l’IA aura une écriture plus claire que la vôtre, mais elle n’est pas encore capable de vous remplacer.

Kyle Muller
À propos de l'auteur
Dr. Kyle Muller
Le Dr Kyle Mueller est analyste de recherche au Harris County Juvenile Probation Department, à Houston, au Texas. Il a obtenu son doctorat en justice pénale à la Texas State University en 2019, sous la direction du Dr Scott Bowman pour sa thèse. Les recherches du Dr Mueller portent sur les politiques de justice pour mineurs et les interventions fondées sur des données probantes visant à réduire la récidive chez les jeunes délinquants. Ses travaux ont contribué à l’élaboration de stratégies fondées sur les données au sein du système de justice pour mineurs, en mettant l’accent sur la réhabilitation et l’engagement communautaire.
Published in

Laisser un commentaire

14 + 18 =