Etude : Aux urgences, ChatGPT diagnostique «aussi bien» qu’un docteur

Publié

EtudeAux urgences, ChatGPT diagnostique «aussi bien» qu’un docteur

Sur 30 patients, dans 87 % des cas, le bon diagnostic se trouvait dans la liste des praticiens, contre 97 % pour ChatGPT. Les chercheurs relèvent toutefois des «gaffes» médicales. 

Trente cas traités dans un service d’urgence aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT.

Trente cas traités dans un service d’urgence aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT.

AFP

Aux urgences, le chatbot d’intelligence artificielle ChatGPT a réalisé des diagnostics au moins aussi bien que des médecins et les a dans certains cas surpassés, ont découvert des chercheurs néerlandais, selon lesquels l’IA pourrait «révolutionner le domaine médical».

«Comme l’aurait fait un médecin humain»

Les auteurs de cette étude parue mercredi ont toutefois souligné que les jours des médecins urgentistes n’étaient pas encore comptés, le chatbot étant potentiellement capable d’accélérer le diagnostic mais pas de remplacer le jugement et l’expérience d’un humain.

Trente cas traités dans un service d’urgence aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT en fonction des antécédents des patients, des tests en laboratoire et des observations des médecins, demandant au chatbot de proposer cinq diagnostics possibles. Dans 87 % des cas, le bon diagnostic se trouvait dans la liste des praticiens, contre 97 % pour la version 3.5 de ChatGPT. Le chatbot «était capable de réaliser des diagnostics médicaux un peu comme l’aurait fait un médecin humain», a résumé Hidde ten Berg, du service d’urgence de l’hôpital Jeroen Bosch, dans le sud des Pays-Bas.

Préserver la confidentialité 

Le coauteur de l’étude Steef Kurstjens a souligné que celle-ci ne concluait pas que des ordinateurs pourraient un jour diriger les urgences mais que l’IA pouvait jouer un rôle vital en aidant les médecins sous pression. Le chatbot «peut aider à réaliser un diagnostic et peut peut-être proposer des idées auxquelles le médecin n’avait pas pensé», a-t-il déclaré à l’AFP.

De tels outils ne sont pas conçus comme des dispositifs médicaux, a-t-il toutefois relevé, partageant également des inquiétudes quant à la confidentialité des données médicales sensibles dans un chatbot. Et, comme dans d’autres domaines, ChatGPT a rencontré certaines limites. Son raisonnement était «parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect, avec des implications importantes», note l’étude. Les scientifiques admettent également certaines lacunes dans leurs recherches, comme la petite taille de l’échantillon. De plus, seuls des cas relativement simples ont été examinés, avec des patients présentant une seule plainte principale. L’efficacité du chatbot dans des cas complexes n’est pas claire.

«Gaffes» 

Parfois, ChatGPT ne fournissait pas le bon diagnostic dans les cinq possibilités, explique Steef Kurstjens, notamment dans le cas d’un anévrisme aortique abdominal, une complication potentiellement mortelle, avec l’aorte qui enfle. Mais, consolation pour ChatGPT, dans ce cas, le médecin s’est également trompé.

Le rapport signale en outre des «gaffes» médicales commises par le chatbot, par exemple en diagnostiquant une anémie (faible taux d’hémoglobine dans le sang) chez un patient présentant un taux d’hémoglobine normal. Les résultats de l’étude, parus dans la revue spécialisée Annals of Emergency Medicine, seront présentés au Congrès européen de médecine d’urgence (EUSEM) de 2023 à Barcelone.

(AFP)

Ton opinion

2 commentaires