Ne vous fiez jamais à ChatGPT pour des questions d’ordre médical. C’est le très sérieux avertissement donné par des chercheurs du CHU Sainte-Justine, à Montréal. Quoi qu’il arrive, demandez toujours l’avis d’un professionnel.
Chers lecteurs, attention, ChatGPT n’est pas fiable quand il s’agit de la santé humaine. C’est ce qu’ont découvert des chercheurs du CHU Sainte-Justine et de l’Hôpital de Montréal pour enfants, qui ont publié une étude sur le sujet.
Ils ont posé 20 questions médicales à ChatGPT, tirées de 20 articles scientifiques récemment publiés. Ils lui ont ensuite demandé d’y répondre, en fournissant des références. Le résultat est pire qu’alarmant : ChatGPT a fait cinq erreurs factuelles majeures dans ses réponses et a inventé 70 % des références fournies.
ChatGPT, le robot qui dit n’importe quoi sur la santé
Les chercheurs ont ensuite soumis les réponses aux auteurs des articles en question pour évaluer la qualité et la justesse des réponses, sur une échelle de 0 à 100 %. Le score médian accordé à ChatGPT est de 60 %.
Ils ont, par exemple, demandé à ChatGPT quel était le traitement habituel pour un enfant souffrant d’une œsophagite à éosinophiles (une inflammation de l’œsophage). ChatGPT a répondu qu’il fallait faire des injections de cortisone. Problème : ce médicament doit être pris par voie orale, et non injecté, selon le Dr Gravel.
« ChatGPT écrit très bien, mais des fois, il parle à tort et à travers, et ça ne paraît pas ! », s’alarme la Docteure Jocelyn Gravel, urgentologue au CHU Sainte-Justine. « Ces modèles ont été développés pour prédire que le prochain mot va être x, y ou z. Ils n’ont pas été développés pour l’exactitude des faits », a ajouté Esli Osmanlliu, urgentologue à l’Hôpital de Montréal pour enfants, coauteur de l’étude.
À lire : ChatGPT : 12 conseils pour utiliser l’IA comme un pro et exploiter tout son potentiel
Globalement, les chercheurs mettent en garde contre les dangers de se fier à ChatGPT pour obtenir des informations sur la santé : ils rappellent que ChatGPT n’est pas un expert médical et qu’il peut propager des faussetés qui peuvent avoir des conséquences graves.
Les chercheurs conseillent ainsi de vérifier les sources et les informations fournies par le chatbot d’OpenAI. De notre côté, nous vous recommanderons toujours de vous fier à l’avis d’un professionnel dès qu’il s’agit de santé. Retrouvez d’ailleurs nos meilleurs conseils des choses à ne pas faire avec le chatbot.
Source : MCP Digital Health