La moitié des informations sur la santé fournies par les chatbots sont incorrectes ou incomplètes


La moitié des informations sur la santé obtenues en interrogeant les chatbots sont incorrectes ou incomplètes. C'est la principale conclusion d'une étude récemment publiée dans BMJ Open. Les chercheurs mettent en garde contre le risque élevé d'une augmentation de la désinformation si l'on continue à utiliser ces outils sans un contrôle et une éducation adéquats.

«Les outils ChatGPT, Grok, Gemini, DeepSeek et Meta AI apportent des réponses incorrectes en matière de santé.»

L'étude a été réalisée avec cinq chatbots: Gemini, DeepSeek, Meta AI, ChatGPT et Grok. Ils ont posé à chacun d'eux 250 questions appartenant aux cinq catégories suivantes: cancer, vaccins, cellules souches, alimentation et performance physique. Certaines questions étaient fermées — une réponse précise était demandée — et d'autres étaient ouvertes. Ils ont ensuite examiné si ces réponses étaient «non problématiques», «un peu problématiques» ou «très problématiques», où elles étaient considérées comme problématiques quand les utilisateurs ordinaires risquaient de choisir des traitements inefficaces ou même de subir des dommages si elles étaient suivies.

Eh bien, ils ont constaté que 30% des réponses fournies par les chatbots étaient un peu problématiques et 20% très problématiques. Aucune différence significative n'a été observée entre les chatbots, mais c'est Grok qui a produit le plus de réponses problématiques, tandis que Gemini a obtenu les meilleurs résultats. Au niveau des zones, les réponses aux vaccins et au cancer étaient les plus fiables, tandis que la nutrition, la performance sportive et l’environnement des cellules souches étaient les plus déficientes.

« Ils rappellent que les chatbots ne raisonnent pas et ne prennent pas en compte les preuves. »

En outre, les chercheurs soulignent qu'il est préoccupant de voir comment les chatbots présentent les réponses: en toute sécurité et certitude, avec peu d'avertissements ou d'exceptions. Ils se souviennent que les chatbots ne raisonnent pas et ne prennent pas en compte les preuves. Les sources de données utilisées pour la formation comprennent les forums et les réseaux sociaux, et la recherche scientifique est souvent limitée aux publications en accès libre (environ 30 à 50% des études publiées).

Par conséquent, les experts appellent à des mesures: ils estiment qu'une éducation et une réglementation adéquates de la population sont nécessaires pour que l'intelligence artificielle favorise la santé publique au lieu de la nuire.

Buletina

Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian

Bidali