La mitad de la información de salud que proporcionan los chatbots es incorrecta o incompleta
La mitad de la información de salud que se obtiene consultando a los chatbots es incorrecta o incompleta. Esta es la principal conclusión de un estudio que acaba de publicarse en BMJ Open. Los investigadores advierten que existe un alto riesgo de que aumente la desinformación si se siguen utilizando estas herramientas sin el control y la educación adecuados.
«Las herramientas ChatGPT, Grok, Gemini, Deep Seek y Meta AI proporcionan respuestas defectuosas en temas de salud»
El estudio se ha realizado con cinco chatbots: Géminis, Deep Seek, Meta AI, ChatGPT y Grok. Cada uno fue sometido a 250 preguntas de cinco categorías: cáncer, vacunas, células madre, alimentación y rendimiento físico. Algunas preguntas eran cerradas — se pedía una respuesta concreta — y otras abiertas. Posteriormente, se analizó si estas respuestas eran “no -problemáticas”, “algo problemáticas” o “muy problemáticas”, donde se consideraba problemático cuando los usuarios normales seguían estas respuestas para elegir tratamientos ineficaces o incluso correr el riesgo de sufrir daños.
Pues vieron que el 30% de las respuestas dadas por los chatbots eran algo problemáticas y el 20% muy problemáticas. No se observaron grandes diferencias entre los chatbots, pero fue Grok quien generó el mayor número de respuestas problemáticas, mientras que Gemini obtuvo los mejores resultados. En cuanto a las áreas, las respuestas sobre vacunas y cáncer fueron las más fiables, mientras que en nutrición, rendimiento deportivo y alrededor de células madre se detectaron el mayor número de deficiencias.
«Recuerdan que los chatbots no razonan y no consideran las evidencias.»
Además, los investigadores subrayan que es preocupante cómo los chatbots presentan las respuestas: con total seguridad y certeza, con pocas advertencias o excepciones. Recuerdan que los chatbots no justifican y no toman en cuenta las evidencias. Las fuentes de datos utilizadas para el entrenamiento incluyen foros y redes sociales, y la investigación científica a menudo se limita a publicaciones de acceso abierto (alrededor del 30-50% de los estudios publicados).
En consecuencia, los expertos llaman a tomar medidas para que la educación de la población y la normativa adecuada sean necesarias para que la inteligencia artificial favorezca la salud pública en lugar de perjudicarla.
Buletina
Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian



