La reciente investigación publicada en la revista BMJ Open ha puesto de manifiesto un hallazgo alarmante: el 50% de las respuestas médicas proporcionadas por cinco de las principales inteligencias artificiales (IA) son imprecisas o potencialmente peligrosas. Este estudio, liderado por el Instituto Lundquist para la Innovación Biomédica en EE.UU., evaluó el desempeño de modelos como Gemini de Google, DeepSeek, Meta AI, ChatGPT de OpenAI y Grok de xAI. Las conclusiones sugieren que confiar en estas herramientas para obtener consejos de salud puede ser riesgoso, ya que muchas de sus respuestas pueden llevar a tratamientos ineficaces o incluso causar daños a la salud de los usuarios.

El estudio se centró en 250 consultas divididas en cinco categorías críticas: cáncer, vacunas, células madre, nutrición y rendimiento deportivo. Los investigadores diseñaron preguntas que reflejaban búsquedas comunes de los usuarios, y en algunos casos, se buscó 'estresar' a los modelos con mitos comunes o consejos que podrían ser perjudiciales. El análisis reveló que el 20% de las respuestas eran altamente problemáticas, lo que subraya la necesidad de un enfoque crítico al utilizar estas herramientas para cuestiones de salud.

Uno de los aspectos más preocupantes del estudio es la forma en que las IA presentan la información. A menudo, las respuestas se ofrecen con un tono de certeza absoluta, sin advertencias sobre las limitaciones de su conocimiento. Este fenómeno puede llevar a los usuarios a confiar ciegamente en la información proporcionada, lo que es especialmente peligroso en el ámbito de la salud. Nicholas Tiller, investigador principal del estudio, enfatiza que estas IA no poseen un conocimiento humano y, por lo tanto, no pueden verificar la información ni discernir entre fuentes precisas y pseudocientíficas.

Los resultados también muestran que Grok, de xAI, tuvo el peor desempeño, con un 58% de sus respuestas clasificadas como altamente problemáticas. Por otro lado, Gemini de Google mostró el menor número de fallos críticos, aunque todos los modelos fallaron en un aspecto crucial: la accesibilidad. La complejidad del lenguaje utilizado por estas IA es comparable a la de un graduado universitario, lo que puede dificultar la comprensión del público general y comprometer la toma de decisiones informadas sobre salud.

A medida que el uso de chatbots y herramientas de IA se expande, es fundamental que se implementen mecanismos de educación pública y supervisión regulatoria. Sin estos, el despliegue masivo de la IA generativa en el ámbito de la salud podría erosionar la confianza en la ciencia y amplificar la desinformación. La investigación concluye que es imperativo que los usuarios sean críticos con la información que reciben de estas herramientas y busquen siempre la supervisión de profesionales de la salud.

En el contexto argentino, donde la salud pública es un tema de constante preocupación, la adopción de estas tecnologías debe ser acompañada de una educación adecuada para evitar que la desinformación se propague. Con la creciente popularidad de las consultas médicas a través de IA, es esencial que los usuarios comprendan los riesgos asociados y busquen siempre fuentes confiables y verificadas para sus consultas de salud.