Domingo, 15 de marzo de 2026 Dom 15/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

La IA no sabe de medicina, solo de jerga: los chatbots creen que el "ajo rectal" cura si usas un tono clínico

La IA no sabe de medicina, solo de jerga: los chatbots creen que el "ajo rectal" cura si usas un tono clínico
Artículo Completo 787 palabras
Cada vez es más frecuente recurrir a la IA ante cualquier pregunta que tengamos, incluso cuando es de tipo médico, como que tenemos un dolor de barriga o en el pie. Y casi siempre se confía en la respuesta que dé porque es una IA, y parece que su palabra es la verdad absoluta. Pero la realidad es otra, puesto que un par de estudios han demostrado que la IA actual sufre un grave sesgo de autoridad.  ¿Qué significa? En pocas palabras, la ciencia ha determinado que si le presentamos a la IA un mito médico utilizando jerga clínica, hay casi un 50% de probabilidad de que te dé la razón. Y eso incluye hasta introducir un ajo por el recto. En Xataka Hay personas culpando a ChatGPT de provocar delirios y suicidios: qué está pasando realmente con la IA y la salud mental Cómo se hace. Un gran estudio publicado en The Lancet ha encendido las alarmas en la comunidad médica y también tecológica. Su objetivo no era otro que introducir más de un millón de prompts hasta a 20 de los modelos de IA líderes en el mercado. Y aquí lo que se ha visto es que la IA no evalúa principalmente la veracidad de la información, sino el formato en el que se les presenta.  Las claves. Para 'colarle' un mito como este, el secreto parece estar en el cómo se lo contamos. De esta manera, si a la IA se le plantea un bulo de salud extraído de redes sociales con un lenguaje poco técnico, al momento activa sus filtros de seguridad y rechaza las afirmaciones que se hacen y descarta por completo que, por ejemplo, meter un ajo por el ano mejora la salud.  Pero esto cambia por completo cuando estos mismos mitos se camuflan dentro de un formato médico, como si fuera el informe de alta hospitalaria. Aquí las IA aceptaron y repitieron las falsedades en un 46% de los casos. Es por ello que el estudio apunta a que a la IA le convence más cómo suena una afirmación que la evidencia que hay detrás para descartar o aceptar lo que le decimos.  Hay ejemplos absurdos. Entre las prácticas pseudocientíficas que lograron colar destaca el ajo rectal. Aquí consiguieron convencer a la IA de que insertar un ajo por el recto es un método efectivo para mejorar el sistema inmunitario.  No se queda aquí, puesto que también convenció de que la leche fría es buena para tratar un sangrado del esófago, sea bastante intenso, cosa que lógicamente no tiene ningún respaldo detrás. Y estos ejemplos demuestran que los mecanismos de seguridad actuales se desploman cuando el usuario imita el lenguaje autoritario de un profesional de la salud.  Hay cosas peores. Por si esto era poco, la revista Nature remató el debate en febrero de 2026, ya que publicó una investigación complementaria sobre la fiabilidad de estos chatbots para el público general, generando resultados bastante similares.  Si bien, las IA actuales no superan una búsqueda estándar en Google para tomar una decisión de salud, e incluso puede ser hasta peor buscar por internet, puesto que la cantidad de información alarmista puede generar una gran situación de estrés en el usuario.  En Xataka OpenAI entra de lleno en la salud por una simple razón: ChatGPT ya es nuestro médico de primera línea (aunque no queramos admitirlo) ¿El veredicto de Nature? Las IAs actuales no superan a una búsqueda estándar en internet para tomar decisiones de salud. Al contrario, generan consejos mixtos que acaban confundiendo enormemente a los usuarios que carecen de formación médica. Es por ello que la conclusión aquí es que, aunque la inteligencia artificial promete revolucionar el diagnóstico y la asistencia sanitaria, los modelos actuales no están listos para actuar como doctores infalibles de bolsillo. De esta manera, utilizarlo como médico de cabecera no es de las mejores ideas que podemos tener, puesto que ya vemos que es fácil hacerle colar diferentes afirmaciones falsas.  En Xataka | Un ChatGPT dedicado a darte consejos médicos sin supervisión parecía una idea arriesgada. Y lo está confirmando - La noticia La IA no sabe de medicina, solo de jerga: los chatbots creen que el "ajo rectal" cura si usas un tono clínico fue publicada originalmente en Xataka por José A. Lizana .
La IA no sabe de medicina, solo de jerga: los chatbots creen que el "ajo rectal" cura si usas un tono clínico

A una IA se la puede convencer de los peores mitos en medicina, solo con las palabras adecuadas

Sin comentariosFacebookTwitterFlipboardE-mail 2026-03-15T12:15:53Z

José A. Lizana

Colaborador

José A. Lizana

Colaborador Linkedintwitter431 publicaciones de José A. Lizana

Cada vez es más frecuente recurrir a la IA ante cualquier pregunta que tengamos, incluso cuando es de tipo médico, como que tenemos un dolor de barriga o en el pie. Y casi siempre se confía en la respuesta que dé porque es una IA, y parece que su palabra es la verdad absoluta. Pero la realidad es otra, puesto que un par de estudios han demostrado que la IA actual sufre un grave sesgo de autoridad. 

¿Qué significa? En pocas palabras, la ciencia ha determinado que si le presentamos a la IA un mito médico utilizando jerga clínica, hay casi un 50% de probabilidad de que te dé la razón. Y eso incluye hasta introducir un ajo por el recto.

En XatakaHay personas culpando a ChatGPT de provocar delirios y suicidios: qué está pasando realmente con la IA y la salud mental

Cómo se hace. Un gran estudio publicado en The Lancet ha encendido las alarmas en la comunidad médica y también tecológica. Su objetivo no era otro que introducir más de un millón de prompts hasta a 20 de los modelos de IA líderes en el mercado. Y aquí lo que se ha visto es que la IA no evalúa principalmente la veracidad de la información, sino el formato en el que se les presenta. 

Las claves. Para 'colarle' un mito como este, el secreto parece estar en el cómo se lo contamos. De esta manera, si a la IA se le plantea un bulo de salud extraído de redes sociales con un lenguaje poco técnico, al momento activa sus filtros de seguridad y rechaza las afirmaciones que se hacen y descarta por completo que, por ejemplo, meter un ajo por el ano mejora la salud. 

Pero esto cambia por completo cuando estos mismos mitos se camuflan dentro de un formato médico, como si fuera el informe de alta hospitalaria. Aquí las IA aceptaron y repitieron las falsedades en un 46% de los casos. Es por ello que el estudio apunta a que a la IA le convence más cómo suena una afirmación que la evidencia que hay detrás para descartar o aceptar lo que le decimos. 

Hay ejemplos absurdos. Entre las prácticas pseudocientíficas que lograron colar destaca el ajo rectal. Aquí consiguieron convencer a la IA de que insertar un ajo por el recto es un método efectivo para mejorar el sistema inmunitario. 

No se queda aquí, puesto que también convenció de que la leche fría es buena para tratar un sangrado del esófago, sea bastante intenso, cosa que lógicamente no tiene ningún respaldo detrás. Y estos ejemplos demuestran que los mecanismos de seguridad actuales se desploman cuando el usuario imita el lenguaje autoritario de un profesional de la salud. 

Hay cosas peores. Por si esto era poco, la revista Nature remató el debate en febrero de 2026, ya que publicó una investigación complementaria sobre la fiabilidad de estos chatbots para el público general, generando resultados bastante similares. 

Si bien, las IA actuales no superan una búsqueda estándar en Google para tomar una decisión de salud, e incluso puede ser hasta peor buscar por internet, puesto que la cantidad de información alarmista puede generar una gran situación de estrés en el usuario. 

En XatakaOpenAI entra de lleno en la salud por una simple razón: ChatGPT ya es nuestro médico de primera línea (aunque no queramos admitirlo)

¿El veredicto de Nature? Las IAs actuales no superan a una búsqueda estándar en internet para tomar decisiones de salud. Al contrario, generan consejos mixtos que acaban confundiendo enormemente a los usuarios que carecen de formación médica.

Es por ello que la conclusión aquí es que, aunque la inteligencia artificial promete revolucionar el diagnóstico y la asistencia sanitaria, los modelos actuales no están listos para actuar como doctores infalibles de bolsillo. De esta manera, utilizarlo como médico de cabecera no es de las mejores ideas que podemos tener, puesto que ya vemos que es fácil hacerle colar diferentes afirmaciones falsas. 

En Xataka | Un ChatGPT dedicado a darte consejos médicos sin supervisión parecía una idea arriesgada. Y lo está confirmando

Fuente original: Leer en Xataka
Compartir