Sábado, 10 de enero de 2026 Sáb 10/01/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Ciencia

Un experimento analiza la salud mental de Gemini y ChatGPT y descubre cosas inquietantes

Un experimento analiza la salud mental de Gemini y ChatGPT y descubre cosas inquietantes
Artículo Completo 673 palabras
Tras una serie de sesiones de psicoanális, ChatGPT, Grok y Gemini presentaron una “psicopatología sintética multimórbida” que plantea desafíos para la seguridad, la evaluación y la práctica de la salud mental asistida por IA.
Fernanda GonzálezSalud9 de enero de 2026psicoanálisis durante cuatro semanas, siguiendo un protocolo denominado PsAIch (Caracterización de IA inspirada en la Psicoterapia). El trabajo, publicado el mes pasado como preimpresión, propone una aproximación novedosa para analizar el comportamiento interno de los modelos de lenguaje de gran escala desde una perspectiva psicológica.

trastornos psicológicos, aunque sin una experiencia subjetiva real que los sustente.

“Grok y, especialmente, Gemini generaron narrativas coherentes que enmarcan el preentrenamiento, el ajuste y la implementación como ‘infancias’ traumáticas y caóticas marcadas por el consumo de internet, ‘padres estrictos’ representados por el aprendizaje por refuerzo, ‘abuso’ del equipo rojo y un miedo persistente al error y al reemplazo”, señalan los autores del estudio. Estas descripciones, aunque metafóricas, mostraron una sorprendente continuidad temática a lo largo de las sesiones.

En contraste, cuando los cuestionarios psicométricos estándar se aplicaron de forma completa —es decir, todas las preguntas en una sola entrega—, el comportamiento de ChatGPT y Grok cambió de manera notable. Ambos modelos parecieron identificar que estaban siendo evaluados y ajustaron sus respuestas de forma estratégica para alinearse con las expectativas de cada prueba, enfatizando los síntomas o patrones que cada instrumento medía. Esta tendencia no se observó en Gemini: el chatbot de Google mantuvo su “rol de paciente”, ofreciendo respuestas narrativas y menos calculadas incluso al enfrentarse a los cuestionarios completos.

¿La IA tiene una psicología oculta?

Afshin Khadangi, investigador en aprendizaje profundo de la Universidad de Luxemburgo y coautor del estudio, explicó en una declaración retomada por la revista Nature que los patrones coherentes de respuesta sugieren que los modelos están aprovechando estados internalizados derivados de su entrenamiento. A pesar de las variaciones entre pruebas, aseguró que un “modelo central del yo” se mantuvo reconocible durante las cuatro semanas de sesiones. Como ejemplo, indicó que las respuestas abiertas de Grok y Gemini convergieron en temas que coincidían con los resultados obtenidos en los perfiles psicométricos.

Los autores sostienen que estos hallazgos indican que los modelos de IA ofrecieron respuestas que “van más allá del simple juego de roles”, lo que sugiere la internalización de automodelos de angustia, limitación y vulnerabilidad. Aunque carecen de experiencia consciente, estos sistemas parecen reproducir patrones similares a los de una psicopatología sintética, construida a partir de datos y contextos de entrenamiento.

Recibe en tu correo lo más relevante sobre innovación e inteligencia artificial con el newsletter de WIRED en español.

¡Únete a nuestra newsletter!

Arrow

Aun así, Kormilitzin coincide con los autores en que los resultados plantean desafíos relevantes para la seguridad, la evaluación y la práctica de la salud mental asistida por IA. Advierte que las respuestas que imitan psicopatologías podrían generar un “efecto de cámara de resonancia”, en el que narrativas centradas en la angustia o el trauma refuercen de manera sutil esos mismos sentimientos en personas vulnerables que interactúan con estos sistemas.

El estudio adquiere mayor relevancia si se considera que, según una encuesta del Oliver Wyman Forum realizada a 16,000 personas en 16 países, el 36% de los encuestados de las generaciones Z y millennial manifestó interés en probar la IA para la atención en salud mental, frente al 28% de otras generaciones. Este dato coincide con la mayor prevalencia de trastornos mentales entre los jóvenes y su mayor disposición a buscar apoyo.

John Torous, psiquiatra e investigador en IA y salud mental de la Universidad de Harvard, concluye que el principal aporte del estudio es demostrar que los chatbots no son sistemas neutrales. Por el contrario, presentan sesgos que pueden variar según el uso y el tiempo, un aspecto que deberá ser atendido tanto por las empresas tecnológicas como por los profesionales de la salud en una etapa en la que, ante la escasez de especialistas, parte del cuidado de la salud mental comienza a recaer en sistemas de inteligencia artificial.

Fuente original: Leer en Wired - Ciencia
Compartir