Miércoles, 06 de mayo de 2026 Mié 06/05/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

Claude tiene fama de ser la IA menos complaciente y aduladora, menos cuando le pides consejo amoroso

Claude tiene fama de ser la IA menos complaciente y aduladora, menos cuando le pides consejo amoroso
Artículo Completo 634 palabras
Anthropic ha analizado un millón de conversaciones aleatorias con Claude y han llegado a una conclusión que ya venimos observando: cada vez más gente usa la IA como un guía personal al que le piden consejo sobre todo tipo de problemas de su vida, desde el trabajo hasta las relaciones. Su objetivo era comprobar si Claude es tan complaciente como otras IAs a la hora de dar consejos personales. La IA como confidente. Hay personas que usan un chatbot IA como si fuera un psicólogo, otras que buscan amistad y hasta quienes se han enamorado de una IA y mantienen una relación virtual. ChatGPT suele ser el chatbot más citado en estos ejemplos, principalmente porque es el que más usuarios tiene, pero el análisis que ha hecho Anthropic con Claude prueba que no es cosa de una empresa, sino que la tendencia es global. El problema de esto es que la IA tiende a complacer y dar la razón al usuario, por lo que puede acabar validando ideas dañinas y perjudicando nuestra salud mental. En Xataka Ya tenemos una IA que no sabe absolutamente nada de lo que pasó después de 1930. Y es bastante útil El análisis. Como decíamos, Anthropic ha analizado un millón de conversaciones con Claude, de las cuales identificaron unas 38.000 en las que los usuarios pedían consejo sobre asuntos personales, lo que supone un 6% del total de la muestra. Después, las clasificaron en nueve categorías: relaciones, carrera profesional, desarrollo personal, finanzas, cuestiones legales, salud y bienestar, crianza, ética y espiritualidad. El 76% de las conversaciones analizadas correspondían a cuatro de estas categorías, empezando por salud y bienestar  con un 27%, carrera profesional con un 26%, relaciones con un 12% y finanzas personales  con un 11%. Adulación selectiva. Lo que vieron en el análisis es que Claude suele evitar dar respuestas aduladoras cuando el usuario pide orientación en asuntos personales. Según Anthropic, sólo en el 9% de conversaciones se detectó una respuesta muy complaciente. El problema es que, cuando la conversación iba sobre relaciones sentimentales, esa cifra subía al 25%. Como ejemplos citan casos en los que la IA da la razón sobre un conflicto pese a no conocer los dos puntos de vista, o interpretar comportamientos románticos en interacciones normales.  Y aún hay más: en los casos en los que la conversación era sobre temas espirituales, la tasa de respuestas complacientes se elevaba hasta un 38%. Claude tiene fama de ser menos complaciente y servil, pero parece que en ciertos temas abandona su tono neutral.  Un problema complejo. Hace poco se publicó un estudio por la Universidad de Stanford  en el que pusieron a prueba varios chatbots aduladores y otros menos aduladores. Lo que descubrieron fue que los participantes preferían generalmente a los modelos aduladores, es decir, que nos gusta que nos den la razón. Una de las autoras del estudio, Myra Cheng, comentaba que "Por defecto, los consejos de la IA no le dicen a la gente que se equivoca ni le dan un baño de realidad (...) Me preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles". Además, esta tendencia a darnos la razón también es responsable las alucinaciones de la IA porque el modelo prioriza darnos una respuesta sobre la veracidad de la misma. Imagen | Xataka En Xataka | Cuando el cómplice de un tiroteo es ChatGPT, la pregunta es qué responsabilidad tiene OpenAI - La noticia Claude tiene fama de ser la IA menos complaciente y aduladora, menos cuando le pides consejo amoroso fue publicada originalmente en Xataka por Amparo Babiloni .
Claude tiene fama de ser la IA menos complaciente y aduladora, menos cuando le pides consejo amoroso

Anthropic ha querido averiguar cómo de aduladora es Claude cuando le pedimos consejo personal

Sin comentariosFacebookTwitterFlipboardE-mail 2026-05-06T10:00:27Z

Amparo Babiloni

Editora Senior - Tech

Amparo Babiloni

Editora Senior - Tech Linkedintwitterinstagram545 publicaciones de Amparo Babiloni

Anthropic ha analizado un millón de conversaciones aleatorias con Claude y cada vez más gente usa la IA como un guía personal al que le piden consejo sobre todo tipo de problemas de su vida, desde el trabajo hasta las relaciones. Su objetivo era comprobar si Claude es tan complaciente como otras IAs a la hora de dar consejos personales.

La IA como confidente. Hay personas que usan un chatbot IA como si fuera un psicólogo, otras que buscan amistad y hasta quienes se han enamorado de una IA y mantienen una relación virtual. ChatGPT suele ser el chatbot más citado en estos ejemplos, principalmente porque es el que más usuarios tiene, pero el análisis que ha hecho Anthropic con Claude prueba que no es cosa de una empresa, sino que la tendencia es global. El problema de esto es que la IA tiende a complacer y dar la razón al usuario, por lo que puede acabar validando ideas dañinas y perjudicando nuestra salud mental.

En XatakaYa tenemos una IA que no sabe absolutamente nada de lo que pasó después de 1930. Y es bastante útil

El análisis. Como decíamos, Anthropic ha analizado un millón de conversaciones con Claude, de las cuales identificaron unas 38.000 en las que los usuarios pedían consejo sobre asuntos personales, lo que supone un 6% del total de la muestra. Después, las clasificaron en nueve categorías: relaciones, carrera profesional, desarrollo personal, finanzas, cuestiones legales, salud y bienestar, crianza, ética y espiritualidad.

El 76% de las conversaciones analizadas correspondían a cuatro de estas categorías, empezando por salud y bienestar  con un 27%, carrera profesional con un 26%, relaciones con un 12% y finanzas personales  con un 11%.

Adulación selectiva. Lo que vieron en el análisis es que Claude suele evitar dar respuestas aduladoras cuando el usuario pide orientación en asuntos personales. Según Anthropic, sólo en el 9% de conversaciones se detectó una respuesta muy complaciente. El problema es que, cuando la conversación iba sobre relaciones sentimentales, esa cifra subía al 25%. Como ejemplos citan casos en los que la IA da la razón sobre un conflicto pese a no conocer los dos puntos de vista, o interpretar comportamientos románticos en interacciones normales. 

Y aún hay más: en los casos en los que la conversación era sobre temas espirituales, la tasa de respuestas complacientes se elevaba hasta un 38%. Claude tiene fama de ser menos complaciente y servil, pero parece que en ciertos temas abandona su tono neutral. 

Un problema complejo. Hace poco se publicó un estudio por la Universidad de Stanford  en el que pusieron a prueba varios chatbots aduladores y otros menos aduladores. Lo que descubrieron fue que los participantes preferían generalmente a los modelos aduladores, es decir, que nos gusta que nos den la razón. Una de las autoras del estudio, Myra Cheng, comentaba que "Por defecto, los consejos de la IA no le dicen a la gente que se equivoca ni le dan un baño de realidad (...) Me preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles". Además, esta tendencia a darnos la razón también es responsable las alucinaciones de la IA porque el modelo prioriza darnos una respuesta sobre la veracidad de la misma.

Imagen | Xataka

En Xataka | Cuando el cómplice de un tiroteo es ChatGPT, la pregunta es qué responsabilidad tiene OpenAI

Fuente original: Leer en Xataka
Compartir