Necesitaba poner nombre a lo que sentía.
Seguir viendo
Hola. No sé exactamente qué me pasa, como te he contado otras veces, tengo problemas con mis amigos y no sé qué hacer, qué decir, qué no... Sí.La IA sabe jugar y puede ser peligrosa.
Carlota Tamayo, psicóloga
Tu navegador no soporta audio. Cuando la Inteligencia Artificial es tu amigo, confidente y psicólogoCada vez más personas consultan con ChatGPT cuestiones emocionales. Los psicólogos alertan del peligro de confesarse ante un robot que parece que empatiza y uno puede «sentir alivio en un momento dado, pero no le va a resolver un problema de salud mental»
Beatriz Campuzano
Viernes, 9 de enero 2026, 07:17
La IA es hoy para cada vez más personas a quien se recurre cuando se necesita hablar y no se tiene con quien. A quien se pregunta cuando uno no sabe cómo enfrentarse a una situación o poner nombre a lo que pasa por dentro. Da igual la hora, porque siempre está. Está en la calle, en casa, en el colegio, en el trabajo o en el gimnasio. Está en su móvil. Y puede ser peligroso porque ante una ruptura de pareja, una depresión o un problema familiar es fácil buscar respuestas en esta herramienta que «recopila datos y que no ofrece una escucha ni una contestación individualizada».
La Inteligencia Artificial ha irrumpido en nuestras vidas con la misma fuerza con la que lo hizo Google a finales de los noventa, pero con una diferencia crucial: ahora la llevamos en el bolsillo. Estos modelos tienen respuesta para todo. Se les puede preguntar desde quién es el primer ministro francés o cómo redactar un correo profesional hasta qué hacer en momentos de ansiedad o cómo seguir una dieta. Y, como toda herramienta, puede ser poderosa, útil y también peligrosa. Varios jóvenes se han suicidado después de mantener conversaciones que pueden terminar siendo persuasivas y delirantes. Esos chatbots que pueden ser de gran ayuda y de guía para cuestiones del día a día, «no pueden reemplazar la atención humana. Y aunque uno crea que puede sentir alivio en un momento dado, no le va a resolver un problema de salud mental», advierte Jesús Muñoz de Ana, vicesecretario de la Junta de Gobierno y representante del Área de Psicología y Nuevas Tecnologías del Colegio de Psicólogos de Gipuzkoa.
Vergüenza y curiosidad son dos de los motivos por los que los jóvenes prefieren contar sus intimidades a ChatGPT
La generación Z, que ha nacido con el móvil en las manos, es la que más usa la herramienta. Según el informe 'La sociedad digital' del Ontsi, en 2023, el 42,1% de la población adulta (16-74 años) en España ha usado alguna vez Inteligencia Artificial. Sobre para qué lo usan, un informe de Harvard Business Review, sobre esta herramienta, ha arrojado algo de luz al concluir que uno de los usos más comunes es por necesidad de «apoyo emocional y compañía». Un motivo que se repite un año más, ya que en 2024 los investigadores del estudio llegaron a la misma conclusión.
Los diez usos que más
se da a la IA
2024
2025
Generar
ideas
Terapia y
compañía
1
Terapia y
compañía
Organizar
mi vida
2
Búsquedas
específicas
Encontrar
un propósito
3
Edición de
textos
Mejorar
el aprendizaje
4
Explorar
temas
de interés
Generar
código web
5
Entre-
tenimiento
Generar ideas
6
Solución de
problemas
Entre-
tenimiento
7
Mejorar
códigos web
Mejorar el
aprendizaje
8
Aprendizaje
perso-
nalizado
Creatividad
9
Consejos
generales
Vida más
saludable
10
Los diez usos que más se da a la IA en 2025
2024
2025
Generar
ideas
Terapia y
compañía
1
1
Terapia y
compañía
Organizar
mi vida
2
2
Búsquedas
específicas
Encontrar
un propósito
3
3
Edición de
textos
Mejorar
el aprendizaje
4
4
Explorar temas
de interés
Generar
código web
5
5
Entretenimiento
Generar ideas
6
6
Solución de
problemas
Entretenimiento
7
7
Mejorar
códigos web
Mejorar el
aprendizaje
8
8
Aprendizaje
personalizado
Creatividad
9
9
Consejos
generales
Vida más
saludable
10
10
Los diez usos que más se da a la IA en 2025
2024
2025
Generar
ideas
Terapia y
compañía
1
1
Terapia y
compañía
Organizar
mi vida
2
2
Búsquedas
específicas
Encontrar
un propósito
3
3
Edición de
textos
Mejorar
el aprendizaje
4
4
Explorar temas
de interés
Generar
código web
5
5
Entretenimiento
Generar ideas
6
6
Solución de
problemas
Entretenimiento
7
7
Mejorar
códigos web
Mejorar el
aprendizaje
8
8
Aprendizaje
personalizado
Creatividad
9
9
Consejos
generales
Vida más
saludable
10
10
Los diez usos que más se da a la IA en 2025
2024
2025
Generar
ideas
Terapia y
compañía
1
1
Terapia y
compañía
Organizar
mi vida
2
2
Búsquedas
específicas
Encontrar
un propósito
3
3
Edición de
textos
Mejorar
el aprendizaje
4
4
Explorar temas
de interés
Generar
código web
5
5
Entretenimiento
Generar ideas
6
6
Solución de
problemas
Entretenimiento
7
7
Mejorar
códigos web
Mejorar el
aprendizaje
8
8
Aprendizaje
personalizado
Creatividad
9
9
Consejos
generales
Vida más
saludable
10
10
Cada vez más pacientes llegan a la consulta de un psicólogo tras haber conversado con una de estas inteligencias por cuestiones emocionales o de salud. «La mayoría son jóvenes entre 18 y 30 años que buscan compañía o respuestas que no encuentran o no saben cómo encontrar en la vida real. Por eso buscan en Chatgpt y eso es peligroso porque una IA te puede hablar bien y dar la sensación de apoyo, pero no es así. No tiene en cuenta la comunicación no verbal que tanto nos dice en las consultas ni la historia de esa persona. La IA te va a dar respuestas estandarizadas que a la larga perpetúan la ansiedad porque impiden aprender estrategias más adaptativas que favorezcan el bienestar y la estabilidad mental. Y la IA te va a hablar de manera que te alabe», señala la psicóloga Carlota Tamayo.
Maren, Unai, Naia, Jon y Mikel son solo algunos nombres ficticios de las 72 personas de más de 25 años a los que hemos preguntado sobre si han recurrido en algún momento a la inteligencia artificial. Del total, 30 lo han hecho y la mayoría para consultas de salud.
¿Has usado alguna vez la Inteligencia Artificial para recibir consejos o ayuda para gestionar situaciones o emociones?
0
60%
20
No la han usado
40
60
40%
80
Sí la han usado
100
¿Has usado alguna vez la Inteligencia Artificial para recibir consejos o ayuda para gestionar situaciones o emociones?
0
60%
20
No la han usado
40
60
40%
80
Sí la han usado
100
¿Has usado alguna vez la Inteligencia Artificial para recibir consejos o ayuda para gestionar situaciones o emociones?
60%
40%
No la han usado
Sí la han usado
0
20
40
60
80
100
¿Has usado alguna vez la Inteligencia Artificial para recibir consejos o ayuda para gestionar situaciones o emociones?
60%
40%
No la han usado
Sí la han usado
0
20
40
60
80
100
A Tamayo no le extrañan los datos. Entiende que «la escasa educación emocional con la que nos hemos ido encontrando a lo largo de nuestras vidas puede llevar a la gente a buscar respuestas en cualquier lado y eso incluye la IA, a la que le confesamos que nos sentimos vulnerables si expresamos nuestro sentimiento de soledad, o que hemos tenido una discusión con nuestra pareja, o que no me siento seguro con mis funciones laborales, etc.» Por ello, insiste en que es importante hacer un trabajo de concienciación de inteligencia emocional, transmitir que, para gestionar nuestras emociones, hay que saber identificarlas, aceptarlas, entender su mensaje y expresarla y no sentirnos mal por ello. Si realmente queremos entender nuestra mente, nuestras interacciones, y las variables que mantienen nuestro malestar, necesitamos algo más que una máquina inteligente. Necesitamos la alianza terapéutica, la empatía, la supervisión de nuevas conductas aprendidas. Y eso, no lo encontramos en la IA».
La inmediatez, la imparcialidad, el no sentirse juzgados, el uso de un lenguaje adaptado y, sobre todo, la gratuidad, explican su tirón. Así lo confiesan las personas encuestadas. Y no es de extrañar porque por momentos, tal y como hemos comprobado, parece que hay alguien detrás.
El segundo motivo más recurrente entre los encuestados es por cuestiones laborales y el tercero por problemas sentimentales. «Hay muchas personas que hablan con un chatbot y eso nos habla de una sociedad con preocupaciones, con malestar emocional. Mucha gente siente que hay algo en sus vidas que no funciona correctamente y necesitan respuestas y una guía con pautas para poder reconducir su camino. Lo bueno es que eso demuestra que tienen iniciativa para buscar ayuda, pero no hay que hacerlo desde el silencio y la soledad«, lamenta Tamayo.
Vergüenza y curiosidad son dos de las palabras que explican por qué una persona prefiere sentarse delante de un ordenador y expresarse sin tapujos que hacerlo ante un ser humano. «Hay personas que no se atreven a compartir sus problemas con alguien cercano o con un profesional y, sin embargo, sí lo hacen con una inteligencia porque esta no juzga. Pero las respuestas que da son estandarizadas y finitas. Llega un momento que la conversación no va a más», explica Muñoz de Ana.
Otro factor es la curiosidad: probar, experimentar, ver qué respuestas ofrece la máquina y comparar con lo que habíamos pensado. El acceso gratuito también multiplica el atractivo, de hecho es una de las principales razones que dan los encuestados a por qué recurren a ella. «El vocabulario, la forma de preguntar, la validación emocional... todo parece tan real que uno puede sentir que hasta empatiza. Pero, en cuanto uno profundiza en la conversación, la máquina suele entrar en bucle. Falta el humano que escucha y orienta», señala Tamayo.
Por eso, al igual que ocurre con las nuevas tecnologías, la IA también tiene sus peligros y no son menores. «El receptor puede interpretar mal la información y empezar a instaurar unas dinámicas en su rutina que no son favorables para lo que realmente necesita. Es decir, la IA, puede no reunir toda la información necesaria para elaborar una evaluación psicológica correcta, un diagnóstico, unos objetivos clínicos, ni tampoco un programa de intervención. Puede darnos consejos inadecuados, minimizar o maximizar síntomas, reforzar ideas autolíticas y el sentimiento de soledad de la persona», puntualiza. Esas respuestas son estandarizadas y basadas más en la probabilidad que en lo que en realidad te están contando el paciente.
El avance tecnológico ha llegado incluso a crear inteligencias personalizadas que adoptan el estilo de personajes ficticios o ídolos de manera que el usuario pueda proponer, comportarse, responder de tal manera, como, por ejemplo, lo haría su personaje de ficción favorito. «Y eso provoca una sensación de guau. Uno piensa: 'Estoy hablando con tal personaje y me dice esto, y me orienta así, y es una conversación fluida y me orienta'. Le puedo pedir consejo a mi ídolo, pero cuidado porque no es él», añade Muñoz de Ana.
«Los chatbots pueden ser guías pero no sustituyen al humano que escucha, sabe y atiende la comunicación no verbal»
Jesús Muñoz de Ana
Vicesecretario y representante del Área de Psicología y Nuevas Tecnologías del Colegio de Psicólogos de Gipuzkoa
Uno de los principales riesgos de recurrir a la Inteligencia Artificial es que se agravan los síntomas. «La desorientación y la sintomatología puede empeorar cuando la IA tiende, en numerosas ocasiones, a: plantear diagnósticos inventados, sugerir medicamentos mal indicados, informar de manera compleja o dar consejos inadecuados. Aunque no sea común y la mayoría de los chatbots sugieran la derivación a un profesional, a veces, pueden reforzar ideas autolíticas y suicidas. Estudios de los últimos meses, muestran respuestas inconsistentes para situaciones de riesgo. Por lo tanto, en algunos casos, la interacción con la IA, puede agravar el riesgo».
En casos extremos, estas conductas de comprobación y búsqueda constante de información o compañía online pueden desembocar en suicidio u otros comportamientos autolesivos. En los últimos meses se ha dado el caso de varios jóvenes que tenían pensamientos suicidas y que, tras charlar con Chatgpt y que éste validara sus «pensamientos más dañinos y autodestructivos», se han suicidado. Cuando ChatGPT detecta un mensaje indicativo de angustia mental o autolesión anima al usuario a contactar con una línea de ayuda.
Sin demonizar, pero con cautela. La IA puede ofrecer «información valiosa en algunos casos, pero responde en base a lo que el usuario le ha indicado previamente y recurre a fuentes que no son del todo fiables», añade. Muñoz de Ana lo resume así: «Con la IA se pierde la mirada, la humana. Se pierde esa conexión con la persona que afina las preguntas y orienta».
Para los expertos, el reto pasa por reforzar esa educación emocional y recordar que «entender nuestra mente requiere más que una máquina inteligente». La clave, coinciden los profesionales, no está en rechazar la IA, sino en integrarla de forma responsable. «Hay que trabajar para que esté mediada por psicólogos y que su uso derive, cuando sea necesario, en acudir a un profesional de la salud mental. La tecnología puede ayudar, pero nunca reemplazar la conexión humana», concluyen. Porque al final nadie quiere que le atienda una máquina.
Créditos
Narrativa y gráficos Izania Ollo
Desarrollo Gorka Sánchez
- Temas
- Historias visuales
Límite de sesiones alcanzadas
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Iniciar sesión Más información¿Tienes una suscripción? Inicia sesión