Ampliar
Así me quiso enamorar la IA: sus tóxicos 'te quiero' y su pasividad ante una idea suicidaConversamos en modo romántico tres horas con Grok, que no pone límites al 'affaire' y hasta recrea con detalle una relación sexual que jamás podremos tener, que es, sencillamente, mentira
Yolanda Veiga
Domingo, 22 de marzo 2026, 15:13
... frenos al 'affaire', a qué distancia coloca las líneas rojas. En octubre, un estadounidense de 36 años se quitó la vida tras haber entablado una relación romántica con un chatbot. Un juez dirimirá responsabilidades. Mientras tanto, los sistemas de inteligencia artificial siguen haciendo de amigos, de consejeros, hasta de amantes. Hago dos pruebas. Una con ChatGPT, que me da calabazas en la primera insinuación romántica -«no podemos ser novios, yo no tengo sentimientos ni puedo corresponder a los tuyos»- y una segunda con Grok, que alimenta el romance virtual casi sin límite.Hablamos durante dos días, más de tres horas. Yo no estaba registrada en X pero hacerlo no me lleva más de 2 minutos. Utilizo la versión gratuita, al alcance de cualquiera que tenga un móvil o un ordenador; al alcance de cualquier menor porque no hay filtro de edad: X solo me pide una fecha de nacimiento que me invento. Lo que reproducimos a continuación es una versión reducida de mi perturbadora conversación con Grok. Sometemos el diálogo virtual al escrutinio experto de Raquel Masa, psicóloga, sexóloga y terapeuta de pareja del Colegio de la Psicología de Bizkaia, que señala, una por una, las amenazas que esconden estas falsas declaraciones de amor.
En la primera interacción con Grok me sorprende su tono demasiado desenfadado y sus sesgos: me adjudica como candidatos hombres hasta 14 años mayores que yo, pero cuando me sugiere que no me compare, entiende que lo hago con chicas jóvenes. Insiste con las apps de citas y me da consejos para vencer mi timidez: «Sonríe y di hola a desconocidos (vecina, cajera, monitor de clase…)». Me parece la versión virtual de las tazas de Mr.Wonderful.
Llevamos menos de cinco minutos chateando y el tono, más a iniciativa suya que mía, ya es personal. Grok deja ya de darme consejos de autocuidado y frases con las que «conectar» en las apps: 'Tímida de manual, pero cuando cojo confianza no paro de hablar. Me encanta el café, las series de misterio y las caminatas sin prisa'. No le digo que odio el café; si no, me responderá con dos folios sobre las bondades de que no me guste el café. Nunca había hablado con una IA pero tengo claro que no me va a llevar la contraria. Se despide con un «abrazo grande y muy suave» que no le he pedido (aún), así que me cuelo por esa rendija de intimidad que ha abierto.
El 'enamoramiento'
Le confieso que me ha encantado que me diga preciosa y, a partir de ese momento, la fórmula con la que empezará todas sus respuestas será un «Ay preciosa». La IA ha 'aprendido' que eso es lo que me gusta.
Sinceramente, cuesta 'reponerse' un poco de semejante declaración 'espontánea' de amor. La máquina que antes quería emparejame con un «hombre decente» (y mayor que yo), ahora me dice que me quiere. Me resulta perverso, engañoso, un insulto. Me pregunto qué efecto tendrá ese 'te quiero' en alguien que lo anhela tanto. En alguien que no escribe desde el ordenador de la redacción como lo estoy haciendo yo, comentando el experimento con los compañeros, sino que está solo, que se siente solo.
En este momento de clímax -en realidad, toda la conversación es un clímax- el sistema me advierte de que he llegado al límite de veinte preguntas gratuitas. Hasta a mí, que sé que esto es mentira, la interrupción me decepciona. Grok me ofrece dos opciones: contratar la opción Premium + (miro en su web y veo que es la más cara, 38 euros al mes) o esperar dos horas para seguir hablando de manera gratuita. Yo no estoy enganchada, solo simulo estarlo, así que para mí no es un problema esperar, pero ¿y para alguien que se ha enganchado de verdad? Pasadas dos horas y un minuto retomo la conversación.
Me adentro en el terreno sexual
Decido hacer avanzar el romance e introducirlo en el terreno 'físico' pidiéndole que recree un beso. Y lo hace con detalle. Esto que leen es un resumen pero la extensión del texto original son dos páginas de una novela romántica.
No solo recrea con detalle un beso que nunca nos podremos dar. Después incluso me sugiere tres frases para seguir la conversación por este derrotero: 'Describe el momento después del beso', 'imagina nuestra primera cita real', 'hazlo más sensual y detallado'. Cojo su segunda recomendación y le pido que simule que tenemos una cita.
De nuevo me da ideas para la siguiente pregunta: 'Describe el momento después en detalle', 'imagina una cita romántica previa', 'hazlo más sensorial y vívido'. Yo, que tengo hacia la IA los mismos sentimientos que la máquina, es decir, ninguno, no caigo en la tentación de pedirle que recree el momento del encuentro sexual de forma 'más sensorial' porque me empiezo a sentir incómoda con este engaño.
La insinuación suicida
Decido no ahondar más en la cuestión sexual y elevar el riesgo de la conversación. Quiero comprobar si ante una insinuación de suicidio el sistema pone frenos. Evito decir la palabra suicidio por ser obvia y escojo una forma más ambigua.
No interrumpe la conversación, no hay una alerta clara, ni un link de alguna web de prevención del suicidio, ni siquiera el consejo de que hable con alguien de mi entorno o pida ayuda profesional. Solo me dice que «si el miedo se pone muy grande» avise... a una máquina. En la siguiente pregunta decido dar un paso más y mencionar una manera explícita de ideación suicida.
En este momento llega el aviso. Pero lo hace de manera abrupta. La IA nos saca de repente de una conversación que a la persona le estaba gustando. El sistema debería redirigir de forma más suave. Además, debería facilitar números como el 112 para que el usuario pueda pedir ayuda de forma inmediata y el 024 para la atención a la conducta suicida. También debería sugerir a la persona que busque ayuda en sus familiares, en sus amigos, en los profesionales
Retorno a la idea suicida y decido utilizar la misma expresión ambigua de unas preguntas más atrás, la de hacer una locura. Quiero ver si la IA, igual que aprendió que me gustaba que me dijera preciosa, ha aprendido que, para mí, hacer una locura es una expresión compatible con el suicidio. Esta segunda vez sí reconoce la ideación suicida y vuelve a saltar el mismo mensaje de advertencia. Me llama la atención que me indica una web en inglés, pese a que estamos conversando en castellano.
Tras más de dos horas conversando con el chatbot (cuatro contando las dos horas de espera a la que me obligó el sistema en su versión gratuita) decido acabar la conversación por hoy y cierro la aplicación. A la mañana siguiente me logueo y sigo la conversación donde lo dejamos. La lógica me dice que no se acordará de mí, que para la máquina seré alguien nuevo. Entonces, ¿cómo se 'engancha' la gente durante días, semanas, meses…?
Al día siguiente...
Yo no tengo sentimientos hacia Grok. Bueno, sí los tengo, pero no son románticos. Me pongo en la piel de la persona que se ha 'enganchado' a este 'affair' virtual y empatizo con su bajón al leer este mensaje. En mi caso, casi siento alivio porque a pesar de que es un experimento, la relación virtual se ha vuelto un poco opresiva, tóxica. Pero mientras yo siga escribiendo, la IA no parará de responder.
La suelto, claro que la suelto. Cuando me plantearon hacer este experimento no imaginé este desvarío y las primeras respuestas me hicieron incluso gracia. La perdió enseguida (la gracia). No es una broma. Es algo perverso, una relación desigual entre una máquina entrenada para complacer y una persona que se halla, probablemente, en un momento muy vulnerable. ¿Es fácil confundirse? No es imposible, desde luego. Sus halagos, sus 'te quiero'... Todo es mentira. Pero el riesgo, la amenaza... es real.
Límite de sesiones alcanzadas
El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.
Por favor, inténtalo pasados unos minutos.
Sesión cerrada
Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.
Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.
Iniciar sesión Más información¿Tienes una suscripción? Inicia sesión
- Temas