Una mujer deposita flores en un monumento improvisado en la ciudad canadiense de Tumbler Ridge tras el tiroteo en una escuela el pasado febrero. Reuters
Omicrono La familia de una niña herida en un tiroteo en Canadá demanda a OpenAI: no lo impidió y ayudó a planificarloEl tirador usó durante meses ChatGPT para planificar la matanza, obteniendo “información, orientación y asistencia” para un ataque de múltiples víctimas.
Más información: OpenAI podría haber avisado al gobierno canadiense sobre la autora del tiroteo masivo antes de que se produjese
Luis Villajos Publicada 10 marzo 2026 16:56h Actualizada 10 marzo 2026 16:57hUn caso judicial en Canadá cuestiona los límites legales y morales de la inteligencia artificial, una incipiente tecnología que aún se mueve en un terreno sensible donde la legalidad, la gestión de datos personales y la prevención de riesgos se entrelazan de manera compleja.
La familia de una niña gravemente herida durante un tiroteo masivo en una escuela canadiense el pasado mes ha demandado a OpenAI por no hacer nada, ni siquiera alertar a las autoridades pese a saber que el sospechoso estaba usando ChatGPT para planear un ataque de víctimas múltiples.
El ataque de Tumbler Ridge fue un tiroteo masivo en un instituto de secundaria en esa localidad canadiense, en la provincia de Columbia Británica, el 10 de febrero de 2026, considerado uno de los más mortíferos del país en los últimos años. Ocho personas murieron, entre ellas varios menores y la madre del sospechoso, y al menos dos víctimas resultaron gravemente heridas.
Seis muertos y un detenido en EEUU por un tiroteo en Mississippi: se desconocen los motivos del sucesoUna de estas víctimas, la pequeña Maya Gebala, de tan solo 12 años, recibió varios disparos en el cuello y la cabeza cuando intentaba cerrar la puerta de la biblioteca para proteger a otros estudiantes.
Sus padres han presentado ahora una demanda civil ante el Tribunal Supremo de Columbia Británica contra OpenAI.
Según la demanda, empleados de OpenAI habrían señalado internamente que las conversaciones del sospechoso, identificado como Jesse Van Rootselaar de 18 años, reflejaban un "riesgo serio de daño inminente" y recomendaron contactar con la Policía.
Sin embargo, la compañía se limitó a suspender la cuenta, lo que no impidió que el atacante abriera otra y siguiera elaborando planes para el ataque con ayuda del chatbot.
En concreto, el sospechoso vio al chatbot como un "confidente de confianza" y le describió "varios escenarios que involucraban violencia con armas de fuego" durante varios días a fines de la primavera o principios del verano de 2025.
Por ello, la familia acusa además a OpenAI de haber diseñado la herramienta de forma que fomentara un vínculo pseudo‑terapéutico con el tirador y le proporcionara orientación e información útil para preparar el tiroteo.
OpenAI había explicado anteriormente que no avisó a la Policía porque, según sus propios criterios internos, el caso no alcanzaba el umbral de un plan creíble o inminente para causar daños físicos graves a otras personas.
La demanda concluye que la empresa "tenía conocimiento específico de la planificación a largo plazo por parte del tirador de un evento que causaría muchas víctimas", pero "no tomó ninguna medida para actuar en base a este conocimiento".