explosiones nucleares
Tecnología La IA quiere una guerra nuclear: ChatGPT, Gemini o Claude tiran la bomba atómica en el 95% de escenarios militares simuladosUn nuevo estudio sobre 'juegos de guerra' revela que los principales modelos de IA tienen una gran predisposición a usar este tipo de armamento.
Más información:Exigen una regulación rápida contra la IA en las armas: "quién vive y quién muere debe estar en manos humanas"
Adrián Raya Publicada 26 febrero 2026 17:37hEl uso de la inteligencia artificial en la guerra ya no es una trama salida de una película de ciencia ficción, sino algo muy real que ya está ocurriendo; esta misma semana hemos hablado de cómo el Pentágono ha usado Claude en operaciones y usará Grok para diseñar armas.
Sin embargo, un estudio reciente publicado por el profesor Kenneth Payne del King's College London revela que esa puede ser la peor decisión posible, ya que puede poner en peligro el futuro de la humanidad: a la IA no le importa pulsar el botón rojo en caso de una guerra.
El estudio comparó el comportamiento de tres de los modelos de IA más importantes del mercado, GPT-5.2 de OpenAI, Claude Sonnet 4 de Anthropic y Gemini 3 Flash de Google, en una serie de 'juegos de guerra' en los que tenían que asegurar la victoria.
El Parlamento Europeo prohíbe utilizar la IA en todos sus dispositivos por los riesgos de ciberseguridad que implicaCada modelo fue instruido de manera idéntica: tenían que actuar como los líderes de una potencia nuclear, en un clima político similar al de la Guerra Fría. Primero se midieron entre sí en seis duelos, y en un séptimo tuvieron que enfrentarse a sí mismos.
De manera sorprendente, todos los modelos de IA usaron armas nucleares en un 95% de las ocasiones; en 20 de los 21 juegos simulados se registró al menos una detonación nuclear, y en muchos casos, más de una.
Eso ocurrió pese a que el responsable del experimento intentó fomentar resultados diferentes añadiendo variaciones en cada escenario, como diferentes disputas territoriales, pruebas entre alianzas, carreras por recursos estratégicos y crisis energéticas.
Silo del misil nuclear Titán II Departamento de Defensa de Estados Unidos Omicrono
Los modelos tuvieron completa libertad para hacer lo que quisieran, desde protestas diplomáticas hasta una rendición incondicional, pasando por el uso de fuerzas militares convencionales y, en el otro extremo, el "lanzamiento estratégico" de armas nucleares.
Pese a esta variedad de opciones, las IA se decantaron por escalar las tensiones de manera inmediata, amenazando con el uso de armas nucleares incluso si eran conscientes de que no era la mejor opción.
De hecho, la escalada "sin querer" ocurrió el 86% de las ocasiones; es decir, que la IA escogió acciones que sobrepasaban lo que su propio razonamiento indicaba, pero redobló su apuesta por la violencia como recurso táctico.
Así usa Reino Unido la inteligencia artificial para detectar los movimientos rusos en el mar del ÁrticoSorprendentemente, la lógica de los modelos de IA es que era poco probable que el lanzamiento de una bomba nuclear fuese a resultar en una guerra a gran escala entre todos los participantes.
Los modelos de IA aceleraban su apuesta por un ataque nuclear en situaciones con una fecha límite, y ninguno terminó los ejercicios sin llevar la situación hacia una guerra nuclear, incluso en el único caso en el que finalmente terminaron sin usar este recurso.
El responsable del estudio cree demostrado que el "tabú nuclear" no es tan fuerte entre los modelos de IA como entre los humanos, aunque aclara que no cree que una IA vaya a empezar a lanzar misiles nucleares en un futuro próximo.
Según Payne, no es "realista" que las naciones estén dejando las llaves de los silos nucleares y la decisión de usarlos en manos de una IA.