Sábado, 28 de febrero de 2026 Sáb 28/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Internacional

Grok se va a la guerra: los peligros de que la IA tome el control de la estrategia militar y potencie las armas autónomas

Grok se va a la guerra: los peligros de que la IA tome el control de la estrategia militar y potencie las armas autónomas
Artículo Completo 2,278 palabras
Las presiones del Pentágono para utilizar IAs sin salvaguardas ponen en alerta sobre el uso militar de esta tecnología sin supervisión humana. Más información: Utopía feliz o apocalipsis digital: qué es la AGI y por qué es la inteligencia artificial que puede cambiar la vida humana

La tecnología ya da forma a los soldados del presente. Army University Press

Software Grok se va a la guerra: los peligros de que la IA tome el control de la estrategia militar y potencie las armas autónomas

Las presiones del Pentágono para utilizar IAs sin salvaguardas ponen en alerta sobre el uso militar de esta tecnología sin supervisión humana.

Más información:Utopía feliz o apocalipsis digital: qué es la AGI y por qué es la inteligencia artificial que puede cambiar la vida humana

Publicada 28 febrero 2026 01:00h

Suenan tambores de guerra en el Pentágono. Y no sólo por los preparativos para un posible ataque contra Irán, sino por el uso de la inteligencia artificial en el actual Departamento de Guerra de los Estados Unidos.

Donald Trump, a través de su Secretario de Guerra, Peter Hegseth, está apretando las tuercas a Google, OpenAI, xAI y Anthropic, las principales compañías de IA, cada una de ellas con contratos firmados por más de 200 millones de dólares para integrar sus herramientas en plataformas como GenAI.mil.

Su objetivo es poder utilizar sus sistemas sin restricciones para todo tipo de tareas, desde el análisis de informes con material clasificado hasta la planificación de misiones o la toma de decisiones en tiempo real. Y las consecuencias pueden ser catastróficas: un reciente estudio de 'juegos de guerra' ha demostrado que ChatGPT, Gemini o Claude lanzan ataques nucleares en el 95% de escenarios militares simulados.

Estas son las posibilidades de que la inteligencia artificial provoque la extinción del ser humano

De hecho, Hegseth planteó esta semana un ultimátum a Dario Amodei, fundador y CEO de Anthropic, la compañía responsable del chatbot Claude. Es el más integrado hasta la fecha en los sistemas del Pentágono, hasta el punto de que lo llaman WarClaude y ya ha sido usado, sin ir más lejos, durante la captura de Nicolás Maduro.

Sin embargo, las presiones para que esta IA pueda usarse para controlar armas de forma autónoma y llevar a cabo vigilancia masiva en EEUU parecen haber sido en vano: Amodei se ha negado a saltarse sus líneas rojas y cientos de empleados de Google y OpenAI han apoyado su decisión en una carta abierta.

Las consecuencias pueden ser muy negativas para ambos: el Gobierno amenaza con designar la empresa como "un riesgo para la cadena de suministro" y hasta invocar la Ley de Producción de Defensa, que se activó durante el covid para garantizar respiradores, vacunas y mascarillas y obligaría a Anthropic a saltarse sus salvaguardas. Por otro lado, expertos del sector señalan lo difícil que sería para el Pentágono sustituir el algoritmo de Anthropic por otro gran modelo de lenguaje.

De momento, el mayor aliado para lograr una IA militar sin salvaguardas no es otro que Elon Musk, que pocos meses después de suscribir un acuerdo para introducir la inteligencia artificial de xAI en el Pentágono, parece haber dado un paso más con otro acuerdo para que Grok pueda ser utilizado para "todos los usos legales", incluido el manejo de material clasificado.

El Pentágono.

Es un paso más hacia la integración total de esta tecnología en el sector de defensa, en un momento geopolítico especialmente delicado. En esta carrera son EEUU y China quienes marcan el ritmo, entre acusaciones de robo de información clasificada, 'clonación' de grandes modelos de lenguaje y unas capacidades que se parecen cada vez más a las de Skynet, la IA que buscaba acabar con la humanidad en Terminator.

Ambas superpotencias se enfrentan ahora al 'dilema del prisionero': los dos ganarían en seguridad si optaran por desarrollar una IA segura y responsable, también en el ámbito de Defensa, pero cada uno acelera el desarrollo para no convertirse en víctima del otro.

Mientras tanto, Israel ha mostrado el extremo al que puede llegar la IA en sus operaciones sobre Gaza, y la guerra entre Rusia y Ucrania se ha convertido en un laboratorio en el que ha quedado patente su potencial en drones tanto aéreos como terrestres y marítimos.

Por su parte, países como Austria llevan tiempo reclamando la urgencia de una regulación a nivel internacional de la IA aplicada a los conflictos bélicos, con una brecha cada vez más grande entre el desarrollo de las capacidades y los mecanismos efectivos de control.

Planificación militar

"La inteligencia artificial es el futuro, no sólo para Rusia, sino para toda la humanidad", aseguró Vladímir Putin en 2017 en declaraciones a la televisión estatal rusa RT. "Viene con oportunidades colosales, pero también con amenazas difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo".

Esta advertencia parece mucho más real e inminente casi 10 años después, una década en la que la IA ha desplegado definitivamente su enorme potencial, que va mucho más allá de chatbots como ChatGPT y la generación de imágenes casi indistinguibles de las reales.

Drones que pueden decidir ejecutar por sí mismos, la última frontera militar de EEUU es casi una realidad

En este tiempo, la IA ha pasado de ser una tecnología incipiente a convertirse en una capa invisible aplicada a la mayor parte del equipamiento y la planificación militar moderna, desde la logística hasta el reconocimiento de objetivos o el mando y control de operaciones en tiempo real.

Su capacidad para analizar y cribar ingentes cantidades de datos y reducir de días a segundos la toma de decisiones la ha convertido en un activo fundamental para sus aplicaciones militares. "La importancia que tiene la IA es que es capaz de controlar grandísimos volúmenes de información y procesarlos a una velocidad muchísimo mayor que los humanos", explicó en su día a EL ESPAÑOL Emilio Rico, Security Advisor de la compañía española TRC.

El gran programa del renombrado Departamento de Guerra estadounidense bajo el que se organizan el resto de iniciativas es Project Maven o Equipo multifuncional de guerra algorítmica, que empezó analizando vídeos de drones para detectar posibles objetivos y hoy es una completa suite de apoyo a mando y control, fusionando datos de múltiples sensores para priorizar blancos y sugerir cursos de acción.

Bajo este paraguas está uno de los sistemas de IA que ya está utilizando el Pentágono,el Artificial Inteligence Platform (AIP) de Palantir. Es la misma compañía que también está en el ojo del huracán por el uso por parte del ICE de herramientas como ELITE para localizar, encarcelar y deportar a inmigrantes.

Demostración del sistema Palantir

La compañía fundada por Peter Thiel tiene estrechos lazos con la CIA y el DoD estadounidense desde sus inicios y esta herramienta de software integra las funciones más avanzadas de Foundry y Gotham, los productos utilizados por el US Army y el servicio de inteligencia de EEUU.

AIP está diseñado para utilizar los grandes modelos de lenguaje en el diseño y la simulación de operaciones militares. Su gran aportación estriba en la posibilidad de desplegar estas IAs en cualquier red privada, incluidas las redes clasificadas de alta seguridad y los dispositivos tácticos que se utilizan en combate.

Una vez desplegado, AIP se encarga de conectar los datos de inteligencia altamente sensibles y clasificados para crear una representación en tiempo real del entorno en cuestión.

Según Palantir, sus funciones de seguridad permiten a sus operadores definir el nivel de acceso de las IAs a los datos y el tipo de operaciones que se le permiten hacer. Bajo el actual impulso de Hegseth y Trump, estos permisos no tendrían aparentes restricciones, lo que puede derivar en un escenario apocalíptico.

El peligro tras los agentes de IA, 'empleados digitales' capaces de controlar tu ordenador y poner en riesgo tus datos privados

"A pesar del bombo publicitario, los modelos de vanguardia no están listos para su uso en entornos de seguridad nacional. Confiar excesivamente en ellos en esta etapa es una receta para la catástrofe", ha señalado Jack Shanahan, primer director del Project Maven.

Designación de objetivos

En cualquier caso, la inteligencia artificial ya se integra en tomas de decisiones militares cada vez más delicadas, aquellas que hasta hace no mucho requerían del estudio y supervisión de más de una persona, como la selección de objetivos.

En ese sentido, Israel es una de las potencias armamentísticas más avanzadas del mundo y la que cuenta con más experiencia real, utilizando la devastación de Gaza posterior al 7 de octubre de 2023 como su laboratorio particular.

Desde hace años, el ejército israelí (IDF) emplea un modelo denominado Fire Factory, que se encarga de gestionar las operaciones según el nivel de amenaza que suponga cada blanco detectado.

Todoterreno autónomo que patrulla la Franja de Gaza IDF

Para ello basa su funcionamiento en objetivos ya aprobados y verificados por personal militar, con el fin de calcular el número de cargas de munición necesarias, además de priorizar y asignar su eliminación tanto a aviones como a drones.

La otra herramienta de IA que usan las IDF, Habsora (El Evangelio, en español) es, según su propia definición, "una fábrica de objetivos", capaz de generar hasta 100 objetivos al día, frente a los 50 en un año que solían identificar los analistas humanos.

Con la "ayuda de la IA y mediante la extracción rápida y automática de inteligencia actualizada, se proporciona una recomendación para el investigador".

El arsenal tecnológico de Israel parece inagotable y en las últimos bombardeos sobre Gaza, el software de IA que han utilizado las IDF es Lavender (Lanvada, en español). Esta herramienta de software fue diseñada para identificar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina, incluidos los miembros de bajo rango, como objetivos para bombardeos supuestamente 'quirúrgicos'.

Lockheed Martin prueba un sistema de identificación de objetivos basado en IA a bordo de los cazas F-35

Según una investigación de las revistas +972 Magazine y Local Call, el problema es que el personal humano a menudo sólo sirve como una simple cadena de transmisión para las decisiones del algoritmo, que señaló cerca de 37.000 objetivos. Según los propios operadores, normalmente sólo se dedicaban "20 segundos" a cada uno de ellos antes de autorizar un bombardeo con 'bombas tontas', no guiadas.

Además, el sistema tiene un margen de error del 10%, y en ocasiones marca como objetivos a personas que solo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto. Eso supone miles de bajas colaterales o directamente asesinatos masivos sin justificación militar ni de seguridad.

Armas autónomas

La vinculación más polémica entre la IA y el sector militar es la del armamento autónomo. Las diferentes tecnologías ya disponibles e incorporadas a algunas plataformas en servicio permiten a dispositivos como los drones, tanto aéreos como marítimos o terrestres, operar de forma autónoma o semiautónoma.

Sin embargo, hasta la fecha no hay armamento que elija el blanco y dispare sin un 'hombre en el bucle': es una línea roja que nadie se ha atrevido a cruzar... todavía.

Enjambre de drones Escribano Mechanical & Engineering Omicrono

Lo que la IA sí permite, por ejemplo, es el control de enjambres de 200 drones por parte de un único soldado, como ha demostrado recientemente el Ejército Popular de Liberación (PLA) de China.

La cadena estatal china CCTV reveló hace solo unos días detalles de una prueba realizada por la Universidad Nacional de Tecnología de Defensa: cientos de aeronaves volaron en formación y se dividieron las tareas mediante algoritmos autónomos, para llevar a cabo simultáneamente operaciones de reconocimiento, distracción y ataque contra múltiples objetivos.

La ventaja más importante del despliegue en grandes enjambres es la saturación de las defensas antiaéreas. La posibilidad de desplegar miles de estos drones con un destacamento de unos pocos operadores allana el camino hacia un nuevo tipo de conflicto bélico.

"Cada vez es más probable que una carrera armamentística sin restricciones en materia de IA no solo transforme la forma en que se libran las guerras, sino que los conflictos armados, incluso una guerra mundial, puedan desencadenarse o agravarse por culpa de una IA defectuosa o comprometida", señala el experto Alex Capri en una columna de opinión publicada por el South China Morning Post.

Y es que, más allá de los niveles de control y las capacidades únicas de la IA para analizar el campo de batalla, seleccionar objetivos y operar de forma semiautónoma, hay una preocupación aún mayor. ¿Qué ocurre si falla o sufre un ciberataque? De momento, nadie tiene la respuesta y cuando la tengamos, quizá sea demasiado tarde.

  1. Inteligencia artificial
  2. Vehículos militares
  3. Pentágono
  4. Tecnología

NEWSLETTER - TECNOLOGÍA

Recibe de lunes a viernes las noticias clave sobre tecnología Apuntarme De conformidad con el RGPD y la LOPDGDD, EL LEÓN DE EL ESPAÑOL PUBLICACIONES, S.A. tratará los datos facilitados con la finalidad de remitirle noticias de actualidad.
    Fuente original: Leer en El Español
    Compartir