- DAN CLARK/CHRIS CAMPBELL
- Por qué Trump no limpiará su propio desastre
- La guerra de Irán plantea una pesadilla de 'armas y mantequilla' para los inversores
Fotografías modificadas de los ataques están circulando mientras se intensifica el conflicto en Oriente Próximo.
Las imágenes por satélite que parecen estar siendo generadas o modificadas por inteligencia artificial (IA) y que se comparten en las redes sociales ponen de manifiesto los peligros de la tecnología como vehículo potencial para la desinformación en tiempos de guerra.
Una imagen que circuló por la red social X con la que se incluía un post de una cuenta oficial del periódico iraní Tehran Times, muestra el daño causado al sistema de radares estadounidenses en Catar tras una ataque iraní con drones. Un análisis realizado por Financial Times revela que es una imagen alterada con IA de una zona de Baréin. Los vídeos verificados por FT muestran varios ataques cerca del sistema de radares. Imágenes por satélite capturadas por Planet Labs el pasado 1 de marzo confirman que el sitio ha sido dañado.
Pero la imagen del radar destrozado da muestras de manipulación: los vehículos que aparecen en la foto tomada hace más de un año siguen en la misma posición, las sombras caen exactamente en el mismo ángulo que la imagen anterior, y partes de la estructura del edificio han sido alteradas. El histórico de las imágenes por satélite no muestra cambios estructurales en el lugar en muchos años.
En el momento de la publicación, solo el post del Tehran Times obtuvo más de un millón de visitas, fue compartido miles de veces y seguía en la red más de 48 horas después de ser publicado. La imagen ha sido compartida en otras redes sociales y webs.
El episodio refleja un gran cambio en la guerra por la información, ya que la IA facilita la fabricación de pruebas visuales convincentes y hace más difícil que las audiencias distingan entre algo documentado o un engaño.
Brady Africk, investigador en el American Enterprise Institute, afirma que la gente tiende a confiar en las imágenes por satélite como fuente fidedigna debido a la compleja tecnología que se utiliza para capturarlas. "Las imágenes por satélite pueden manipularse igual que otras. La IA ha facilitado ese trabajo, lo que supone una seria amenaza para la gente que intenta informarse a través de Internet", explica Africk. Añade que le preocupa que la rápida evolución de estos modelos haga más difícil detectar futuros conflictos.
Riesgos
"La dificultad para identificar una imagen por satélite manipulada, comparado con la manipulación de la cara de una persona, se debe a la falta de señales biométricas", según Henk van Ess, experto en métodos de investigación online y autor del boletín Digital Digging. "El cambio clave es este: antes hacía falta una agencia estatal de inteligencia con habilidades de Photoshop para falsificar una imagen por satélite. Ahora cualquiera con acceso a herramientas gratuitas de inteligencia artificial puede producir algo lo bastante convincente para engañar al que lo ve. Esa barrera se ha caído", añade.
Otra imagen alterada con IA ampliamente distribuida parece ser una versión mejorada y en color de una imagen en blanco y negro capturada por Airbus, la compañía aeroespacial. No está claro donde se originó la imagen retocada. Tenía una marca de agua con el nombre de MizarVision, una start up china del sector espacial que ha estado publicando fotos por satélite de la escalada militar estadounidense en Oriente Próximo durante las últimas semanas, pero la imagen no está en la lista de las propias redes sociales de la compañía. La página oficial de MizarVision advierte sobre las redes sociales que afirman distribuir sus imágenes.
Usar la IA para añadir color a las imágenes por satélite puede cambiar sutilmente cómo la gente ve la escena, introduciendo diferencias percibidas que podrían no estar en realidad ahí, según Bo Zhao, profesor de geografías digitales en la Universidad de Washington. "Las imágenes en blanco y negro no contienen detalles y perspectiva de las cosas o diferencias sobre el terreno", explica Zhao. "Con el color, es más fácil diferenciarlo", añade.
También se ha compartido ampliamente una imagen sobre el supuesto daño a una base estadounidense cerca de Erbil, en Irak. La imagen mejorada con inteligencia artificial muestra un fuego descontrolado y una enorme nube de humo, y de nuevo contiene inconsistencias estructurales cuando se compara con imágenes recientes tomadas en ese lugar.
Un post que muestra la imagen sacando de los escombros el cuerpo del líder supremo de Irán, el ayatolá Ali Jameneí, también se ha compartido, pero sigue sin verificarse y parece estar generada con inteligencia artificial.
El conflicto en Oriente Próximo no es la primera guerra afectada por la desinformación causada por la IA. También hubo imágenes por satélite falsas del conflicto de cuatro días entre India y Pakistán el año pasado, igual que ha ocurrido durante la guerra entre Ucrania y Rusia.
"Creo que es sobre todo un tema de educación y concienciación para asegurar que el mayor número posible de personas conozcan todas las formas en que pueden manipularse los medios digitales", dice Africk. "La gente debería ser rigurosa a la hora de encontrar fuentes fiables que trabajan bajo la mirada pública y lo hacen de forma responsable", concluye.
© The Financial Times Limited [2026]. Todos los derechos reservados. FT y Financial Times son marcas registradas de Financial Times Limited. Queda prohibida la redistribución, copia o modificación. EXPANSIÓN es el único responsable de esta traducción y Financial Times Limited no se hace responsable de la exactitud de la misma.
Sobre ignorar la geopolítica, comprar en burbujas y acaparar oroAsí reemplazará la Inteligencia Artificial a miles de trabajadores de AmazonAccenture combate a quienes se niegan a usar IA vinculando los ascensos al uso de la herramienta Comentar ÚLTIMA HORA