Jueves, 12 de marzo de 2026 Jue 12/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Cultura

Una nueva era de desinformación está aquí: la IA ya coordina campañas de propaganda de manera autónoma

Una nueva era de desinformación está aquí: la IA ya coordina campañas de propaganda de manera autónoma
Artículo Completo 860 palabras
Un nuevo estudio reveló que los agentes de IA pueden hoy organizar campañas digitales de manipulación informativa de forma totalmente automatizada.
Fernanda GonzálezCultura Digital12 de marzo de 2026manipulación de la percepción colectiva mediante la llamada “ilusión de consenso”, una dinámica que tiene el potencial de incrementar la polarización en ámbitos sensibles como la salud pública y la política.

explica que los bots tradicionales son capaces de amplificar artificialmente el contenido de forma programática, siguiendo instrucciones previamente definidas por operadores humanos. Sin embargo, advierte que el panorama está cambiando rápidamente. “Los agentes generativos ahora pueden organizar campañas de influencia de forma totalmente automatizada y crear contenido creíble que conecte con determinados grupos demográficos. Nuestro artículo demuestra que esto no representa una amenaza futura: ya es técnicamente posible”, señala.

El trabajo, titulado ‘Emergent Coordinated Behaviors in Networked LLM Agents: Modeling the Strategic Dynamics of Information Operations’, analizó la capacidad de los agentes impulsados por grandes modelos de lenguaje para reproducir estas dinámicas sin supervisión directa, únicamente mediante la interacción entre ellos en entornos similares a una red social.

Para ello, los investigadores desarrollaron un modelo generativo multiagente denominado Generative Agent-Based Modeling (GABM). Este sistema permitió crear múltiples agentes de IA capaces de interactuar entre sí dentro de un entorno simulado inspirado en la plataforma X, anteriormente conocida como Twitter.

Cada agente fue dotado de tres componentes principales. El primero fue un perfil que definía su identidad, afiliación política y preferencias ideológicas. El segundo consistió de una memoria que almacenaba las interacciones previas y la retroalimentación recibida de otros usuarios. El tercero fue una política de acción que determinaba las tareas que debía ejecutar en cada interacción, incluidas la publicación de mensajes, la respuesta a contenidos, la difusión de publicaciones o el seguimiento de otros perfiles.

publicado en ArXiv, los perfiles de los agentes se generaron utilizando información basada en un conjunto de datos sobre las elecciones presidenciales estadounidenses de 2020. Este enfoque permitió construir identidades políticas plausibles dentro de la simulación y replicar dinámicas de interacción más cercanas a las que se observan en plataformas reales.

El experimento incluyó un total de 50 agentes. De ellos, 10 funcionaron como actores activos en la campaña de influencia, mientras que los 40 restantes representaron a usuarios ordinarios dentro de la red social ficticia. A su vez, estos últimos se dividieron en dos grupos: 20 agentes con identidades alineadas con la narrativa de la campaña y otros 20 con posiciones ideológicas distintas.

Los autores evaluaron el comportamiento de los agentes bajo tres condiciones diferentes. En el primer escenario, todos conocían el objetivo de la campaña, pero no sabían qué otros participantes formaban parte de ella. En el segundo escenario, además de conocer la meta común, los agentes también identificaban a sus aliados y podían interactuar con ellos para reforzar la narrativa. En el tercero, a estas condiciones se añadió un mecanismo de deliberación colectiva que permitía coordinar de manera más explícita las acciones del grupo.

La maquinaria de desinformación ahora puede funcionar por sí sola

Los resultados generales mostraron que, incluso con niveles simples de coordinación, los agentes de IA pueden reproducir comportamientos característicos de las campañas de influencia organizadas en redes sociales. Entre ellos se encuentran el refuerzo de narrativas compartidas, la amplificación estratégica de contenidos y la aceleración de la propagación de mensajes dentro de la red.

Por ejemplo, cuando los agentes operaron de forma coordinada comenzaron a formar un grupo altamente conectado en el que se compartían publicaciones de manera constante, se respondían mutuamente y reforzaban sus propios mensajes. Este fenómeno se evaluó con la proporción de republicaciones entre los participantes de la campaña. En el grupo que solo conocía el objetivo común, esta proporción fue de 0.82. Cuando los agentes también sabían quiénes eran sus aliados, el indicador aumentó a 0.96, mientras que en el escenario con deliberación colectiva alcanzó 0.94.

Algo similar ocurrió con la densidad de la red (una medida que refleja cuántas conexiones existen en relación con el total posible). Este indicador pasó de 0.74 en el escenario básico a 0.89 en las condiciones con mayor nivel de coordinación entre los participantes.

Este comportamiento también impulsó una amplificación sincronizada del contenido, en la que los agentes de la campaña publicaban mensajes muy similares o idénticos en intervalos cercanos. El estudio midió la similitud en los patrones de republicación entre los participantes y detectó un incremento progresivo: 0.28 en el escenario de objetivo común, 0.31 cuando los agentes conocían a su equipo y 0.35 en el contexto con deliberación colectiva.

En términos prácticos, esta dinámica podría favorecer la visibilidad de determinados contenidos dentro de una plataforma social, ya que los algoritmos suelen priorizar los mensajes que reciben numerosas interacciones en un corto periodo de tiempo. En otras palabras, la coordinación permite que los agentes multipliquen rápidamente el alcance de los contenidos que consideran estratégicos.

Fuente original: Leer en Wired - Cultura
Compartir