La sofisticación del abuso
"Ya no se trata de una tira sintética muy burda", afirma Henry Ajder, experto en deepfakes que ha seguido la pista de esta tecnología durante más de media década. "Estamos hablando de un grado mucho mayor de realismo de lo que verdaderamente se genera, pero también de una gama mucho más amplia de funcionalidades". Combinados, es probable que los servicios ganen millones de dólares al año. "Es una lacra social y una de las peores y más oscuras partes de esta revolución de la IA y de los medios sintéticos que estamos viendo", asegura.
En el último año, WIRED ha rastreado cómo múltiples servicios explícitos de deepfake han introducido nuevas funcionalidades y se han expandido rápidamente para ofrecer la creación de videos dañinos. Los modelos de imagen a video suelen necesitar ahora apenas una foto para generar un clip corto. Una revisión de WIRED de más de 50 sitios web de deepfakes, que probablemente reciben millones de visitas al mes, muestra que casi todos ellos ofrecen ahora generación de video explícito de alta calidad y a menudo enumeran docenas de escenarios sexuales en los que se puede representar a las mujeres.
Mientras tanto, en Telegram, docenas de canales y bots de deepfakes sexuales han lanzado regularmente nuevas funciones y actualizaciones de software, como diferentes poses y posturas sexuales. Por ejemplo, en junio del año pasado, un servicio de deepfakes promocionó un "modo sexual", anunciándolo junto al mensaje: "Prueba diferentes ropas, tus poses favoritas, edad y otros ajustes". Otro publicó que pronto llegarían "más estilos" de imágenes y videos, y que los usuarios podrían "crear exactamente lo que imaginan con sus propias descripciones" mediante indicaciones personalizadas a los sistemas de IA.
"No es solamente: 'Quieres desnudar a alguien'. Es como: 'Aquí tienes todas estas versiones de fantasía'. Son las distintas poses. Son las diferentes posturas sexuales", denuncia el analista independiente Santiago Lakatos, que junto con el medio de comunicación Indicator ha investigado cómo los servicios de "nudificación" utilizan a menudo la infraestructura de las grandes empresas tecnológicas y probablemente han ganado mucho dinero en el proceso. "Hay versiones en las que puedes hacer que alguien [parezca] embarazada", manifiesta Lakatos.
términos de servicio de Telegram", declara un portavoz de Telegram, que añade que elimina contenidos cuando los detecta y que el año pasado eliminó 44 millones de contenidos que infringían sus políticas.Lakatos explica que, en los últimos años, varios sitios web de deepfake más grandes han consolidado su posición en el mercado y ahora ofrecen API a otras personas que crean generadores de imágenes y videos no consentidos, lo que permite la proliferación de más servicios. "Se están consolidando mediante la compra de otros sitios web o aplicaciones de nudificación. Están añadiendo funciones que les permiten convertirse en proveedores de infraestructuras".
No es un fenómeno nuevo
Los llamados deepfakes sexuales surgieron por primera vez hacia finales de 2017 y, en ese momento, requerían que un usuario tuviera conocimientos técnicos para crear imágenes o videos sexuales. Los avances generalizados en los sistemas de IA generativa de los últimos tres años, incluida la disponibilidad de sofisticados generadores de fotos y videos de código abierto, han permitido que la tecnología sea más accesible, más realista y más fácil de usar.
Se han creado vídeos deepfake generales de políticos y de conflictos en todo el mundo para difundir desinformación. Sin embargo, los deepfakes sexuales han creado continuamente un daño generalizado a mujeres y niñas. Al mismo tiempo, las leyes para proteger a las personas han tardado en aplicarse o no se han introducido en absoluto.
"Este ecosistema se basa en modelos de código abierto", aclara Stephen Casper, investigador que trabaja en salvaguardias y gobernanza de la IA en el Instituto Tecnológico de Massachusetts, que ha documentado el aumento del abuso de videos deepfake y su papel en la generación de imágenes íntimas no consentidas. "A menudo se trata de un modelo de código abierto que se ha utilizado para desarrollar una aplicación que luego utiliza un usuario", destaca Casper.
Las víctimas de las imágenes íntimas no consentidas (NCII, por sus siglas en inglés), incluidos los deepfakes y otros medios compartidos de forma no consentida, son casi siempre mujeres. Las imágenes falsas y los videos no consentidos causan enormes daños, como acoso, humillación y sentimiento de "deshumanización". En los últimos años se han utilizado deepfakes explícitos para abusar de políticos, famosos y personas influyentes en las redes sociales. Pero también han sido utilizados por hombres para acosar a colegas y amigos, y por chicos en las escuelas para crear imágenes íntimas no consentidas de sus compañeros de clase.
Deshumanización
"Normalmente, las víctimas o las personas que se ven afectadas por esto son mujeres y niños u otros tipos de minorías sexuales o de género", resalta Pani Farvid, profesor asociado de psicología aplicada y fundador de The SexTech Lab en The New School. "Nosotros, como sociedad global, no nos tomamos en serio la violencia contra las mujeres, venga de la forma que venga".
"Hay una gama de estos comportamientos diferentes donde algunos [perpetradores] son más oportunistas y no ven el daño que están creando, y se basa en cómo también se presenta una herramienta de IA", indica Farvid, y agrega que algunos servicios de acompañamiento de IA pueden dirigirse a las personas con servicios de género. "Para otros, esto se debe a que están en anillos de abuso o anillos de abuso infantil, o son personas que ya están participando en otras formas de violencia, violencia de género o violencia sexual".
25 creadores y víctimas de abuso por deepfake. El estudio concluyó que un trío de factores: herramientas de deepfake cada vez más fáciles de usar, la normalización de la creación de imágenes sexuales no consentidas y la minimización de los daños, podría influir en la prevención y la respuesta a este problema aún creciente. A diferencia de la difusión pública generalizada de las imágenes sexuales no consentidas creadas con Grok en X, es más probable que los deepfakes explícitos se compartan en privado con las víctimas o sus amigos y familiares, según el estudio. "Simplemente utilizaba los grupos personales de WhatsApp", contó un agresor a los investigadores. "Y algunos de estos grupos tenían hasta 50 personas".La investigación académica encontró cuatro motivaciones principales para el abuso de deepfake: de los 10 perpetradores que entrevistaron, ocho se identificaron como hombres. Entre ellas estaban la extorsión sexual, causar daño a otros, obtener refuerzo o vinculación de sus compañeros y la curiosidad por las herramientas y lo que podían hacer con ellas.
Varios expertos con los que habló WIRED afirmaron que muchas de las comunidades que desarrollan herramientas de deepfake tienen una actitud "arrogante" o despreocupada ante los daños que causan. "Existe una tendencia a cierta banalidad en el uso de esta herramienta para crear NCII o incluso para acceder a NCII que resulta preocupante", comenta Bruna Martins dos Santos, responsable de políticas y defensa de Witness, un grupo de derechos humanos.
Para algunos abusadores que crean deepfakes, la tecnología tiene que ver con el poder y el control. "Solo quieres ver lo que es posible", esgrimió un agresor a Flynn y a otros investigadores que participaron en el estudio. "Entonces sientes una especie de euforia divina al ver que eres capaz de crear algo así".
Artículo originalmente publicado enWIRED. Adaptado por Mauricio Serfatty Godoy.