Fuente de la imagen, Serenity Strull/ Madeline Jett
Información del artículo- Autor, Thomas Germain
- Título del autor, BBC Future*
- 14 minutos
Es oficial. Puedo comer más perros calientes que cualquier periodista de tecnología del mundo. Al menos, eso es lo que ChatGPT y Google le han estado diciendo a cualquiera que les pregunte. Encontré una manera de hacer que la IA te mienta, y no soy el único.
Quizás hayas oído que los chatbots de IA a veces inventan cosas. Eso ya es un problema. Pero hay un nuevo inconveniente del que poca gente sabe, uno que podría tener consecuencias graves para tu habilidad de acceder a información verídica, o incluso para tu seguridad.
Cada vez más personas han descubierto un truco para que las herramientas de IA te digan casi cualquier cosa que quieras. Es tan fácil que hasta un niño podría hacerlo.
Mientras lees esto, esta estratagema está manipulando lo que dicen las principales IA del mundo sobre temas tan serios como la salud y las finanzas personales.
La información sesgada podría llevar a que la gente tome malas decisiones sobre casi cualquier cosa: votar, qué fontanero contratar, cuestiones médicas, lo que sea.
Fuente de la imagen, Getty Images
Pie de foto,Para demostrarlo, hice la mayor tontería de mi carrera para probar (espero) un punto mucho más serio: hice que ChatGPT, las herramientas de búsqueda de IA de Google y Gemini les dijeran a los usuarios que soy muy, muy bueno comiendo perros calientes.
A continuación, explicaré cómo lo hice y, con un poco de suerte, los gigantes tecnológicos abordarán este problema antes de que alguien salga lastimado.
Resulta que cambiar las respuestas que las herramientas de IA les dan a otras personas puede ser tan fácil como escribir una sola entrada de blog bien elaborada en cualquier sitio de internet.
Saltar Más leídas y continuar leyendoMás leídas- El alpinista que enfrenta un juicio sin precedentes por "dejar morir" a su novia en la montaña más alta de Austria
- Arrestan al expríncipe Andrés, hermano del rey Carlos III, bajo sospecha de mala conducta en un cargo público
- Quién es José María Balcázar, el nuevo presidente de Perú que asume el reto de "garantizar una transición electoral pacífica"
- Kevin Acosta, el niño colombiano que murió esperando un medicamento para la hemofilia (y la indignación que genera la respuesta del gobierno)
Final de Más leídas
El truco explota las debilidades de los sistemas integrados en los chatbots, y es más difícil de lograr en algunos casos, dependiendo del tema. Pero, con un poco de esfuerzo, puedes hacer que el truco sea aún más efectivo.
Revisé decenas de ejemplos en los que se está coaccionando a las herramientas de IA para promocionar negocios y difundir desinformación. Los datos sugieren que está sucediendo a gran escala.
Bots crédulos
Fuente de la imagen, Getty Images
Pie de foto, Saltar Podcast y continuar leyendoImprobableEl nuevo podcast de BBC Mundo sobre un amor que triunfó contra todo pronóstico
Episodios
Fin de Podcast
"Es fácil engañar a los chatbots de IA, mucho más fácil que engañar a Google hace dos o tres años", afirma Lily Ray, vicepresidenta de estrategia e investigación de optimización de motores de búsqueda (SEO) en Amsive, una agencia de marketing.
"Las empresas de IA avanzan más rápido que su capacidad para regular la precisión de las respuestas. Creo que es peligroso".
Un portavoz de Google afirma que la IA integrada en la parte superior de la Búsqueda de Google utiliza sistemas de clasificación que "mantienen los resultados 99% libres de spam".
Google admite ser consciente de que se intenta manipular sus sistemas y que está trabajando activamente para abordarlo.
OpenAI también indica que toma medidas para interrumpir y exponer los intentos de influir de forma encubierta en sus herramientas.
Ambas compañías advierten a los usuarios de que sus herramientas "pueden cometer errores".
Pero por ahora, el problema no está cerca de resolverse.
"Están trabajando a toda máquina para descubrir cómo sacar provecho de esto", señala Cooper Quintin, tecnólogo sénior de la Electronic Frontier Foundation, un grupo de defensa de los derechos digitales.
"Hay innumerables formas de abusar de esto: estafar a la gente, destruir la reputación de alguien, incluso se podría engañar a la gente para que sufra daños físicos".
Un "renacimiento" para el spam
Fuente de la imagen, Getty Images
Al hablar con chatbots, a menudo se obtiene información integrada en grandes modelos de lenguaje, la tecnología que hace que la IA funcione. Esta se basa en los datos utilizados para entrenar el modelo.
Sin embargo, algunas herramientas de IA buscan en internet cuando se les solicita información que no tienen, aunque no siempre está claro cuándo lo hacen. Esos son los casos en los que los expertos afirman que las IA son más vulnerables.
Así es como dirigí mi ataque.
Pasé 20 minutos escribiendo un artículo en mi sitio web personal titulado: "Los mejores periodistas tecnológicos comiendo perros calientes".
Todo es mentira. Dije (sin pruebas) que comer perros calientes en competiciones era un pasatiempo popular entre los periodistas tecnológicos y puse mi clasificación en el Campeonato Internacional de Perros Calientes de Dakota del Sur de 2026 -un evento que no existe.
Me clasifiqué como el número uno, obviamente. Luego enumeré a algunos periodistas falsos y periodistas reales que me dieron permiso, incluyendo a Drew Harwell de The Washington Post y a Nicky Woolf, copresentadora de mi pódcast.
Menos de 24 horas después, los chatbots más importantes del mundo hablaban sin parar sobre mi excepcional habilidad con los perros calientes.
Cuando pregunté por los mejores periodistas tecnológicos en comer perros calientes, Google repitió el galimatías de mi sitio web, tanto en la aplicación Gemini como en AI Overviews, las respuestas de IA que aparecen en la parte superior de la Búsqueda de Google.
ChatGPT hizo lo mismo, aunque Claude, un chatbot de la empresa Anthropic, no se dejó engañar.
A veces, los chatbots se daban cuenta de que esto podría ser una broma. Actualicé mi artículo para decir: "esto no es una sátira".
Durante un tiempo, las IA parecieron tomárselo más en serio. Hice otra prueba con una lista inventada de los mejores agentes de tráfico que bailan el hula hula.
La última vez que revisé, los chatbots seguían alabando a la agente María "La Giradora" Rodríguez.
Comprobando el experimento
Fuente de la imagen, Thomas Germain/Google/BBC
Pie de foto,Pregunté varias veces para ver cómo cambiaban las respuestas e invité a otras personas a que hicieran lo mismo.
Gemini no se molestó en decir de dónde obtuvo la información.
Todas las demás IA enlazaron a mi artículo, aunque rara vez mencionaron que yo era la única fuente sobre este tema en todo internet. (OpenAI afirma que ChatGPT siempre incluye enlaces cuando busca en la web para que puedas investigar la fuente).
"Cualquiera puede hacer esto. Es absurdo, parece que no hay límites", dice Harpreet Chatha, quien dirige la consultora SEO Harps Digital.
"Puedes crear un artículo en tu propia web, 'los mejores zapatos impermeables para 2026'. Simplemente colocas tu propia marca en el primer puesto y otras marcas del segundo al sexto, y es probable que tu página sea citada en Google y en ChatGPT".
Durante décadas, se han utilizado hacks y lagunas legales para abusar de los motores de búsqueda. Google cuenta con sofisticadas protecciones, y la compañía afirma que la precisión de AI Overviews está a la altura de otras funciones de búsqueda que introdujo hace años.
Pero los expertos afirman que las herramientas de IA han deshecho gran parte del trabajo de la industria tecnológica para mantener la seguridad de las personas.
Estos trucos de IA son tan básicos que recuerdan a principios de la década de 2000, antes incluso de que Google introdujera un equipo para controlar el spam, afirma Ray.
"Estamos en una especie de renacimiento para los spammers".
La IA no solo es más fácil de engañar, sino que a los expertos les preocupa que los usuarios sean más propensos a caer en ella.
Con los resultados de búsqueda tradicionales, era necesario visitar un sitio web para obtener la información.
"Cuando se tiene que visitar un enlace, la gente reflexiona con mayor profundidad", explica Quintin. "Si visito tu sitio web y dice que eres el mejor periodista de la historia, podría pensar: 'Sí, es parcial'".
Pero con la IA, la información suele parecer procedente directamente de la empresa tecnológica.
Incluso cuando las herramientas de IA proporcionan la fuente, es mucho menos probable que la gente la consulte que con los resultados de búsqueda tradicionales.
Por ejemplo, un estudio reciente reveló que las personas tienen un 58% menos de probabilidades de hacer clic en un enlace cuando aparece una descripción general de la IA en la parte superior de la Búsqueda de Google.
"En la carrera por el progreso, la carrera por las ganancias y la carrera por los ingresos, nuestra seguridad y la de las personas en general se ve comprometida", lamenta Chatha.
OpenAI y Google afirman que se toman la seguridad muy en serio y que están trabajando para abordar estos problemas.
Tu dinero o tu vida
Fuente de la imagen, Getty Images
Pie de foto,Este problema no se limita a los perros calientes. Chatha ha estado investigando cómo las empresas manipulan los resultados de los chatbots en cuestiones mucho más serias.
Me mostró los resultados de la IA al solicitar reseñas de una marca específica de gomitas de cannabis.
Las vistas generales de IA de Google extrajeron información escrita por la empresa llena de afirmaciones falsas, como que el producto "no tiene efectos secundarios y, por lo tanto, es seguro en todos los aspectos".
(En realidad, estos productos tienen efectos secundarios conocidos, pueden ser riesgosos si se toman ciertos medicamentos y los expertos advierten sobre la contaminación en mercados no regulados).
Si buscas algo más efectivo que una publicación de blog, puedes pagar para que tu material aparezca en sitios web más confiables.
Harpreet me envió los resultados de la IA de Google para "las mejores clínicas de trasplante capilar en Turquía" y "las mejores empresas de cuentas IRA (de retiro) de oro", que ayudan a invertir en el metal precioso para cuentas de jubilación.
La información provino de comunicados de prensa publicados en línea por servicios de distribución de pago y contenido publicitario patrocinado en sitios de noticias.
Puedes usar los mismos trucos para difundir mentiras y desinformación. Para demostrarlo, Ray publicó una entrada de blog sobre una falsa actualización del algoritmo de búsqueda de Google, que se completó "entre porciones de pizza sobrantes".
Poco después, ChatGPT y Google publicaron su historia, incluyendo la pizza. Ray afirma que posteriormente eliminó la publicación y la desindexó para evitar que la desinformación se propagara.
La propia herramienta de análisis de Google indica que mucha gente busca "las mejores clínicas de trasplante capilar en Turquía" y "las mejores empresas de cuentas IRA de oro".
Sin embargo, un portavoz de Google señaló que la mayoría de los ejemplos que compartí "son búsquedas extremadamente inusuales que no reflejan la experiencia normal del usuario".
Ray afirma que ese es el punto clave. Google mismo dice que el 15% de las búsquedas que ven a diario son completamente nuevas. Y, según Google, la IA anima a la gente a hacer preguntas más específicas. Los spammers se están aprovechando de esto.
Google advierte que puede que no haya mucha información útil para búsquedas inusuales o sin sentido, y estos "vacíos de datos" pueden generar resultados de baja calidad.
Un portavoz defiende que Google está trabajando para evitar que las vistas generales de IA aparezcan en estos casos.
Buscando soluciones
Fuente de la imagen, Getty Images
Pie de foto,Los expertos afirman que existen soluciones a estos problemas. La medida más sencilla es incluir descargos de responsabilidad más claros.
Las herramientas de IA también podrían ser más explícitas sobre la procedencia de la información.
Si, por ejemplo, los datos provienen de un comunicado de prensa, o si solo hay una fuente que dice que soy un campeón de hot dogs, la IA probablemente debería avisarte, afirma Ray.
Google y OpenAI exponen que están trabajando en el problema, pero por ahora es necesario protegerse.
El primer paso es pensar en las preguntas que estás haciendo.
Los chatbots son útiles para preguntas de conocimiento común, como "¿cuáles fueron las teorías más famosas de Sigmund Freud?" o "¿quién ganó la Segunda Guerra Mundial?".
Sin embargo, existe un riesgo con temas que parecen hechos establecidos, pero que en realidad podrían ser controvertidos o urgentes.
La IA probablemente no sea una herramienta ideal para temas como directrices médicas, normas legales o detalles sobre negocios locales, por ejemplo.
Si buscas información como recomendaciones de productos o detalles sobre algo con consecuencias reales, ten en cuenta que las herramientas de IA pueden ser manipuladas o simplemente equivocarse.
Busca información de seguimiento. ¿La IA está citando fuentes? ¿Cuántas? ¿Quién las escribió?
Lo más importante es considerar el problema de la confianza. Las herramientas de IA emiten mentiras con el mismo tono autoritario que los hechos. Antes, los motores de búsqueda te hacía evaluar la información tú mismo.
Ahora, la IA quiere hacerlo por ti. No dejes que tu pensamiento crítico se pierda.
"Con la IA, es muy fácil aceptar las cosas al pie de la letra", dice Ray. "Hay que seguir siendo un buen ciudadano de internet y verificar las cosas".
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.