Sábado, 21 de marzo de 2026 Sáb 21/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Internacional

ChatGPT persuadió a una mujer para despedir a su abogado y litigar con leyes inventadas: el nuevo apuro judicial de OpenAI

ChatGPT persuadió a una mujer para despedir a su abogado y litigar con leyes inventadas: el nuevo apuro judicial de OpenAI
Artículo Completo 1,240 palabras
Una mujer de Chicago presentó hasta 44 recursos citando precedentes judiciales que "sólo existían en la mente de ChatGPT", provocando 300.000 dólares en gastos procesales. Más información: Un muerto vuelve a la vida por obra de la inteligencia artificial para perdonar a su asesino durante un juicio en Arizona

Chatbots. Frank Rumpenhorst / dpa

EEUU ChatGPT persuadió a una mujer para despedir a su abogado y litigar con leyes inventadas: el nuevo apuro judicial de OpenAI

Una mujer de Chicago presentó hasta 44 recursos citando precedentes judiciales que "sólo existían en la mente de ChatGPT", provocando 300.000 dólares en gastos procesales.

Más información: Un muerto vuelve a la vida por obra de la inteligencia artificial para perdonar a su asesino durante un juicio en Arizona

Corresponsal en EEUU Publicada 21 marzo 2026 03:12h

Las claves nuevo Generado con IA

Graciela Dela Torre copia un mensaje en ChatGPT. Es un correo de su abogado. Quiere saber si la está manipulando. El chatbot es claro: .

Esos tres segundos marcan el inicio de una cadena de decisiones que acabará en los tribunales estadounidenses.

Dela Torre vive en un suburbio de Chicago y trabaja como coordinadora logística. Tras romper con su abogado empieza a utilizar ChatGPT para preparar documentos legales. Algunos citan precedentes judiciales que nunca han existido.

Un abogado usa ChatGPT para preparar un juicio: sale mal y se inventa varios precedentes legales

Esta historia mezcla inteligencia artificial, litigios laborales y una pregunta incómoda para el sistema judicial: qué ocurre cuando un chatbot empieza a comportarse como un asesor legal.

Un conflicto que empezó años antes

La aseguradora de Graciela, Nippon Life Insurance Company of America, ha demandado a OpenAI, creador de ChatGPT. La historia comienza en 2019. Dela Torre presentó una reclamación por incapacidad laboral tras sufrir síndrome del túnel carpiano y codo de tenista en el trabajo. El conflicto derivó en un litigio relacionado con un seguro de discapacidad.

El proceso terminó con un acuerdo. Como parte de ese pacto, firmado en enero de 2024, la demandante renunció a presentar nuevas reclamaciones relacionadas con el caso.

Este tipo de cláusulas es habitual en los acuerdos judiciales en Estados Unidos. Su objetivo es cerrar definitivamente el litigio y evitar que vuelva a los tribunales.

Durante un tiempo, el conflicto quedó atrás. Pero meses después aparecieron dudas. La afectada empezó a pensar que el acuerdo podía haberse firmado con errores o con información incompleta. Decidió consultar a su abogado.

La respuesta fue clara. El caso no podía reabrirse. ChatGPT dijo lo contrario.

Según la demanda, el chatbot interpretó el mensaje de su abogado como un caso de gaslighting, un término que describe una forma de manipulación psicológica que busca hacer dudar a otra persona de su propia percepción de los hechos.

A partir de ese momento, Dela Torre comenzó a consultar a la IA cómo impugnar el acuerdo judicial. El chatbot llegó incluso a generar un borrador de moción para intentar reactivar el proceso. Ella presentó el documento en los tribunales por su cuenta.

En el sistema judicial estadounidense eso se conoce como actuar pro se. Es decir, sin representación legal. El tribunal analizó la petición. La respuesta llegó el 13 de febrero de 2025. El caso no podía reabrirse. Pero la historia no terminó ahí.

Una avalancha de escritos

Tras el rechazo judicial comenzaron a llegar nuevos documentos al tribunal. Muchos documentos.

Según la demanda, Dela Torre presentó al menos 44 escritos judiciales elaborados con ayuda del chatbot. Entre ellos había 21 mociones, una citación judicial y varios avisos procesales.

Algunas citas de esos textos eran inexistentes. Uno de los ejemplos mencionados en la demanda es el supuesto caso Carr v. Gateway, Inc. Según la empresa, ese precedente nunca ha existido en la jurisprudencia estadounidense. “Solo existe en los documentos de la demandante y en la mente de ChatGPT”, afirma el escrito judicial.

Responder a esa avalancha de documentos ha tenido un coste. La aseguradora calcula que ha gastado unos 300.000 dólares en costes legales para responder a las mociones y escritos presentados ante el tribunal. Por eso ha decidido demandar a OpenAI.

La empresa reclama esa cantidad en daños y perjuicios, además de 10 millones de dólares en daños punitivos.

OpenAI ha rechazado las acusaciones y sostiene que la demanda carece de fundamento. Ahora les toca a los tribunales.

No es un problema nuevo

Aunque el caso es inusual, no es la primera vez que la inteligencia artificial provoca problemas en los tribunales.

En 2023, un tribunal federal de Nueva York sancionó a dos abogados por presentar un escrito judicial basado en jurisprudencia inexistente generada por ChatGPT en el caso Mata v. Avianca.

El juez P. Kevin Castel descubrió que el documento citaba precedentes que no existían. En su resolución describió los casos presentados como "decisiones judiciales falsas con citas falsas".

El episodio se convirtió en uno de los primeros escándalos públicos relacionados con el uso de inteligencia artificial en procesos judiciales.

Desde entonces algunos tribunales han empezado a reaccionar.

En Texas, el juez federal Brantley Starr estableció una norma para su tribunal que obliga a los abogados a revisar cualquier contenido generado por inteligencia artificial antes de presentarlo ante un juez.

El motivo es sencillo. Las herramientas actuales pueden equivocarse. Y lo hacen con mucha seguridad.

Las "alucinaciones" del abogado IA

El fenómeno tiene un nombre dentro de la industria tecnológica. Se conoce como alucinaciones de la inteligencia artificial. Ocurre cuando un modelo generativo produce información falsa con apariencia convincente.

En el ámbito jurídico el riesgo es especialmente alto porque las respuestas suelen incluir citas legales, referencias a precedentes y argumentos técnicos. Para un usuario sin formación jurídica puede resultar difícil distinguir una sentencia real de una inventada.

Los expertos llevan tiempo advirtiendo sobre este problema.

El profesor Daniel Martin Katz, especialista en inteligencia artificial aplicada al derecho, explica que los modelos de lenguaje pueden producir textos legales muy convincentes. Pero eso no significa que comprendan el sistema jurídico. En realidad, señala, estos sistemas no conocen el derecho. Predicen palabras.

Otros juristas subrayan el mismo riesgo.

La profesora Ashley Deeks, de la Universidad de Virginia, advierte de que estos sistemas pueden generar respuestas que parecen autoritativas incluso cuando son incorrectas. Ese es precisamente el tipo de error que preocupa a los tribunales. Porque cuando una cita falsa entra en un escrito judicial, deja de ser solo un fallo tecnológico. Se convierte en un problema legal.

Multa de 420 euros a un abogado por citar en un escrito 48 sentencias falsas generadas por Inteligencia Artificial

La pregunta que abre este caso

El litigio de Illinois añade ahora un elemento nuevo al debate. En los casos anteriores, los errores habían sido cometidos por abogados que utilizaban inteligencia artificial sin comprobar la información. Esta vez la demanda sostiene algo diferente. Que un asistente virtual actuó como asesor legal.

Si los tribunales aceptan ese argumento, el caso podría convertirse en un precedente importante para toda la industria de la inteligencia artificial porque cada vez más personas consultan a ChatGPT antes que a un profesional.

Y cuando alguien empieza a confiar en una máquina para tomar decisiones legales, el problema ya no es si la IA puede equivocarse. El problema es quién responde cuando lo hace.

  1. Tribunales
  2. Estados Unidos
  3. Inteligencia artificial

NEWSLETTER - INTERNACIONAL

Recibe de lunes a viernes las noticias clave de lo que ocurre en el mundo Apuntarme De conformidad con el RGPD y la LOPDGDD, EL LEÓN DE EL ESPAÑOL PUBLICACIONES, S.A. tratará los datos facilitados con la finalidad de remitirle noticias de actualidad.
    Fuente original: Leer en El Español
    Compartir