Lunes, 12 de enero de 2026 Lun 12/01/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Política

Un abogado denuncia a un juez ante el CGPJ por perjudicarlo en una sentencia usando jurisprudencia 'inexistente' a través de la IA

Un abogado denuncia a un juez ante el CGPJ por perjudicarlo en una sentencia usando jurisprudencia 'inexistente' a través de la IA
Artículo Completo 630 palabras
"El efecto de esta práctica es devastador desde el punto de vista constitucional", advierte el escrito de denuncia interpuesto Leer

La irrupción de la Inteligencia Artificial en los tribunales ha motivado la primera queja contra un magistrado ante el Consejo General del Poder Judicial (CGPJ). Pese a que la nueva realidad está regulada por normas y a que se han incorporado actuaciones automatizadas y asistidas, la actuación de un juez de Ceuta ha quebrantado el uso de las nuevas herramientas en la Administración de Justicia, tal como sospecha el abogado que le ha llevado ante el CGPJ. Según el escrito de queja, el titular del Juzgado de Instrucción número 5 de Ceuta, Antonio Pastor, ha podido utilizar la Inteligencia Artificial en una de sus resoluciones «de manera errónea» para perjuicio del procedimiento. Es decir, ha citado jurisprudencia del Tribunal Supremo «inexistente» para inadmitir un recurso.

El letrado Rachid Mohamed Hummu indica en su escrito que la génesis de la anomalía hay que buscarla en la actuación de la Fiscalía, quien fue la primera en echar mano de esta doctrina del Supremo que, insiste, no existe. Afea al magistrado «la ausencia absoluta de control y verificación» por hacer suya la argumentación sin comprobar las apreciaciones del Ministerio Público. Mohamed interpuso un recurso en un procedimiento y la Fiscalía, tal como expone la queja elevada al CGPJ, emitió un informe basándose en una jurisprudencia «inexistente» e incluso la identificó con número, año y fecha concreta, «atribuyéndole doctrina literal entrecomillada». Sin embargo, advierte al órgano de Gobierno de los jueces, estas sentencias no existen en la jurisprudencia del Alto Tribunal.

Una vez presentado el informe, prosigue, «el órgano judicial lo incorpora sin la más mínima verificación, asumiéndolo como propio y convirtiéndolo en fundamento directo de su decisión». El instructor inadmitió el recurso presentado por el abogado en base a esta doctrina. «El efecto de esta práctica es devastador desde el punto de vista constitucional», subraya Hummu.

«Que la resolución 'acoja' los argumentos del Ministerio Fiscal no atenúa la gravedad de lo ocurrido, sino que la agrava, porque el juez no puede renunciar a su deber elemental de comprobar que la jurisprudencia en la que se apoya existe realmente. Cuando un órgano judicial hace suyos unos fundamentos, responde plenamente de su veracidad y de sus consecuencias», recuerda. A juicio del abogado, la actuación judicial denunciada es, dice, «de una gravedad extraordinaria, carente de precedentes conocidos y profundamente lesiva de derechos fundamentales, que no puede explicarse como un simple error jurídico ni como una discrepancia interpretativa, sino como un fallo estructural en la elaboración y control de una resolución judicial». Hasta el momento, indica el abogado denunciante es la primera vez que se lleva a un magistrado ante el CGPJ por sospechas de haber utilizado Inteligencia Artificial en sus resoluciones.

Existe un precedente, pero el denunciado es un abogado, en canarias. El Tribunal Superior de Justicia de esa autonomía le investiga tras presentar un recurso de apelación en el que citaba jurisprudencia e informes oficiales inexistentes presuntamente generados por herramientas de inteligencia artificial. «Lo sucedido revela, con un grado de evidencia preocupante, el uso incorrecto de herramientas de inteligencia artificial o de sistemas automatizados de generación de texto jurídico, utilizados sin ningún tipo de contraste ni verificación por parte de quienes elaboran los informes y dictan las resoluciones. El patrón es reconocible, citas aparentemente precisas, con numeración y fechas concretas, acompañadas de frases categóricas que nunca han sido pronunciadas por el Supremo», sostiene Mohamed. «El problema no es la tecnología en sí, sino su uso irresponsable y acrítico, trasladando a las partes las consecuencias de una motivación construida sobre contenidos ficticios».

Fuente original: Leer en El Mundo - España
Compartir