La digitalización de la Justicia española avanza, pero no sin riesgos. La reciente denuncia presentada ante el Consejo General del Poder Judicial (CGPJ) contra un juez de Ceuta por utilizar —presuntamente— jurisprudencia inexistente generada por herramientas de IA ha marcado un punto de inflexión.
El caso, protagonizado por el abogado Rachid Mohamed Hammu, expone una situación inédita en España. Según su escrito, el titular del Juzgado de Instrucción nº 5 de Ceuta habría inadmitido un recurso basándose en una doctrina del Tribunal Supremo que, sencillamente, no existe.
La Fiscalía habría sido la primera en citarla, con número de sentencia, fecha y extractos literales incluidos. El juez, en lugar de verificar la autenticidad de esa jurisprudencia, la habría incorporado como fundamento propio.
Un problema que va más allá del “error humano”
El magistrado niega haber utilizado IA y atribuye lo ocurrido a un “error mecanográfico” derivado de un copia‑pega incorrecto. Sin embargo, el patrón descrito por el abogado coincide con un fenómeno cada vez más frecuente: la generación de textos jurídicos falsos por parte de modelos de lenguaje utilizados sin supervisión. Citas precisas, numeración verosímil y frases categóricas que nunca han sido pronunciadas por el Supremo son rasgos típicos de estos fallos.
El precedente más cercano se dio en Canarias, donde un abogado fue investigado por presentar recursos con jurisprudencia inventada, presuntamente generada por IA. Pero esta es la primera vez que la sospecha alcanza a un juez en ejercicio.
Riesgos constitucionales y procesales
El uso acrítico de IA en resoluciones judiciales plantea riesgos profundos:
- Vulneración del derecho a la tutela judicial efectiva. Una resolución basada en hechos inexistentes carece de motivación válida.
- Pérdida de confianza en la Justicia. Si las partes no pueden confiar en que las sentencias se basan en fuentes reales, el sistema se resiente.
- Responsabilidad institucional. El juez no puede delegar su deber de verificación en terceros, ni en la Fiscalía ni en herramientas automatizadas.
- Efecto multiplicador. Una jurisprudencia falsa puede replicarse en otros procedimientos si no se detecta a tiempo.
El propio abogado denunciante lo resume con contundencia: el efecto es “devastador desde el punto de vista constitucional”.

IA en la Justicia: necesaria, pero con garantías
La Inteligencia Artificial ya forma parte de la Administración de Justicia: desde sistemas de gestión documental hasta herramientas de análisis de datos. Sin embargo, su uso debe ser estrictamente asistencial, nunca decisorio. Y, sobre todo, debe estar sometido a controles rigurosos.
Para evitar casos como este, los expertos recomiendan:
- Protocolos obligatorios de verificación de jurisprudencia. Ningún texto automatizado debe incorporarse sin comprobación humana.
- Formación específica para jueces, fiscales y abogados. Conocer las limitaciones de la IA es tan importante como aprovechar sus ventajas.
- Trazabilidad y transparencia. Si se utiliza IA, debe constar en el expediente.
- Herramientas oficiales y auditadas. Evitar el uso de modelos no controlados o de acceso público para tareas jurídicas sensibles.
La denuncia ante el CGPJ no es un incidente aislado: es un aviso. La jurisprudencia española necesita un marco claro para el uso de IA, con límites, responsabilidades y garantías para el juez de turno, abogados y demás profesionales del derecho. La tecnología puede agilizar procesos, pero nunca a costa de la seguridad jurídica.
La pregunta ya no es si la IA debe estar en los tribunales, sino cómo debe estar. Y este caso demuestra que la respuesta no puede improvisarse.