Un juez federal de Nueva York ha marcado un precedente contundente en el uso indebido de la inteligencia artificial dentro del ámbito jurídico estadounidense: ha decidido la terminación completa de un caso debido a los repetidos errores derivados del uso de herramientas de IA por parte del abogado Steven Feldman.
La resolución, cargada de implicaciones para el sector legal (ya vimos un caso parecido en España), subraya la creciente preocupación por la dependencia excesiva de sistemas automatizados en tareas que requieren verificación humana rigurosa.
Un caso que redefine los límites del uso de IA en Derecho
La jueza Katherine Polk Failla determinó que Feldman incurrió en violaciones reiteradas de la Regla 11, que obliga a los abogados a verificar la autenticidad de las citas legales que presentan. A pesar de múltiples advertencias, el abogado continuó entregando documentos con citas falsas, errores y fragmentos de prosa inusualmente elaborada que, según la magistrada, evidenciaban la intervención de un chatbot.
Entre los elementos más llamativos se encontraba una extensa cita de Fahrenheit 451 de Ray Bradbury y referencias a bibliotecas de la antigüedad, metáforas y pasajes bíblicos que la jueza calificó como “floridos” y “fuera de lugar”. Feldman negó que la IA hubiera redactado esos textos, pero sí admitió haber utilizado herramientas como Paxton AI, Vincent AI o Google NotebookLM para revisar y verificar citas.

La línea roja: la IA no sustituye la investigación jurídica
El núcleo del problema no fue el uso de IA en sí, sino la sustitución de la revisión humana por procesos automatizados. La jueza Failla recalcó que la tecnología puede asistir, pero nunca reemplazar la lectura directa de los casos citados. La dependencia de Feldman permitió que “alucinaciones” —citas inventadas por la IA— se colaran en documentos oficiales, comprometiendo la integridad del proceso judicial.
Este caso se suma a una lista creciente de incidentes en los que abogados han sido sancionados por presentar jurisprudencia inexistente generada por IA. Sin embargo, la decisión de cerrar el caso por completo es una de las sanciones más severas registradas hasta la fecha.
Consecuencias para el cliente y para el sector legal
La terminación del caso implica un duro golpe para el cliente de Feldman, acusado en un litigio por venta de productos robados. La decisión activa medidas como la devolución de beneficios, entrega de mercancía y posibles daños adicionales. Además, el abogado podría enfrentarse al pago de honorarios por haber multiplicado innecesariamente los procedimientos.
Para el sector jurídico, el mensaje es claro: la IA es una herramienta poderosa, pero su uso irresponsable puede acarrear consecuencias devastadoras. La verificación humana sigue siendo indispensable, especialmente en un entorno donde la precisión es un pilar fundamental del sistema judicial.