En diciembre de 2025, Adobe se convirtió en el centro de una polémica que refleja uno de los mayores desafíos de la inteligencia artificial: el uso de material protegido por derechos de autor en el entrenamiento de modelos. Una demanda colectiva propuesta en Estados Unidos acusa a la compañía de haber utilizado libros pirateados, incluyendo obras de la autora Elizabeth Lyon, para entrenar su modelo SlimLM.
Este caso no solo pone en entredicho la estrategia de Adobe en el ámbito de la IA, sino que también abre un debate global sobre ética, legalidad y el futuro de la creación digital.
Adobe y su apuesta por la IA
Desde 2023, Adobe ha invertido fuertemente en soluciones basadas en IA, destacando su suite Firefly, orientada a la generación de imágenes y contenido multimedia. En paralelo, desarrolló SlimLM, un modelo de lenguaje ligero optimizado para tareas de asistencia documental en dispositivos móviles.
El problema surge porque SlimLM fue entrenado con el dataset SlimPajama-627B, derivado de RedPajama, el cual incluye la controvertida colección Books3, compuesta por más de 191.000 libros digitalizados sin autorización.

La demanda: autores contra Adobe
La escritora Elizabeth Lyon, autora de manuales de escritura no ficción, sostiene que sus obras fueron utilizadas sin consentimiento ni compensación. La demanda afirma que Adobe se benefició de un dataset manipulado que contenía material pirateado, vulnerando los derechos de miles de autores.
Este caso se suma a una serie de litigios similares contra gigantes tecnológicos como Apple y Salesforce, también acusados de entrenar modelos con datasets que incluyen obras protegidas.
El precedente de Anthropic y Claude
En septiembre de 2025, Anthropic aceptó pagar 1.500 millones de dólares a un grupo de autores que denunciaron el uso de sus obras en el entrenamiento del chatbot Claude. Este acuerdo marcó un punto de inflexión en la industria, demostrando que las reclamaciones de los creadores pueden tener un impacto económico significativo.
La demanda contra Adobe podría seguir un camino similar, con consecuencias legales y financieras de gran alcance.
Implicaciones legales y éticas
El caso plantea preguntas clave:
- ¿Es legal entrenar modelos con material protegido sin autorización?
- ¿Cómo se compensa a los autores cuyos trabajos nutren sistemas de IA?
- Qué responsabilidad tienen las empresas tecnológicas en la selección de datasets?
La legislación actual no ofrece respuestas claras. En muchos países, el uso de datasets abiertos se mueve en una zona gris legal. Sin embargo, la presión de los autores y las demandas colectivas están acelerando la necesidad de regulaciones específicas.

La proliferación de demandas contra empresas como Adobe, Apple, Salesforce y Anthropic evidencia un patrón: las compañías han priorizado la innovación rápida sobre la seguridad jurídica.
Si los tribunales fallan a favor de los autores, las consecuencias podrían incluir:
- Mayor coste de entrenamiento de modelos: las empresas tendrían que pagar licencias o compensaciones.
- Revisión de datasets: se exigiría transparencia sobre las fuentes utilizadas.
- Nuevos estándares de ética digital: la industria se vería obligada a establecer protocolos claros para proteger la propiedad intelectual.
Para los autores, el auge de la IA es una espada de doble filo. Por un lado, la tecnología ofrece herramientas para mejorar la productividad y llegar a nuevas audiencias. Por otro, amenaza con diluir el valor de sus obras al ser utilizadas sin permiso en sistemas que generan contenido derivado.
La demanda contra Adobe refleja la necesidad de un equilibrio entre innovación y respeto a los derechos de los creadores.
Perspectiva de futuro
El caso Adobe podría convertirse en un referente legal que defina cómo se regulan los datasets en la era de la inteligencia artificial. Algunas posibles salidas incluyen:
- Acuerdos económicos masivos: similares al de Anthropic, con compensaciones a los autores afectados.
- Creación de repositorios autorizados: datasets con obras licenciadas de forma transparente.
- Nuevas leyes internacionales: que armonicen la protección de derechos de autor frente al uso de IA.
La demanda colectiva contra Adobe es más que un litigio aislado: es un síntoma de una industria en transición. La inteligencia artificial ha demostrado su potencial, pero también ha expuesto las grietas legales y éticas que deben resolverse.
El desenlace de este caso marcará un precedente crucial para el futuro de la creación digital, la propiedad intelectual y la relación entre autores y tecnología.