Fallo en favor de Anthropic: el fair use, la legalidad del entrenamiento IA y la ilegalidad en la adquisición

En un fallo con profundas implicaciones para la industria tecnológica, el juez federal William Alsup, del Distrito Norte de California, resolvió parcialmente a favor de Anthropic en una demanda por violación de derechos de autor, al dictaminar que el entrenamiento de modelos de lenguaje con libros protegidos por copyright puede constituir un uso justo (“fair use”) conforme a la legislación estadounidense, siempre que dicho uso sea transformador y no compita con el mercado original de las obras.
El razonamiento del juez se centró en el carácter transformador del entrenamiento de IA. En este sentido, los LLM no replican ni suplantan las obras originales, sino que generan nuevo contenido a partir de patrones lingüísticos aprendidos. Esta transformación sustancial, equiparable a la forma en que un lector humano se inspira en múltiples textos para escribir algo nuevo, fue considerada coherente con los fines del derecho de autor según lo establecido en la Sección 107 del Copyright Act. Esta interpretación se alinea con precedentes jurisprudenciales que han reconocido el valor del uso analítico o investigativo como un factor favorable dentro del análisis de uso justo.
No obstante, el juez rechazó la moción de Anthropic para desestimar el caso en su totalidad, al encontrar fundamentos suficientes para que la demanda prosiga en relación con la adquisición ilícita de los datos utilizados en el entrenamiento. Específicamente, se documentó que Anthropic descargó más de siete millones de libros de sitios de distribución no autorizada como LibGen y Books3 (repositorios ampliamente reconocidos como fuentes de copias pirateadas), lo que podría constituir una violación directa del derecho exclusivo de reproducción del titular, sin que el uso justo pueda ser invocado como defensa ante una adquisición claramente ilegal de los contenidos.
Este aspecto plantea un problema independiente del análisis del uso justo: si bien el procesamiento de los textos podría estar protegido por la doctrina fair use, la forma en que dichos textos fueron obtenidos, es decir, sin autorización ni compensación al titular de derechos, podría dar lugar a responsabilidad por infracción. El juez Alsup fue tajante al señalar que el hecho de que Anthropic comprara más tarde copias legales de algunos libros no exonera la presunta infracción previa, aunque podría influir en la cuantificación de los daños.
Desde el punto de vista probatorio, el caso entra en fase de instrucción hacia un juicio previsto para diciembre, donde se determinará la responsabilidad patrimonial derivada del acceso a materiales protegidos sin licencia. La ley prevé sanciones legales mínimas de 750 dólares por obra infringida, lo que, aplicado a una base de siete millones de libros, expone a Anthropic a una potencial multa de miles de millones de dólares.
La presente resolución establece, en cambio, una doctrina que reconoce el entrenamiento de modelos de IA como actividad transformadora, siempre que el origen de los datos sea lícito.
Finalmente, la decisión plantea un importante precedente para otros actores del sector (Meta, OpenAI o Google) que han entrenado modelos con corpus masivos que incluyen obras con copyright. Las implicaciones regulatorias y contractuales de este caso obligan a las tecnológicas a extremar la diligencia en la adquisición y trazabilidad de sus datasets, así como a considerar esquemas de licenciamiento colectivo, compensación proporcional o acuerdos sectoriales con entidades de gestión de derechos.
En conclusión, el fallo de Alsup separa con claridad dos ejes jurídicos fundamentales: por un lado, reconoce la legalidad del uso de obras protegidas para entrenar IA bajo ciertos supuestos de transformación; por otro, deja abierta la puerta a la sanción por infracción si el acceso a dichas obras fue obtenido mediante medios ilícitos.