La justicia paraliza el acuerdo entre Anthropic y escritores cuyas obras fueron utilizadas sin permiso para entrenar IA

El pasado viernes se publicó un acuerdo entre la empresa desarrolladora del modelo de IA Claude y un grupo de escritores y editores cuyas obras – más de siete millones aproximadamente – fueron objeto de entrenamiento por parte de dicho modelo de IA. El pacto, alcanzado por Anthropic, contemplaba el pago de 1.500 millones de dólares para resolver la demanda por haber utilizado obras descargadas de fuentes no autorizadas o “piratas”, como Libgen.
El litigio se enmarca en un complejo debate jurídico sobre los límites del "fair use" (uso legítimo). En una resolución anterior, el propio juez que llevaba este pleito había determinado que el entrenamiento de una IA con obras adquiridas legalmente podría considerarse un "uso transformador" y, por tanto, ampararse en dicha doctrina. Sin embargo, el contraargumento clave de los demandantes es que Anthropic nutrió sus sistemas descargando masivamente copias de fuentes piratas, lo que constituye una infracción directa de la propiedad intelectual que no puede ser justificada como "fair use".
Ahora, la aprobación judicial del acuerdo ha sido paralizada por el juez, quien ha pospuesto su decisión hasta el próximo 25 de septiembre al albergar serias dudas sobre su estructura y alcance. La intervención del juez se fundamenta en la falta de información clave para garantizar la equidad del pacto, señalando deficiencias como la ausencia de una lista transparente y definitiva de las obras afectadas, la indeterminación sobre la identidad de los demandantes que integran la acción judicial colectiva y la falta de garantías para proteger a Anthropic de futuras reclamaciones. En consecuencia, el juez ha exigido a las partes que presenten la información aclaratoria necesaria antes del 15 de septiembre, dejando en suspenso la validación del acuerdo hasta entonces.
Incluso antes de la intervención judicial, el pacto ya había generado controversia en el sector editorial. Organizaciones como CEDRO han advertido de que la cifra, aunque elevada, no representa una sanción disuasoria, sino un "coste asumible" para una tecnológica de esta magnitud. La principal crítica es que el acuerdo no soluciona el problema de fondo —el uso sistemático de contenido protegido sin licencia— y no exige el reentrenamiento de los modelos de IA para eliminar la información obtenida ilícitamente.
La resolución final de este caso es de máxima relevancia, pues su resultado podría sentar un precedente clave en el debate jurídico sobre los límites entre el desarrollo de la inteligencia artificial y los derechos de propiedad intelectual.