Reino Unido anuncia aplazamiento de su marco regulatorio IA

El Gobierno del Reino Unido ha pospuesto al menos por un año la aprobación de su marco regulatorio específico para la inteligencia artificial (IA), mientras prepara una legislación más ambiciosa e integral. El nuevo proyecto de ley está siendo diseñado por el secretario de Estado de Ciencia, Innovación y Tecnología, Peter Kyle, quien busca consolidar en una única norma cuestiones relativas a la seguridad de los sistemas avanzados de IA, la transparencia algorítmica y el uso de contenido protegido por derechos de autor para el entrenamiento de los modelos.

Aunque no hay una fecha aproximada de aprobación, el marco regulatorio no estará listo antes del próximo discurso del rey, previsto para mayo de 2026.

La decisión ha generado una gran inquietud en los mercados y en sectores clave, como la investigación académica en seguridad de modelos fundacionales o las industrias creativas, que denuncian la falta de protección frente al uso no autorizado de sus obras por parte de sistemas de IA generativa.

De un enfoque limitado a un marco regulatorio integral

El Gobierno laborista había esbozado inicialmente un proyecto de ley breve y específico, centrado en la gobernanza de grandes modelos de lenguaje (LLMs). Este borrador incluía disposiciones para exigir a las empresas desarrolladoras que sometan sus modelos a pruebas de seguridad a través del AI Safety Institute, entidad pública creada para realizar evaluaciones técnicas independientes sobre el comportamiento y riesgos emergentes de modelos avanzados.

Sin embargo, esa aproximación ha sido descartada en favor de una ley más comprensiva, que permita al Reino Unido mantener su atractivo como hub global de innovación en IA sin sacrificar la protección al consumidor ni la seguridad sistémica. Esta decisión responde, en parte, a la necesidad de alinear políticas con la administración Trump, cuya postura es menos intervencionista que la de la Unión Europea.

Derechos de autor: el punto más conflictivo

Una dimensión crítica del futuro proyecto de ley será la regulación del uso de material protegido por copyright en el entrenamiento de sistemas de IA. Actualmente, el Reino Unido mantiene una exención en la Data Protection and Digital Information Bill que permitiría a las empresas entrenar modelos con contenido protegido, salvo que los titulares expresamente opten por excluir sus obras. Esta cláusula ha desatado una intensa oposición por parte de los sectores editoriales y artísticos, que denuncian una licencia implícita inaceptable y potencialmente lesiva para el segundo mayor sector industrial del país.

La Cámara de los Lores ha aprobado recientemente una enmienda al proyecto de ley de datos que obliga a las empresas de IA a declarar si sus modelos han sido entrenados con contenido protegido. No obstante, el Gobierno ha rechazado esta enmienda, argumentando que el vehículo legislativo adecuado para abordar los derechos de autor será el próximo AI Bill. Peter Kyle ha confirmado, además, que se creará un grupo de trabajo parlamentario multipartidista especializado en IA y copyright, lo que sugiere una apertura a un debate más técnico y sectorializado.

Seguridad de modelos y supervisión pública

El retraso en la legislación ha puesto en evidencia la tensión entre la urgencia regulatoria percibida por la sociedad civil y el enfoque del Ejecutivo. Un estudio conjunto del Ada Lovelace Institute y el Alan Turing Institute reveló que el 88% de la ciudadanía británica cree que el Gobierno debería tener la facultad de bloquear el despliegue de un sistema de IA si se considera que representa un riesgo grave. Más del 75% aboga por una supervisión pública obligatoria en materia de seguridad algorítmica, en lugar de depender exclusivamente de mecanismos internos de autorregulación empresarial.

Desde una perspectiva geoestratégica, el Reino Unido está maniobrando cuidadosamente entre los modelos regulatorios de la Unión Europea, que priorizan la protección ex ante mediante el enfoque de riesgo del AI Act, y el paradigma estadounidense de mínima intervención, más centrado en principios voluntarios y auditorías internas. Reino Unido busca una posición intermedia: evitar una regulación excesiva que asfixie la innovación, pero garantizar al mismo tiempo mecanismos sólidos para proteger a los consumidores y asegurar la fiabilidad de los sistemas.

Próximos pasos y estrategia de Reino Unido

El Gobierno del Reino Unido ha anunciado la próxima publicación de una serie de informes técnicos y una evaluación del impacto económico que tendrá el uso de modelos de inteligencia artificial sobre los derechos de autor. Estos documentos servirán de base para una futura legislación que incluirá medidas como la transparencia obligatoria en los datasets de entrenamiento, pruebas técnicas de alineación de objetivos, salvaguardas contra el uso indebido de modelos no auditados y un marco legal claro para la licencia y compensación por el uso de obras protegidas en el entrenamiento de modelos generativos.

La estrategia británica apuesta por una arquitectura normativa integral, que combine aspectos sectoriales (como copyright, privacidad y ciberseguridad) dentro de un marco coherente y alineado con estándares internacionales. Al posponer una regulación inmediata en favor de una legislación más ambiciosa, el Reino Unido busca equilibrar la promoción de la innovación con la protección de los derechos fundamentales, posicionándose como un actor pragmático e influyente en el ecosistema global de gobernanza de la inteligencia artificial.

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias