Informe de la evaluación de impacto sobre la propuesta de Reglamento de Inteligencia Artificial

En este informe publicado por el Parlamento Europeo, se hace la evaluación de impacto de la propuesta de Reglamento de Inteligencia Artificial.

En esta evaluación de impacto, se identifican 6 principales problemas que surgen fruto del desarrollo y uso de la IA. Estos 6 problemas se pueden resumir en los siguientes:

  1. El uso de la IA plantea riesgos para la seguridad de los ciudadanos que no estén lo suficientemente cubiertos por el marco actual de la UE;
  2. La IA también plantea mayor riesgo para las violaciones de derechos fundamentales de los ciudadanos;
  3. Las autoridades carecen de los poderes y del marco regulatorio para garantizar y supervisar el desarrollo de la IA con sus reglas aplicables;
  4. La incertidumbre y complejidad sobre cómo se aplica la normativa la normativa existente a la IA, disuade a las empresas del desarrollo de esta tecnología;
  5. La desconfianza en la IA podría reducir su desarrollo en Europa y con ello reducir la competitividad de la economía de la UE;
  6. Las regulaciones fragmentadas por países crean barreras al mercado único de la IA.

En concreto, se menciona que la complejidad de la regulación de la IA reside precisamente en las propias características de la IA, diferente a los  avances tecnológicos previos en la historia. De esta manera, dadas las inquietudes que planteó la IA en relación a los problemas anteriormente citados, podrían generar una desventaja competitiva de las empresas europeas, que también perjudicaría a las PYMES. 

Por ello, para aprovechar las ventajas competitivas manteniendo el correcto funcionamiento adecuado del mercado interior y que se respeten las normas sobre derechos fundamentales, los objetivos que se persiguen son: que los sistemas de IA en el mercado sean seguros  y respeten los DDFF, garantizar la seguridad para incentivar la inversión e innovación, mejorar la gobernanza y aplicación entre derechos fundamentales y seguridad a los sistemas de IA, y por último, facilitar el desarrollo del mercado único. 

Así, en la evaluación de impacto se identifican cuatro opciones para abordar la regulación de la IA:

- Opción 1: A través de un sistema voluntario que certifique los sistemas de IA.

- Opción 2: Optar por una regulación Ad Hoc para cada sector. En este caso, cada sector adopta y define el nivel de riesgo de la IA.

- opción 3: Un sistema horizontal de regulación para todos basado en el riesgo que además cuente con requisitos específicos para los sistemas de alto riesgo. 

- Opción 3+: Sería un sistema igual que el número 3, que se complementa con códigos de conducta para aquellos sistemas que no se consideren de alto riesgo.

- Opción 4: los mismos requisitos para todos los sistemas independientemente del riesgo. 

A tenor de estas opciones, se muestra en el informe como la opción que parece aportar un mayor equilibrio por ser más realista, es la opción 3+.  Además, con esta opción entienden que no se perjudicaría a las PYMES por las obligaciones sobre IA, salvo a aquellas PYMES que utilicen sistemas IA de alto riesgo. 

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias