Informe de la evaluación de impacto sobre la propuesta de Reglamento de Inteligencia Artificial

Comparte

En este informe publicado por el Parlamento Europeo, se hace la evaluación de impacto de la propuesta de Reglamento de Inteligencia Artificial.

En esta evaluación de impacto, se identifican 6 principales problemas que surgen fruto del desarrollo y uso de la IA. Estos 6 problemas se pueden resumir en los siguientes:

  1. El uso de la IA plantea riesgos para la seguridad de los ciudadanos que no estén lo suficientemente cubiertos por el marco actual de la UE;
  2. La IA también plantea mayor riesgo para las violaciones de derechos fundamentales de los ciudadanos;
  3. Las autoridades carecen de los poderes y del marco regulatorio para garantizar y supervisar el desarrollo de la IA con sus reglas aplicables;
  4. La incertidumbre y complejidad sobre cómo se aplica la normativa la normativa existente a la IA, disuade a las empresas del desarrollo de esta tecnología;
  5. La desconfianza en la IA podría reducir su desarrollo en Europa y con ello reducir la competitividad de la economía de la UE;
  6. Las regulaciones fragmentadas por países crean barreras al mercado único de la IA.

En concreto, se menciona que la complejidad de la regulación de la IA reside precisamente en las propias características de la IA, diferente a los  avances tecnológicos previos en la historia. De esta manera, dadas las inquietudes que planteó la IA en relación a los problemas anteriormente citados, podrían generar una desventaja competitiva de las empresas europeas, que también perjudicaría a las PYMES. 

Por ello, para aprovechar las ventajas competitivas manteniendo el correcto funcionamiento adecuado del mercado interior y que se respeten las normas sobre derechos fundamentales, los objetivos que se persiguen son: que los sistemas de IA en el mercado sean seguros  y respeten los DDFF, garantizar la seguridad para incentivar la inversión e innovación, mejorar la gobernanza y aplicación entre derechos fundamentales y seguridad a los sistemas de IA, y por último, facilitar el desarrollo del mercado único. 

Así, en la evaluación de impacto se identifican cuatro opciones para abordar la regulación de la IA:

– Opción 1: A través de un sistema voluntario que certifique los sistemas de IA.

– Opción 2: Optar por una regulación Ad Hoc para cada sector. En este caso, cada sector adopta y define el nivel de riesgo de la IA.

– opción 3: Un sistema horizontal de regulación para todos basado en el riesgo que además cuente con requisitos específicos para los sistemas de alto riesgo. 

– Opción 3+: Sería un sistema igual que el número 3, que se complementa con códigos de conducta para aquellos sistemas que no se consideren de alto riesgo.

– Opción 4: los mismos requisitos para todos los sistemas independientemente del riesgo. 

A tenor de estas opciones, se muestra en el informe como la opción que parece aportar un mayor equilibrio por ser más realista, es la opción 3+.  Además, con esta opción entienden que no se perjudicaría a las PYMES por las obligaciones sobre IA, salvo a aquellas PYMES que utilicen sistemas IA de alto riesgo. 

Leer más

Posts relacionados que podrían interesarte

12, septiembre 2024

La Compañía AVIS sufre un incidente de seguridad que ha expuesto los datos de más de 300.000 clientes

15, julio 2020

Australia y Reino Unido investigan conjuntamente a Clearview.

14, junio 2023

El Tribunal General de la UE concluye que el logo de Batman se asocia exclusivamente con DC Comics

11, septiembre 2019

Se archiva un procedimiento sancionador abierto contra una clínica dental por la pérdida de un pendrive con datos personales de pacientes.

9, abril 2020

Legal Army colabora con Data For Hope.

13, mayo 2021

El Gobierno garantiza los derechos laborales de los “riders”