Inteligencia Artificial y su ética

La Inteligencia Artificial (IA) se está convirtiendo cada día más en una parte esencial de los nuevos productos y servicios que se ofrecen y demandan en la sociedad. 

Desde casos tan simples como herramientas automáticas de mejora o edición de imágenes a casos de alto impacto como pueden ser las nuevas herramientas de reconocimiento facial que espera desplegar el ministerio del interior pronto, todos tienen su base en una inteligencia artificial que permite automatizar de forma rápida estos procesos.

Ahora bien, esta IA no es fácil de diseñar, mucho menos lo es confiar en ella. Esto se debe a que, cuando se quiere que la IA adquiera cierta complejidad, o su finalidad principal pueda tener un impacto medio o alto en los interesados, los requisitos para considerar que la misma está tomando decisiones confiables aumentan y, paralelamente, aumentan los controles a los que están sometidas (o deberían), lo que hace más probable detectar fallos en su diseño y el aprendizaje al que la misma fue sometida.

Por lo tanto, lo primero que debe verificarse cuando se empieza a construir una IA, es que se diseñe teniendo en cuenta tres objetivos fundamentales que se deben alcanzar:

-Legalidad: La IA debe ser diseñada con el objetivo de que la misma respete toda la normativa vigente. Por ellos es necesario que se cuente con asesoramiento experto en la materia que permita trasladar estos requisitos legales al equipo de desarrollo de una forma clara y directa.

-Ética: La IA debe estar sometida a unos valores éticos claros, y debe estar libre de cualquier sesgo que pueda afectar a la aplicación de las decisiones sobre el usuario.

-Robustez: La misma debe ser diseñada de forma que sus componentes técnicos o éticos no puedan verse modificados, y que su comportamiento no pueda emplearse con el objetivo directo de causar daños a terceros.

Dentro de estos tres parámetros, si bien todos son difíciles de garantizar, destaca la ética como el de mayor complejidad, ya que no consiste en trasladar algo ya escrito a lenguaje técnico, como la legalidad, o en hacer pruebas de seguridad y de funcionalidad para garantizar el correcto funcionamiento de la IA, como en la robustez, sino que exige que los diseñadores implementen una serie de principios que, en la mayoría de los casos, son abstractos y dependen de la visión de cada individuo.

Hay que tener en cuenta que siguen siendo seres humanos los que diseñan estas IA, y que dichos humanos tienen ciertos conocimientos, carencias y métodos de pensamiento que, si no se controla bien el proceso, pueden verse trasladados a los algoritmos que configuran la IA.

Por ello, la ética ha sido a lo largo de los años el principal objeto de estudio en relación con la IA, tratándose de llegar a un consenso sobre los principios generales que cualquier diseñador de IA debería tener en cuenta. Finalmente, el Grupo Europeo de Ética de la Ciencia y de las Nuevas Tecnologías llegó a una conclusión sobre los principales principios, entre los que, a nivel de ética, destacan los siguientes:

-Respeto a la autonomía humana: Implica que los sistemas de IA no deben diseñarse para subordinar, coaccionar, engañar, manipular, condicionar, etc. injustificadamente a los humanos. Por el contrario, deben diseñarse para aumentar, complementar y potenciar las habilidades cognitivas, sociales y culturales del ser humano.

-Prevención del daño: La IA no debe causar ni agravar los daños ni afectar negativamente a los seres humanos.

-Equidad: La IA debe estar libre de prejuicios injustos, discriminación y estigmatización.

-Explicabilidad: Los procesos de la IA deben ser transparentes, y sus capacidades y propósito de los sistemas de IA deben ser comunicados abiertamente. De esta forma se garantiza que los usuarios podrán conocer el porqué de las decisiones que se tomen sobre ellos y desafiarlas. 

De hecho, es precisamente esto lo que se pretende con el derecho a no ser objeto de decisiones automatizadas que recoge el Reglamento General de Protección de Datos (RGPD), así como el derecho a ser informado de las principales razones seguidas por una IA para tomar una decisión específica sobre un usuario, recogido en la misma norma.

Existen infinidad de métodos, técnicas y procedimientos que pueden y deben tenerse en cuenta a la hora de desarrollar la IA con el objetivo de lograr implementar estos principios de forma efectiva. Entre ellos algunos ejemplos son:

-Arquitectura clara y procedimentada: Por ejemplo, mediante un sistema de listas blancas y listas negras para que la IA conozca límites y puntos obligatorios que debe seguir.

-Capacidad de aprendizaje planificada: Donde se garantice que la IA es capaz de apreciar los requisitos obligatorios en todas sus fases, incluidas la de planificación y la de acción.

-Ética desde el diseño: Similar a la obligación de privacidad desde el diseño que se estableció con le RGPD, los equipos de desarrollo y legales deben valorar todos los potenciales riesgos que esta IA pueda tener, de cara a implementar las mejores medidas para mitigarlos y eliminarlos en base de diseño y desarrollo, de forma que la ética sea una parte intrínseca del proceso. Por ejemplo, una medida de seguridad, si la IA puede tener un impacto alto en el interesado, es que la misma se desconecte automáticamente cuando detecte un ataque a sus sistemas.

-Comprensión del proceso: Se debe procurar, en la medida de lo posible, que el proceso que lleva a una IA a tomar una decisión sea entendible y documentable. Este requisito adquiere complejidad en las IA basadas en redes neuronales, donde cada cambio, a veces mínimo, puede dar lugar a decisiones complejas que no siempre es posible correlacionar.

-Evolución de la legislación: Hay que tener en cuenta que la legislación aplicable a las IA, así como la que están desarrollando está en constante cambio, por lo que es importante contar con un asesoramiento legal recurrente que permita actualizar los mecanismos y criterios de estas IA e ir implementando las reglas necesarias para que la misma sepa dónde están los límites legales que no se pueden sobrepasar. 

Tan importante se está volviendo esta realidad, que la propia Autoridad de Control en Materia de Protección de Datos de Reino Unido (ICO) ha elaborado una guía sobre como pretende realizar las auditorias sobre IA, que incluso establece que dicha auditoria será de carácter gratuito, ya que la finalidad de la misma no es sancionar a los desarrolladores (aunque puede llegarse a ello si el incumplimiento es muy grave) sino ayudar a un mejor diseño y control de estas herramientas para fomentar su uso y la efectividad de las mismas.

Con esto nos damos cuento de la importancia que tiene que todo desarrollo cuente con un equipo técnico, de datos y jurídico experto que pueda dar soporte continuo a este proceso, de cara a evitar que, como ha pasado ya en múltiples ocasiones, todo este diseño acabe derivando en una IA inservible porque la misma, al carecer de los principios éticos y legales necesarios, se convierte en un foco de problemas en lugar de lo que debería llegar a ser: un apoyo para el continuo desarrollo y crecimiento de la empresa y de la sociedad en general.

Enrique Extremera Maestro , Head of Privacy, Legal Army

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias