La pérdida de intimidad y el reconocimiento facial en espacios públicos

En estas últimas semanas hemos podido ver diversos documentos en los que se trata la posible afectación en la esfera personal de las personas físicas en el uso de tecnologías de reconocimiento facial en espacios abiertos al público.

Por un lado, hemos visto como la ICO en "The use of live facial recognition technology in public spaces" pone de manifiesto los peligros que puede suponer para los derechos fundamentales el uso de esta tecnología si no se usan con las cautelas adecuadas e insta a su prohibición de una manera general, de forma que únicamente se puedan utilizar en algunos casos muy concretos.

Por otra parte, en un sentido similar al del pronunciamiento de la ICO, también hemos visto la Joint Opinion 5/ 2021 del Comité y Supervisor Europeo de Protección de Datos, en la que en algunos casos se proponen prohibir el uso de la inteligencia artificial por considerar que puede afectar a la dignidad humana de alto riesgo para evitar cualquier tipo de "scoring" social.

 Esta preocupación por el uso de la inteligencia artificial en el reconocimiento facial no se limita a países europeos, sino que también podemos encontrar un borrador sobre la regulación de esta materia en la autoridad canadiense o la Comisión Australiana de Derechos Humanos.

Pero, ¿cuáles son los riesgos que se ponen en común en estos documentos? 

Como ya se mencionó en el Dictamen del 2012 del Grupo de trabajo del artículo 29, entre los riesgos de estas tecnologías: “Las técnicas encubiertas permiten la identificación de los individuos sin su conocimiento, dando lugar a una grave amenaza para la intimidad y a la filtración del control sobre los datos personales. Esto tiene graves consecuencias sobre la capacidad de las personas para ejercer el libre consentimiento o simplemente obtener información sobre el tratamiento. Además, algunos sistemas pueden recabar secretamente información sobre los estados emocionales o características del organismo y revelar información sobre la salud que resulte en un tratamiento de datos no proporcionado”. 

Teniendo en cuenta lo que se podría hacer con este tipo de datos si se usa de una manera incorrecta, debemos recordar que la cara se trata de un dato especialmente protegido por el RGPD puesto que identifica de una manera unívoca a una persona a través de sus características físicas o fisiológicas.

En Europa, se ha optado por un enfoque basado en el riesgo. Un riesgo que debe valorarse y mitigarse especialmente para grupos de personas en mayor riesgo social. Por ello, tanto el EDPB como el SEPD solicitaron la prohibición general de la IA para el reconocimiento en vivo de los rasgos humanos en espacios abiertos al público. En concreto, el reconocimiento facial en vivo (LFR por sus siglas en inglés) impacta directamente a los derechos fundamentales, por lo que es importante ser precavidos ante este uso de la tecnología. Además, la solicitud de prohibición por parte del EDPD va más allá del reconocimiento facial y también pide que se prohíba la IA capaz de reconocer las emociones de las personas.

Por ello lo que se propone es una prohibición general de esta tecnología como punto de partida, así como la mencionada prohibición de IA para la puntuación social, una proposición totalmente opuesta a la que se utiliza en países como China con programas de reconocimiento facial masivos que permiten al país asiático clasificar ciudadanos entre aquellos que son considerados "mejores ciudadanos".

Sin embargo, dados los beneficios que también aporta esta tecnología debemos tener otros factores en cuenta la hora de su implementación:

- Necesidad y proporcionalidad: la necesidad está incorporada en los principios de protección de datos del RGPD (los requisitos de los datos de categoría especial en el artículo 9 y los requisitos de la EIPD en el artículo 35). Según indica la ICO: “Para que el tratamiento sea necesario, debe ser "razonablemente necesario". Esto significa que el tratamiento debe ser más que deseable, pero no tiene que ser indispensable o absolutamente necesario”. El tratamiento no será necesario sin la adecuada finalidad legítima del responsable del tratamiento, y tampoco será necesario si la finalidad legítima del responsable del tratamiento puede alcanzarse razonablemente con un enfoque menos restrictivo o intrusivo.

- La proporcionalidad está estrechamente relacionada con la necesidad, y los responsables del tratamiento deben considerar si su finalidad es lo suficientemente importante como para justificar cualquier intrusión en la intimidad o cualquier otro impacto que surja para el individuo.

En definitiva, se trata de realizar en todo caso una evaluación de impacto analizando el juicio de proporcionalidad para ver si prevalecen los derechos fundamentales frente a la finalidad que se pueda perseguir con la instalación de este tipo de cámaras.

Teniendo en vista lo que puede ocurrir en los próximos meses con la regulación de la inteligencia artificial en el uso de las tecnologías de reconocimiento facial, veremos qué ocurre en España con casos tan sonados como el de Mercadona, en el que la Audiencia Provincial de Barcelona ya rechazó el uso de esta tecnología por parte de la empresa; o el del Atlético de Madrid, que más recientemente planteó la posibilidad de usar esta tecnología. En estos casos, aunque no se trata de espacios públicos, sí son espacios privados dirigidos al público y ello puede plantear problemas.

En cualquier caso, no se puede dar una respuesta definitiva a la cuestión sobre el uso del reconocimiento facial en vivo (LFR), ya que para ello se deberán tener en cuenta otros como factores como la evaluación de impacto que se lleve a cabo, las medidas de seguridad aportadas, como el cifrado de los datos o la eliminación automática de dichos datos, junto con otros principios de nuestro ordenamiento como la proporcionalidad o la minimización de datos. Además, también habrá que tener en cuenta la tecnología en concreto que se use para cada caso, así como las modalidades de identificación de las personas, que bien pueden ser a través de plantillas en cuyo caso la identificación sería “uno-a-uno” o aquellos casos en los que se pudiera comparar con una amplia base de datos “uno-a-varios”.

Williams Colacci, Legal Team, Legal Army

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias