Clearview es una compañía de software de reconocimiento facial que dispone de una base de datos compuesta por más de 3.000 millones de imágenes, extraídas de redes sociales o sitios web como Facebook, Twitter o YouTube. Esta tecnología de reconocimiento facial, permite comparar cualquier persona no identificada con la enorme base de datos de fotografías de la que dispone Clearview, con el fin de identificar pederastas, delincuentes, terroristas… O al menos esa es la finalidad con la cual comercializan sus servicios en su sitio web.
Si bien siempre ha mantenido un perfil bajo y ha optado por mantenerse en la sombra, recientemente, se ha visto envuelta en una gran polémica al ser objeto, a finales de febrero, de una brecha de seguridad que ha expuesto al público su lista completa de clientes. La brecha permitió conocer las organizaciones que utilizaban sus servicios, -entre las que se encontraban entidades públicas como cuerpos de seguridad de numerosos estados o agencias gubernamentales, pero también entidades privadas como bancos, universidades, grandes almacenes, y un largo etcétera-, así como cuántas cuentas abrieron dichas organizaciones y cuántas búsquedas habían realizado.
Que esta información se haya hecho pública, y se hayan conocido los potenciales usos que pueden llevarse a cabo con esta información ha supuesto un intenso debate público y ha puesto en tela de juicio, una vez más, la idoneidad de tecnologías de reconocimiento facial y su uso con técnicas de big data.
Más allá de las implicaciones obvias en relación con la protección de la privacidad de las personas, que ven cómo se pierde su anonimato dentro de la vida pública, y que pueden verse afectadas por un uso insospechado, desconocido y no autorizado de su imagen, en el uso de tecnologías de inteligencia artificial deben tenerse en cuenta una serie de requisitos imprescindibles relacionados con la ética que deben cumplirse. Entre ellos cabe destacar la importancia de la supervisión humana, la solidez técnica de las herramientas, la seguridad y protección de la información, y la no discriminación.
Sin embargo, es una realidad que este software sólo dispone de un rango de precisión del 75%, y estos potenciales fallos o errores en el reconocimiento de las personas pueden provocarles graves perjuicios al producirse errores por falsas coincidencias o reconocimientos menos certeros en función del color de la piel o del género.
También por su parte, al conocer el uso que se estaba haciendo de las imágenes de sus usuarios, las empresas tecnológicas se han llevado las manos a la cabeza y han mostrado su absoluto rechazo solicitando a Clearview el cese de estas prácticas que, en su opinión, vulneran los términos de uso de sus plataformas. Mientras, Clearview se justifica argumentando que esta información se encuentra disponible de forma pública en internet, utilizando únicamente plataformas abiertas y no los perfiles privados de los usuarios.
Como ya indicábamos en un post anterior, resulta imprescindible que se aborde cuanto antes el necesario debate sobre el uso de técnicas de reconocimiento facial antes de que sea tarde y sus usos se encuentren tan extendidos que resulte imposible controlar todas sus implicaciones.
Loreto Jiménez Muñoz | Head of Privacy | L-A