Apple retrasa su plan para implementar herramientas de detección de material de abuso infantil

Debido a las críticas generalizadas de grupos de defensa de la privacidad, entre los que existía un sentimiento generalizado de preocupación por el hecho de que el escaneo de las imágenes de los dispositivos implicase una posible vulneración de la privacidad de los usuarios, la tecnológica ha retrasado sus planes de implantar una herramienta de detección consistente en el escaneo de las fotografías de iCloud de los usuarios estadounidenses en busca de material de abuso sexual infantil.

La tecnología en cuestión es la llamada “NeuralHash”, un sistema de detección de material de abuso sexual infantil, el cual analiza la biblioteca de imágenes cargadas a iCloud de los usuarios usando un proceso llamado hash que convierte las imágenes a grupos de números con un patrón específico para luego compararlo con una base de datos de hashes provista por el Centro Nacional para Niños Desaparecidos y Explotados. En caso de encontrase una coincidencia, esta sería revisada manualmente y, de ser necesario, se tomarían las medidas necesarias para deshabilitar la cuenta de un usuario y denunciarlo a la policía.

La nueva herramienta estaba previstas para ser lanzadas a finales de este año, pero la compañía emitió un comunicado anunciando que se tomaría un tiempo para implementar mejoras en la herramienta para cumplir con su promesa de brindar privacidad real a sus usuarios: "Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica".

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias