Los riesgos de seguridad y privacidad de las aplicaciones de IA Generativa

Comparte

Una investigación realizada sobre más de mil empleados ha revelado que el uso de herramientas de IA generativa en el trabajo ha incrementado de manera muy significativa, usándose o habiendo sido usadas por hasta un cuarto de los empleados. Esta investigación ha demostrado además, que una vez los empleados comienzan a utilizar herramientas de IA, no se conforman con utilizar una sola, si no que usan de media alrededor de ocho herramientas cada mes. 

Mientras existen miles de herramientas de IA generativa, esta investigación las divide en: herramientas que ayudan con la generación, edición, traducción, etc, de contenidos; herramientas de negocio como puede ser Slack o Notion, y herramientas que proporcionan servicios de atención al cliente. No obstante, si algo demostró la encuesta llevada a cabo, es que ChatGPT sigue siendo la más utilizada de manera general, siendo hasta seis veces más utilizada que su competidor Google Gemini. Un 47% de las solicitudes a estas herramientas se centra en solicitudes para resumir, crear o editar contenidos, mientras que la interpretación, el procesamiento o el análisis de datos suponen un 12% por ejemplo. 

A pesar de los grandes beneficios que traen estas herramientas, con su uso también aumentan los potenciales riesgos de seguridad y privacidad a los que tanto individuos como empresas deben hacer frente. Esta investigación analizó las 5,020 herramientas de IA que están en uso, y descubrió que casi un 31% de ellas declaran entrenarse con los datos de los usuarios, lo que quiere decir que cualquier dato, incluidos datos sensibles, que se introduzcan, se podrán utilizar para entrenar sus modelos. 

El uso de estas herramientas continuará suponiendo riesgos para la privacidad y la seguridad tanto individual como de las organizaciones, por lo que se recomienda considerar lo siguiente: 1. llevar a cabo auditorías periódicas de las herramientas que se están utilizando; 2. implementar políticas muy claras sobre el uso de los datos y de la IA; 3. es muy importante informar a los empleados acerca de los riesgos de las herramientas de IA, así como de las buenas prácticas relacionadas con las mismas; 4. por último, cuando sea posible, escoger herramientas que permitan el “opt-out” del entrenamiento con tus contenidos.

Leer más

Posts relacionados que podrían interesarte

20, octubre 2022

La ICO publica un borrador para una Guía sobre prácticas laborales y protección de datos

30, marzo 2023

Técnicos y ejecutivos firman una carta por la interrupción del desarrollo de la Inteligencia Artificial

25, junio 2020

La AEPD publica un comunicado sobre la app de rastreo de contactos.

8, marzo 2023

WhatsApp se compromete a ser más transparente en la actualización de sus políticas

31, marzo 2022

El TJUE se pronuncia sobre la aplicación de la excepción de copia privada en el almacenamiento en la nube

20, octubre 2022

El Comité Europeo de Protección de Datos emite un comunicado sobre la emisión del euro digital y los riesgos de las transacciones