El uso de la inteligencia artificial por los empleados

El uso de herramientas basadas en sistemas de inteligencia artificial, como ChatGPT para la generación de textos, y DALL-E, Midjourney y Stable Diffusion para la creación de imágenes, está revolucionando una gran cantidad de sectores e industrias, así como diversos ámbitos de nuestra vida.

Esta novedad tecnológica está produciendo numerosos beneficios que facilitan y agilizan un elevado número de tareas, labores y actividades del ser humano. Sin embargo, estas novedades tecnológicas llevan aparejados ciertos problemas y riesgos, que están empezando a ser objeto de regulación por parte de los distintos organismos legislativos (como siempre en estos casos, a remolque de los avances tecnológicos).

Uno de los ámbitos más afectados por el uso de herramientas basadas en sistemas de inteligencia artificial es el ámbito laboral, y no solo en la gestión de los recursos humanos (que ha sido calificada de “alto riesgo” en la propuesta de Ley de Inteligencia Artificial europea), sino también en el desempeño de las funciones de los trabajadores.

Los problemas que pueden surgir del uso de estas herramientas por los empleados están relacionados principalmente con la tecnología de aprendizaje automático o machine learning (esto es, con la propia naturaleza, configuración y funcionamiento de los sistemas de inteligencia artificial), que genera una serie de riesgos de transparencia, trazabilidad, seguridad y ciberseguridad que, trasladados al ámbito laboral, pueden impactar en una serie de derechos o cuestiones jurídicas de gran relevancia, tanto a nivel empresarial, como personal.

El problema principal a nivel práctico de la utilización de herramientas de inteligencia artificial, en concreto, de inteligencia artificial generativa basada en grandes modelos multimodales o lingüísticos (conocidos en inglés como large multimodal models y large language models, respectivamente) radica en que la información y los datos que son introducidos en dichos sistemas pueden ser utilizados para el entrenamiento de los propios modelos, con el fin de mejorar sus servicios. Pero no sólo eso, sino que esta información y estos datos pueden ser visibles y accesibles por la empresa desarrolladora de la herramienta.

En este sentido, es importante destacar que las empresas desarrolladoras de estos programas, como OpenAI (la compañía detrás de ChatGPT y DALL-E) incluyen una serie de advertencias en sus términos y condiciones de uso, así como en sus políticas de contenido. Entre estas advertencias, en el caso de OpenAI, se encuentra la mención al uso de la información aportada por los usuarios con el fin de entrenar sus modelos (a menos que el usuario rellene un formulario para excluir expresamente de esta cuestión). Sin embargo, parece que este mensaje no llega bien a los usuarios, ya que, probablemente, nunca llegan a leer estos textos.

Por lo tanto, la utilización de las herramientas de inteligencia artificial en el ámbito laboral por los empleados puede suponer la introducción y/o generación de información y contenido que puede atentar principalmente contra los siguientes aspectos:

  1. derechos de propiedad intelectual;
  2. confidencialidad y secretos empresariales; y
  3. datos personales.

En primer lugar, por lo que respecta a los derechos de propiedad intelectual, la introducción por parte de los empleados de contenido protegido en estos sistemas podría llegar a vulnerar los derechos de autor de la empresa. Esto se debe a que, si dicho contenido entra en el flujo algorítmico y se utiliza para el entrenamiento del modelo antes mencionado, el sistema puede acabar generando resultados (outputs) basados en tales obras protegidas, que podría causar un daño a los derechos de propiedad intelectual de los titulares.

Sobre esta cuestión no existe una posición unánime en la doctrina. De hecho, será especialmente interesante seguir la evolución de los primeros casos al respecto: uno de los primeros lo protagoniza un grupo de artistas que ha iniciado acciones judiciales contra las empresas desarrolladoras de Stable Diffusion y Midjourney, por la presunta infracción de sus derechos de autor.

Por otro lado, en lo concerniente a la confidencialidad y los secretos empresariales, los empleados, mediante el uso de los sistemas de inteligencia artificial, pueden poner en grave peligro información sensible de la empresa. Baste pensar en la introducción de código fuente secreto para su optimización; en el traslado acuerdos con terceros para su aclaración o traducción; o la inserción notas de reuniones internas de la empresa para su conversión a otro formato.

Todas estas acciones, suponen sin duda alguna una fuga de la información sensible y de los secretos empresariales de una compañía.

Merece la pena señalar que estamos hablando de cuestiones que están a la orden del día y que tienen importantes consecuencias prácticas. Son muchas las empresas que se han visto obligadas a prohibir el uso de las herramientas de inteligencia artificial; otras, en cambio, están desarrollando su propia herramienta de inteligencia artificial, con el fin de evitar estos riesgos. Sin ir más lejos, Samsung tras conocer que empleados han introducido información confidencial en ChatGPT para verificar código y para crear presentaciones, ha establecido medidas para limitar el uso de esta herramienta.

Finalmente, deben destacarse los riesgos relacionados con la protección de los datos personales. Probablemente, ahora mismo, sea uno de los problemas más graves inherente a estas herramientas.

Baste repasar las actuaciones de distintas autoridades de protección de datos al respecto: mientras que la autoridad italiana de protección de datos ha prohibido el tratamiento de los datos personales de sus ciudadanos a través de ChatGPT, alegando el incumplimiento del Reglamento General de Protección de Datos, la Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación a OpenAI por el posible incumplimiento de la normativa de protección de datos.

El uso de estas herramientas afecta fundamentalmente a los principios de licitud y transparencia del tratamiento, a la obligación de provisión de medidas de control de acceso a los datos y a la protección reforzada de los menores, regulados todos ellos en el Reglamento General de Protección de Datos.

Si los empleados introducen datos de carácter personal de terceros en los sistemas de inteligencia artificial, nos encontraríamos ante una infracción que podría suponer la imposición a la empresa de sanciones económicas que pueden llegar a alcanzar los 20 millones o el 4% de la facturación mundial anual.

Por todo lo expuesto, resulta necesario que los empleados interioricen los riesgos aquí expuestos para minimizar las consecuencias asociadas al uso de herramientas de inteligencia artificial en el ejercicio de sus tareas y conseguir el estricto cumplimiento de la normativa aplicable: los empleados deben entender cómo funcionan los sistemas de inteligencia artificial y qué implicaciones tiene su uso en determinadas actividades.

Adicionalmente a lo anterior, existe la obligación legal (artículo 87.3 de la Ley Orgánica 3/2018 LOPDGDD) de establecer criterios de utilización de dispositivos digitales, así como de informar a los trabajadores de la existencia de los mismos. En la práctica, esto implica contar con una política de uso de las herramientas de inteligencia artificial, que prevea los DOs and DON'Ts que deben tenerse en cuenta a la hora de hacer uso de estas.

En definitiva, aunque las herramientas de inteligencia artificial pueden ser (y de hecho, son) útiles para mejorar la eficiencia y la productividad en el trabajo, también presentan riesgos importantes para las empresas. Por ello, deben valorar cuidadosamente estos riesgos y tomar las medidas adecuadas para reducir al máximo posible su impacto.

Marta Viciano Claramunt, Senior Legal Counsel, Legal Army 

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias