Meta refuerza la seguridad de los usuarios menores de edad en sus chatbots tras la divulgación de un polémico informe de Reuters

A principios de agosto, Reuters lanzó un informe que reveló cómo el gigante de las redes sociales contaba con una serie de directrices y políticas internas aprobadas por distintos departamentos de la multinacional que permitían que los chatbots tuviesen un comportamiento provocativo en temas como el sexo o la raza.
A raíz de lo anterior, y debido a las críticas que recibió la compañía norteamericana, esta reconoció que las directrices internas eran erróneas e incompatibles con las políticas oficiales de Meta, por lo que fueron eliminadas de manera inmediata. De forma paralela, Meta anunció la implementación de nuevas salvaguardas y mecanismos para entrenar a sus IA, en concreto a los chatbots, con el fin de evitar que mantengan conversaciones con usuarios menores de edad sobre temas sensibles, como la autolesión, el suicidio, los trastornos alimentarios o las interacciones de carácter sensual o romántico.
Como medidas provisionales, Meta ha comenzado a entrenar a sus chatbots para que, en caso de que un menor intente ahondar en alguno de estos temas, se le redirija hacia líneas de la vida o hacia ayuda profesional, y también han anunciado la restricción al acceso de adolescentes a personajes sexualizados creados con IA que se habían introducido en plataformas como Facebook e Instagram.
La red social aclaró que las anteriores acciones forman parte de un proceso más amplio de revisión de la seguridad de los menores, y que tienen como objetivo establecer protocolos permanentes que limiten los riesgos asociados al uso de los chatbots por usuarios menores de edad.
La adopción de estas medidas se produce en un contexto donde distintos legisladores han manifestado su preocupación por las prácticas de la compañía y han iniciado investigaciones para determinar el alcance de los riesgos a los que estuvieron expuestos los usuarios menores durante el periodo en el que las directrices estaban vigentes. Además, 44 fiscales estatales han exigido a varias empresas de IA, entre otras Meta, que se tomen en serio la protección de menores de edad en sus plataformas y distintas organizaciones de defensa de la infancia han advertido que algunos chatbots pueden sugerir conductas autodestructivas o reforzar patrones dañinos, lo que ha intensificado la exigencia de regulaciones más estrictas sobre el desarrollo y despliegue de la inteligencia artificial aplicada a menores de edad.