La libertad de expresión en Internet: La sección 230 de la Communications Decency Act.

Las redes sociales se han convertido en los principales espacios en los que los usuarios pueden expresarse de forma libre sin mayores restricciones editoriales, pudiendo publicar desde sus opiniones y preferencias hasta compartir contenidos propios o de terceros, así como pudiendo interaccionar entre sí y generar debates abiertos a cualquier usuario.

Pese a que Internet es un entorno global y sumamente complejo de regular, lo cierto es que existen diferentes normas regionales que tienen un efecto directo sobre su uso, funcionamiento y contenido.

Debido al aumento de la actividad de investigación y escrutinio al que se ha sometido a las principales compañías tecnológicas en Estados Unidos, la Sección 230 de la Communications Decency Act de 1996 (“CDA”) se encuentra de nuevo en el centro de atención debido a cuestiones como la propagación de la desinformación o los discursos de odio, especialmente en el contexto de las elecciones presidenciales de este año 2020.

Esta semana los CEOs de Facebook, Twitter y Google han comparecido en el Congreso de los Estados Unidos con el objetivo de convencer a los legisladores de que deben mantener en vigor la Sección 230 de la CDA, la pieza clave de legislación federal que protege a los proveedores de servicios de la sociedad de la información y cuya finalidad puede entenderse relacionada, en cierta medida, con la protección de la libertad de expresión en el entorno digital.

¿Qué es la Communications Decency Act?

Se trata de una pieza fundamental en la legislación sobre Internet en Estados Unidos y el contenido que se aloja en las páginas web creada, originalmente, para regular y restringir los contenidos “indecentes” y “obscenos” en el ámbito digital – debe tenerse en cuenta que, pese a tener la finalidad citada, su redacción fue interpretada como demasiado restrictiva para la libertad de expresión, por lo que una parte sustancial de la CDA fue bloqueada, manteniéndose en vigor la Sección 230.

¿Por qué es tan importante la Sección 230?

Su origen se remonta al caso Stratton Oakmont, Inc. v. Prodigy Services Co. de 1995 ante la Corte Suprema de Nueva York. El objeto del procedimiento consistió en determinar si Prodigy podía ser considerado responsable por los comentarios introducidos por un usuario anónimo en el que se acusaba a Stratton Oakmont de haber cometido actos fraudulentos.

La Corte Suprema de Nueva York determinó que Prodigy ocupaba la posición de “editor” o “Publisher” debido a que llevó a cabo actividades de moderación, incluyendo el establecimiento de directrices sobre los contenidos permitidos y los contenidos prohibidos en su página web y, por tanto, se consideró que Prodigy era directamente responsable por los contenidos introducidos por sus usuarios. Conforme a la interpretación del caso referenciado, si Prodigy no hubiera llevado a cabo ninguna acción tendente a la moderación del contenido, no habría sido considerada como parte responsable, pues el contenido habría estado protegido por el derecho a la libertad de expresión.

En respuesta a esta situación, se introdujo en la CDA una modificación a la citada Sección 230 con el objetivo de limitar la responsabilidad de las plataformas de proveedores de servicios de sociedad de la información por los contenidos introducidos o aportados por sus usuarios, aun cuando los mismos sean moderados y/o sometidos a directrices específicas de cada una de las plataformas.

En relación con las campañas de desinformación y “fake news” la Sección 230 permite a los responsables de las plataformas (incluyendo no sólo redes sociales sino también foros y portales de información) moderar los contenidos de los usuarios – pudiendo restringirlos, editarlos, eliminarlos y/o introducir advertencias o avisos respecto a los mismos, sin incurrir en responsabilidad por ello.

¿Está relacionada directamente con la libertad de expresión?

Conforme a los representantes de las principales plataformas, la derogación de esta sección pone en peligro el diálogo y debate como lo conocemos hoy en día en las principales redes sociales, puesto que pocas plataformas continuarán permitiendo la interacción libre de sus usuarios (sólo aquellas que tengan fondos suficientes para hacer frente al riesgo que supondrá) y, además, conllevará que las propias plataformas lleven a cabo labores de moderación muy restrictivas para evitar incurrir en responsabilidad.

Si bien, desde un punto de vista contrario, el sector más conservador de las cámaras legislativas de Estados Unidos considera que mantener la Sección 230 de la CDA en vigor, supone otorgar poderes de censura contrarios al espíritu de la norma.

Para remediar esta situación se han propuesto numerosos cambios a la Sección 230 y cómo se gestiona la responsabilidad de los prestadores de servicios de la sociedad de la información, por ejemplo, a través de la realización de auditorías que garanticen que las políticas de contenidos de las compañías no estén sesgadas política o ideológicamente.

¿Cómo se regulan estas cuestiones en España?

En España, la responsabilidad por el contenido alojado en las plataformas se rige por la Ley 34/2002, de Servicios de Sociedad de la Información y Comercio Electrónico.

Con carácter general los prestadores de servicios de sociedad de la información están sujetos a la responsabilidad civil, penal y administrativa que en cada caso corresponda. No obstante lo anterior, aquellos que tengan la consideración de intermediarios no serán responsables siempre que actúen con diligencia y colaboren con las autoridades para interrumpir la prestación de un servicio de la sociedad de la información o para retirar un contenido ilícito de la red.

Finalmente, debe tenerse en cuenta que aunque los prestadores de servicios de intermediación no son, en principio, responsables por los contenidos ajenos que transmiten, alojan o a los que facilitan acceso, sí que pueden incurrir en responsabilidad si toman una participación activa en su elaboración o si, conociendo la ilegalidad de un determinado material, no actúan con rapidez para retirarlo o impedir el acceso al mismo.

Rahul Uttamchandani | Chief Legal Officer | Legal Army.

¿Comenzamos?

Cuéntanos un poco sobre tu negocio y te contactaremos en menos de 24 horas.