En los últimos años han sido múltiples los casos en los que las redes sociales no se han utilizado con los mejores fines y se han convertido en medios de manipulación social o en el lugar perfecto de proliferación de la desinformación. Así ocurrió en el caso Cambridge analitycs en las elecciones estadounidenses de 2016, o tras el estallido del conflicto entre Israel y Palestina, en el que la emisión continua de contenido ilegal o falso proliferó de forma palmaria, llevando al ejecutivo europeo a activar por primera vez las exigencias de la Ley de Servicios digitales solicitando a Meta (Instagram, Facebook o WhatsApp) y a X, entre otras redes, que trasladasen información acerca de las medidas adoptadas para evitar la difusión de este contenido ilegal o falso. [1]
De hecho, el Código de buenas prácticas de la Unión Europea de 2023 recogió que el 83% de las ciudadanos cree que la desinformación puede afectar a la democracia. Este informe analizó además miles de publicaciones de las redes más conocidas, concluyendo que X y Meta presentaban los mayores ratios de desinformación, con unas tasas alrededor del 7%. [2]
¿Por qué las redes sociales deben controlar el contenido que se publica por los usuarios?
Las redes sociales cuentan con una gran cantidad de ventajas para sus usuarios -desde poder informarse de lo que sucede a su alrededor hasta poder compartir toda clase de contenido a nivel personal o profesional-. Sin embargo, esto puede convertirse en un arma de doble filo y eso es precisamente lo que está provocando que el mundo de algunas redes sociales se tambalee debido a la difusión de contenido ilegal o falso, que atenta contra los ordenamientos jurídicos de los Estados miembros de la Unión.
Concretamente, el artículo 3 del Reglamento UE 2022/2065 relativo a un mercado único de Servicios Digitales (DSA - conocido comúnmente como la Ley de servicios digitales) define el contenido ilícito como aquella información que incumple el Derecho de la Unión o de un Estado miembro, bien sola o bien en relación con una actividad, producto o servicio. Y el artículo 7 impone nuevos mecanismos que permiten a los usuarios señalar contenidos ilícitos en línea, debiendo las plataformas cooperar con «alertadores fiables» especializados para detectar y eliminar dichos contenidos. Es decir, a pesar de que, en cierta medida, el usuario debe de ser responsable con lo que sube a las redes, las plataformas y redes no pueden hacer la vista gorda conforme a la normativa europea.
¿Qué posturas han surgido a raíz del DSA?
La entrada en vigor de la nueva normativa ha supuesto una exigencia de mayor transparencia y responsabilidad por parte de las redes sociales. Ahora, resulta mucho más sencillo que se elimine contenido ilícito en línea de una forma rápida y, teniendo los usuarios a nuestra disposición las herramientas adecuadas para poder denunciarlo inmediatamente.
Aunque los beneficios de dicha normativa para los usuarios son evidentes al garantizarse el acceso a información fiable y de calidad, en cierta medida esta normativa pudiera entrar en conflicto con la libertad de expresión y de información.
Cabe decir que las exigencias europeas no gustaron nada a los propietarios de algunas redes. De hecho, el disgusto de Elon Musk es tal, que incluso se ha llegado a plantear retirar a X de Europa para evitar tener que cumplir con la Ley de Servicios Digitales [3]. Nos encontramos como siempre con la disyuntiva de buscar un equilibrio entre el avance tecnológico y la necesidad de proteger los derechos y valores de la sociedad.
¿A qué posibles sanciones se enfrentan las plataformas digitales por el DSA?
El artículo 76 del DSA recoge las posibles multas coercitivas que puede imponer la Comisión a plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño o a cualquier otra de las personas a que se refiere el artículo 67.1.
Estas multas coercitivas podrán ascender hasta el 5 % del promedio diario de los ingresos o del volumen de negocios anuales en todo el mundo del ejercicio fiscal anterior por día, calculados a partir de la fecha desde la que se les haya exigido alguna de las siguientes obligaciones:
a) proporcionar información correcta y completa
b) someterse a una inspección que haya ordenado
c) cumplir con una decisión por la que ordene medidas cautelares
d) cumplir compromisos declarados legalmente vinculantes
e) cumplir con una decisión adoptada con arreglo al artículo 73.
CONCLUSIÓN
Las redes sociales han servido como caldo de cultivo de nuevos problemas como las fake news o los contenidos ilícitos, pero ahora la normativa europea exige una implicación por parte de las plataformas, que deben controlar los contenidos considerados ilícitos, y velar por su rápida eliminación a riesgo de vulnerar la Ley de Servicios Digitales, en caso contrario.
La finalidad es conseguir una red más limpia en la que se controle y se elimine el contenido que incite a la violencia, promueva actos ilegales o que ayude a las fake news a coexistir con las noticias reales.
Cabe recordar que estamos ante una ley bastante nueva y que estamos en constante evolución. A medida que las plataformas en línea se vayan adaptando a las nuevas normas esperemos que podamos ver un internet mejor.
BIBLIOGRAFÍA
[2] Código de buenas prácticas de la Unión Europea (2023). https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/new-push-european-democracy/protecting-democracy/strengthened-eu-code-practice-disinformation_es
[3] FESP. (2023, oct. 13) La CE conmina a Meta y X a decir qué medidas han tomado para evitar contenidos ilegales o falsos. Fesp. https://fesperiodistas.org/la-ce-conmina-a-meta-y-x-a-decir-que-medidas-ha-tomado-para-evitar-contenidos-ilegales-o-falsos/
[4] Alonso, R. (2023, oct. 19) ABC. Elon Musk plantea retirar X de Europa para evitar tener que cumplir con la Ley de Servicios Digitales. https://www.abc.es/tecnologia/elon-musk-plantea-retirar-europa-evitar-tener-20231019100321-nt.html
Comentários