Resolución del Parlamento Europeo, de 20 de octubre de 2020

Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre la Ley de servicios digitales y cuestiones relacionadas con los derechos fundamentales [2020/2022(INI)].

El Parlamento Europeo,

– Visto el Tratado de la Unión Europea (TUE), y en particular su artículo 2,

– Visto el Tratado de Funcionamiento de la Unión Europea (TFUE), y en particular su artículo 16 y su artículo 114,

– Vista la Carta de los Derechos Fundamentales de la Unión Europea, y en particular su artículo 6, su artículo 7, su artículo 8, su artículo 11, su artículo 13, su artículo 21, su artículo 22, su artículo 23, su artículo 24, su artículo 26, su artículo 38 y su artículo 47,

– Vista la Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico) (1),

– Visto el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE [Reglamento general de protección de datos (RGPD)] (2),

– Vista la Directiva 2002/58/CE del Parlamento Europeo y del Consejo, de 12 de julio de 2002, relativa al tratamiento de los datos personales y a la protección de la intimidad en el sector de las comunicaciones electrónicas (Directiva sobre la privacidad y las comunicaciones electrónicas) (3),

– Vista la Directiva (UE) 2018/1808 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018, por la que se modifica la Directiva 2010/13/UE sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados miembros relativas a la prestación de servicios de comunicación audiovisual (Directiva de servicios de comunicación audiovisual), habida cuenta de la evolución de las realidades del mercado (4),

– Vista la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las Directivas 96/9/CE y 2001/29/CE (5) (Directiva sobre los derechos de autor),

– Vista la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018, sobre las medidas para luchar eficazmente contra los contenidos ilícitos en línea (6),

– Vista la Evaluación de la amenaza de la delincuencia organizada en Internet (IOCTA) elaborada por Europol el 18 de septiembre de 2018,

– Vista la jurisprudencia del Tribunal de Justicia de la Unión Europea,

– Visto el artículo 54 de su Reglamento interno,

– Vistas las opiniones de la Comisión de Mercado Interior y Protección del Consumidor y de la Comisión de Cultura y Educación,

– Visto el informe de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior (A9-0172/2020),

A.

Considerando que, para que la política europea sobre los servicios digitales sea duradera y acertada, los derechos fundamentales, como la protección de la intimidad y los datos personales, el principio de no discriminación y la libertad de expresión e información, deben ser parte central de la política; que estos derechos deben verse reflejados tanto en la forma como en el fondo de su aplicación;

B.

Considerando que los tipos de servicios digitales y las funciones de los proveedores de servicios digitales han cambiado radicalmente desde la adopción de la Directiva sobre el comercio electrónico hace veinte años;

C.

Considerando que solo podemos ganarnos la confianza de los usuarios con unos servicios digitales que respeten sus derechos fundamentales, lo cual no solo garantizaría la aceptación de los servicios, sino que también ofrecería una ventaja competitiva y modelos de negocio estables para las empresas;

D.

Considerando que las normas de protección de datos aplicables a todos los proveedores que ofrecen servicios digitales en el territorio de la Unión se han actualizado y armonizado recientemente en el conjunto de la Unión con el Reglamento general de protección de datos; que las normas sobre la privacidad y las comunicaciones electrónicas, que son un subconjunto de los servicios digitales, están cubiertas por la Directiva sobre la privacidad y las comunicaciones electrónicas y están siendo revisadas actualmente;

E.

Considerando que la cantidad de todos los tipos de contenidos generados por los usuarios y compartidos, así como de servicios prestados a través de plataformas en línea, incluidos los servicios en la nube, ha aumentado exponencialmente y a un ritmo sin precedentes gracias a las tecnologías avanzadas; que lo anterior incluye contenidos ilícitos, como imágenes de pornografía infantil en línea, y contenidos legales, pero que pueden ser perjudiciales para la sociedad y la democracia, como la desinformación sobre los remedios contra la COVID-19;

F.

Considerando que la incitación al odio y la desinformación en línea se han extendido cada vez más en los últimos años a medida que los individuos y los agentes perturbadores utilizan las plataformas en línea para acentuar la polarización, que, a su vez, se emplea con fines políticos; que las mujeres, las personas de color, las personas que pertenecen o se considera que pertenecen a minorías étnicas o lingüísticas y las personas LGBTIQ suelen ser el blanco de los discursos discriminatorios de incitación al odio, la intimidación, las amenazas y la búsqueda de culpables en línea;

G.

Considerando que han contribuido a esta tendencia plataformas en línea cuyo modelo de negocio se basa en la recopilación y el análisis de datos de los usuarios con vistas a generar más tráfico y «clics» y, a su vez, más datos de elaboración de perfiles y, por tanto, más beneficios; que ello conduce a la amplificación del contenido sensacionalista; que la incitación al odio y la desinformación perjudican al interés público colectivo, al socavar el discurso público respetuoso y honesto, y amenazan la seguridad pública, ya que pueden incitar a la violencia en el mundo real; que la lucha contra estos contenidos es fundamental para garantizar el respeto de los derechos fundamentales y defender el Estado de Derecho y la democracia en la Unión;

H.

Considerando que las redes sociales y otras plataformas de distribución de contenidos utilizan técnicas de elaboración de perfiles para orientar y distribuir su contenido, así como los anuncios publicitarios; que los datos recopilados a partir de los rastros digitales de las personas pueden explotarse de manera que permitan deducir información personal muy íntima con un nivel de precisión muy elevado, especialmente cuando dichos datos se fusionan con otros conjuntos de datos; que los escándalos de Cambridge Analytica y Facebook demostraron los riesgos asociados con las operaciones opacas de tratamiento de datos de las plataformas en línea al revelar que se había microdirigido publicidad política y, a veces, incluso desinformación a determinados votantes;

I.

Considerando que los algoritmos automatizados que deciden cómo gestionar, priorizar, distribuir y eliminar contenidos de terceros en plataformas en línea, en particular durante las campañas políticas y electorales, suelen reproducir las pautas discriminatorias existentes en la sociedad, lo que conlleva un elevado riesgo de discriminación para las personas ya afectadas; que el uso generalizado de algoritmos para la eliminación o el bloqueo de contenidos también plantea problemas en relación con el Estado de Derecho y cuestiones relacionadas con la legalidad, la legitimidad y la proporcionalidad;

J.

Considerando que un pequeño número de proveedores de servicios, en su mayoría no europeos, tiene un peso significativo en el mercado e influye en los derechos y libertades de las personas, nuestras sociedades y democracias, al controlar la presentación de información, servicios y productos, por lo que tiene una repercusión significativa en el funcionamiento de los Estados miembros y en sus ciudadanos; que las decisiones de estas plataformas pueden tener consecuencias de gran calado para la libertad de expresión e información y para la libertad y el pluralismo de los medios de comunicación;

K.

Considerando que el enfoque político para combatir los contenidos ilícitos en línea en la Unión se ha centrado hasta ahora principalmente en la cooperación voluntaria y en la eliminación de contenidos por orden judicial, pero que un número cada vez mayor de Estados miembros está adoptando más leyes a escala nacional para hacer frente a los contenidos ilícitos de una manera disonante; que en la reciente legislación sectorial a escala de la Unión se han incluido disposiciones para hacer frente a determinados tipos de contenidos ilícitos;

L.

Considerando que un planteamiento puramente autorregulador en relación con las plataformas no proporciona un nivel adecuado de transparencia, rendición de cuentas y supervisión; que este planteamiento tampoco proporciona información adecuada a las autoridades públicas, a la sociedad civil y a los usuarios sobre la manera en que las plataformas abordan los contenidos ilícitos y las actividades y contenidos que violan sus términos y condiciones, ni sobre cómo tratan los contenidos en general;

M.

Considerando que este tipo de planteamiento puede no garantizar el respeto de los derechos fundamentales y crear una situación en la que las responsabilidades judiciales se transfieran parcialmente a particulares, lo que supone un riesgo de injerencia en el derecho a la libertad de expresión;

N.

Considerando que en la Unión cada sector tiene una vigilancia y una supervisión reglamentarias específicas; que sería beneficioso que hubiera una coordinación mayor y más amplia entre los distintos organismos de supervisión de toda la Unión;

O.

Considerando que la falta de datos públicos sólidos y comparables sobre la prevalencia de los contenidos ilícitos y nocivos en línea, sobre las notificaciones y la eliminación de tales contenidos por mandato judicial y por autorregulación, así como sobre el seguimiento por parte de las autoridades competentes, genera un déficit de transparencia y rendición de cuentas, tanto en el sector público como en el privado; que se observa una falta de información sobre los algoritmos utilizados por las plataformas y los sitios web y la forma en que las plataformas abordan la retirada errónea de contenidos;

P.

Considerando que la explotación sexual en línea de menores es uno de los tipos de contenidos ilícitos que se ve facilitado por los avances tecnológicos; que la gran cantidad de pornografía infantil que circula en línea plantea graves desafíos para su detección, su investigación y, sobre todo, para las labores de identificación de las víctimas; que, según Europol, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), con sede en los Estados Unidos, registró el año pasado un aumento del 106 % de las denuncias de intercambio en línea de contenidos de pornografía infantil;

Q.

Considerando que, según la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE), la eliminación de contenidos debe realizarse a raíz de una orden judicial de un Estado miembro; que los proveedores de alojamiento de datos pueden recurrir a herramientas y tecnologías de búsqueda automatizadas para detectar y eliminar contenidos equivalentes a otros declarados ilícitos previamente, pero no han de estar obligados a realizar una supervisión general de la información que almacenan ni a buscar activamente hechos o circunstancias que indiquen actividades ilícitas, como se establece en el artículo 15, apartado 1, de la Directiva 2000/31/CE;

R.

Considerando que una identificación electrónica fiable es elemental para garantizar el acceso seguro a los servicios digitales y para realizar transacciones electrónicas de forma más segura; que, en la actualidad, solo quince Estados miembros han notificado a la Comisión su sistema de identidad electrónica para el reconocimiento transfronterizo en el marco del Reglamento (UE) nº 910/2014 (7) (Reglamento eIDAS);

S.

Considerando que internet y las plataformas de internet siguen siendo un lugar estratégico para las actividades de grupos terroristas y se utilizan como instrumento de diseminación de propaganda, captación y promoción de sus actividades;

1.

Cree en los beneficios económicos y sociales evidentes de un mercado único digital operativo para la Unión y sus Estados miembros; acoge con satisfacción estos beneficios, en particular la mejora del acceso a la información y el refuerzo de la libertad de expresión; destaca la importante obligación de garantizar un ecosistema digital justo en el que se respeten los derechos fundamentales consagrados en los Tratados y en la Carta de los Derechos Fundamentales de la Unión Europea, en particular la libertad de expresión y de información, la no discriminación, la libertad y el pluralismo de los medios de comunicación y la protección de la intimidad y de los datos personales, y se garantice la seguridad de los usuarios en línea; hace hincapié en que las intervenciones legislativas y otras intervenciones reguladoras en el mercado único digital destinadas a garantizar el cumplimiento de esta obligación deben limitarse estrictamente a lo necesario; recuerda que los mecanismos de eliminación de contenidos que se utilizan sin las garantías de un proceso debido contravienen el artículo 10 del Convenio Europeo de Derechos Humanos;

2.

Insta a la Comisión a que adopte un enfoque regulador adaptado para abordar las diferencias que persisten entre los mundos en línea y fuera de línea, así como los desafíos que plantea la diversidad de actores y de servicios ofrecidos en línea; considera esencial, en este sentido, aplicar distintos enfoques reguladores respecto al contenido ilícito y al contenido legal; subraya que los contenidos ilícitos en línea y los delitos facilitados por el ciberespacio deben abordarse con el mismo rigor, sobre la base de los mismos principios jurídicos que los aplicados a los contenidos ilícitos y el comportamiento delictivo fuera de línea, y con las mismas garantías para los ciudadanos; recuerda que la Directiva sobre el comercio electrónico es el marco jurídico para los servicios en línea en el mercado interior que regula la gestión de contenidos;

3.

Estima necesario que se retiren los contenidos ilícitos de forma rápida y sistemática para hacer frente a la delincuencia y a las violaciones de los derechos fundamentales; considera que los códigos de conducta voluntarios abordan este problema solo de manera parcial;

4.

Pide a los proveedores de servicios digitales que retiren los contenidos de la red de manera diligente, proporcionada y no discriminatoria y teniendo debidamente en cuenta en todas las circunstancias los derechos fundamentales de los usuarios y la importancia fundamental de la libertad de expresión e información en una sociedad abierta y democrática con el fin de evitar la eliminación de contenidos que no sean ilegales; pide a los proveedores de servicios digitales que, por iniciativa propia, deseen restringir determinado contenido legal de sus usuarios, que estudien la posibilidad de etiquetar ese contenido en lugar de retirarlo de la red, dando así a los usuarios la oportunidad de acceder a él bajo su responsabilidad;

5.

Considera que todas las medidas de retirada de contenidos legalmente impuestas en la Ley de servicios digitales deben referirse únicamente a los contenidos ilícitos, con arreglo a su definición en el Derecho nacional y de la Unión, y que la legislación no debe incluir conceptos y términos indefinidos, ya que ello crearía inseguridad jurídica para las plataformas en línea y pondría en peligro los derechos fundamentales y la libertad de expresión;

6.

Reconoce, no obstante, que el ecosistema digital actual también fomenta comportamientos problemáticos, como la microsegmentación basada en características que exponen vulnerabilidades físicas o psicológicas, la propagación de la incitación al odio, los contenidos racistas y la desinformación, cuestiones emergentes como el abuso organizado de múltiples plataformas y la creación de cuentas o la manipulación de contenidos en línea mediante algoritmos; observa con preocupación que algunos modelos de negocio se basan en mostrar contenido sensacionalista y polarizador a los usuarios con el fin de aumentar su tiempo de visualización y, por ende, los beneficios de las plataformas en línea; subraya los efectos negativos de estos modelos de negocio en los derechos fundamentales de las personas y en la sociedad en su conjunto; pide transparencia en las políticas de monetización de las plataformas en línea;

7.

Hace hincapié, por tanto, en que debe frenarse la difusión de dichos contenidos nocivos; cree firmemente que la alfabetización mediática, el control por parte de los usuarios de los contenidos que se les proponen y el acceso público a contenidos y educación de alta calidad son cruciales a este respecto; acoge con satisfacción, por tanto, la iniciativa de la Comisión de crear un Observatorio Europeo de los Medios Digitales para apoyar a los servicios independientes de verificación de datos, mejorar el conocimiento público sobre la desinformación en línea y ayudar a las autoridades públicas encargadas de supervisar a los medios digitales;

8.

Pide a la Comisión y a los Estados miembros que apoyen a los medios de comunicación independientes y de servicio público, así como las iniciativas educativas sobre alfabetización mediática y las campañas de sensibilización específicas en el seno de la sociedad civil; señala que debe prestarse especial atención a los contenidos nocivos en el contexto de los menores que utilizan internet, especialmente en lo que respecta a su exposición al ciberacoso, el acoso sexual, la pornografía, la violencia o las autolesiones;

9.

Observa que, dado que las actividades en línea de una persona permiten conocer a fondo su personalidad y hacen posible su manipulación, la recopilación general e indiscriminada de datos personales relativos a cada uso de un servicio digital interfiere desproporcionadamente en el derecho a la intimidad y la protección de los datos personales; destaca, en particular, el impacto negativo potencial de la publicidad microsegmentada y comportamental, y de los análisis de individuos, especialmente los menores, pues se inmiscuyen en la vida privada de los particulares y suscitan cuestiones en cuanto a la recogida y el uso de datos para personalizar la publicidad con miras a ofrecer productos o servicios o a fijar precios; confirma que el derecho de los usuarios a no ser objeto de un seguimiento generalizado cuando utilizan servicios digitales está recogido en el RGPD y debe aplicarse adecuadamente en toda la Unión; toma nota de que la Comisión ha propuesto supeditar la curación de contenidos específicos a una decisión de autoinclusión voluntaria en su propuesta de nuevo Reglamento sobre el respeto de la vida privada y la protección de los datos personales en el sector de las comunicaciones electrónicas (2017/0003 (COD));

10.

Considera que la publicidad política engañosa u opaca es un tipo especial de amenaza en línea porque influye en los mecanismos básicos que permiten el funcionamiento de nuestra sociedad democrática, especialmente cuando ese contenido está patrocinado por terceros, incluidos agentes extranjeros; subraya que cuando la elaboración de perfiles se realiza a gran escala, con fines de microsegmentación política para manipular el comportamiento de los votantes, puede socavar gravemente los cimientos de la democracia; pide, por tanto, a los proveedores de servicios digitales que adopten las medidas necesarias para identificar y etiquetar los contenidos publicados por bots sociales, y espera que la Comisión proporcione directrices sobre el uso de esas tecnologías digitales persuasivas en las campañas electorales y en las estrategias de publicidad política; pide, a este respecto, que se establezcan requisitos estrictos de transparencia para la exhibición de anuncios políticos de pago;

11.

Considera necesario que se retiren los contenidos ilícitos sin demora indebida y de forma sistemática, a fin de hacer frente a las infracciones, en especial a las relacionadas con menores y contenido terrorista, y a las violaciones de los derechos fundamentales, con las salvaguardias necesarias en vigor, como la transparencia del proceso, el derecho de apelación y el acceso a una tutela judicial efectiva; estima que los códigos de conducta voluntarios y las condiciones contractuales tipo no se aplican de manera adecuada y abordan este problema solo de manera parcial; subraya que la responsabilidad en última instancia de hacer cumplir la ley, decidir acerca de la legalidad de las actividades en línea y ordenar a los proveedores de servicios de alojamiento que retiren o desactiven el acceso a contenidos ilícitos recae en las autoridades competentes independientes;

12.

Reconoce que, si bien el carácter ilícito de ciertos tipos de contenido puede determinarse fácilmente, la decisión es más difícil respecto a otras clases de contenido, ya que es necesaria una contextualización; advierte de que las herramientas automatizadas actuales no son capaces de realizar un análisis crítico ni de comprender adecuadamente la importancia del contexto para determinados contenidos, lo que podría dar lugar a una retirada de contenido innecesaria y perjudicar a la libertad de expresión y el acceso a información diversa, también sobre opiniones políticas, conllevando así una censura; destaca que la revisión humana de los informes automatizados por parte de los proveedores de servicios o sus contratistas no resuelve plenamente este problema, especialmente si se subcontrata a personal privado que carece de un nivel suficiente de independencia, cualificaciones y responsabilidad;

13.

Observa con preocupación que el contenido ilícito en línea puede multiplicarse con facilidad y rapidez y, por lo tanto, sus efectos negativos pueden amplificarse en muy poco tiempo; cree, no obstante, que la Ley de servicios digitales no debe contener ninguna obligación para los proveedores de servicios de alojamiento de datos u otros intermediarios técnicos en lo que se refiere a la utilización de herramientas automatizadas para la moderación de contenidos;

14.

Recuerda que los contenidos ilícitos en línea no solo deben ser retirados por las plataformas en línea, sino que también deben ser objeto de seguimiento por parte de las autoridades encargadas de hacer cumplir la ley y del poder judicial cuando se trate de actos delictivos; pide a la Comisión que considere la posibilidad de obligar a las plataformas en línea a denunciar los delitos graves a la autoridad competente, una vez que tengan conocimiento de ellos; considera, a este respecto, que una cuestión fundamental en algunos Estados miembros no es solo que tengan casos sin resolver, sino también pendientes de investigación; pide que se eliminen los obstáculos a la presentación de denuncias ante las autoridades competentes; tiene el convencimiento de que, dado el carácter sin fronteras de internet y la rápida difusión de los contenidos ilícitos en línea, debe mejorarse la cooperación entre los proveedores de servicios y las autoridades nacionales competentes, así como la cooperación transfronteriza entre estas últimas, sobre la base de los principios de necesidad y proporcionalidad; subraya a este respecto la necesidad de respetar el ordenamiento jurídico de la Unión y los principios establecidos de cooperación transfronteriza y confianza mutua; pide a los Estados miembros que doten a sus autoridades policiales y judiciales de los conocimientos especializados, los recursos y los instrumentos necesarios para que puedan hacer frente con eficacia al creciente número de casos de contenido ilícito en línea y a la solución de controversias relativas a la retirada de los contenidos de la red, y que mejoren el acceso a la justicia en el ámbito de los servicios digitales;

15.

Subraya que un contenido determinado puede considerarse ilícito en un Estado miembro y estar amparado por el derecho a la libertad de expresión en otro; destaca que, para proteger la libertad de expresión, evitar conflictos de leyes, prevenir el bloqueo geográfico injustificado e ineficaz y aspirar a un mercado único digital armonizado, no debe exigirse a los proveedores de servicios de alojamiento que eliminen o inhabiliten el acceso a información que sea legal en el Estado miembro en el que estén establecidos o en el que residan o estén establecidos sus representantes legales; recuerda que las autoridades nacionales solo pueden ejecutar órdenes de retirada por parte de autoridades competentes independientes dirigidas a proveedores de servicios establecidos en su territorio; considera necesario reforzar los mecanismos de cooperación entre los Estados miembros con el apoyo de la Comisión y de los organismos pertinentes de la Unión; pide un diálogo estructurado entre los Estados miembros a fin de establecer el riesgo de determinados tipos de contenido y de detectar posibles diferencias en la evaluación de tales riesgos entre los Estados miembros;

16.

Subraya que el contenido ilícito debe eliminarse donde está alojado y que no debe exigirse a quienes actúan de meros intermediarios que bloqueen el acceso a contenidos;

17.

Cree firmemente que el actual marco jurídico de la Unión que regula los servicios digitales debe actualizarse con vistas a abordar los retos que plantean la fragmentación entre los Estados miembros y las nuevas tecnologías, como la prevalencia de la elaboración de perfiles y la adopción de decisiones algorítmicas que abarcan todos los ámbitos de la vida, así como a garantizar la claridad jurídica y el respeto de los derechos fundamentales, en particular la libertad de expresión y el derecho a la intimidad, con visión de futuro, dado el rápido desarrollo de la tecnología;

18.

Celebra el compromiso de la Comisión de introducir un enfoque armonizado en el que se aborden las obligaciones impuestas a los proveedores de servicios digitales, incluidos los intermediarios en línea, con el fin de evitar la fragmentación del mercado interior y una aplicación incoherente de la normativa; pide a la Comisión que proponga las soluciones más eficientes y eficaces para el conjunto del mercado interior, evitando al mismo tiempo nuevas cargas administrativas innecesarias y manteniendo el mercado único digital abierto, justo, seguro y competitivo para todos sus participantes; destaca que el régimen de responsabilidad de los proveedores de servicios digitales debe ser proporcionado, no debe perjudicar a los pequeños y medianos proveedores y no debe limitar de forma injustificada la innovación y el acceso a la información;

19.

Considera que la reforma debe fundamentarse en la sólida base y el pleno cumplimiento de la legislación vigente de la Unión, en particular el Reglamento general de protección de datos y la Directiva sobre la privacidad y las comunicaciones electrónicas, actualmente en proceso de revisión, así como en el respeto de la prevalencia de otros instrumentos específicos del sector, como la Directiva de servicios de comunicación audiovisual; subraya que la modernización de las normas sobre comercio electrónico puede afectar a los derechos fundamentales; insta, por lo tanto, a la Comisión a que siga con suma atención su enfoque y a que integre las normas internacionales de derechos humanos en su revisión;

20.

Destaca que la capacidad práctica de los usuarios individuales para comprender los complejos ecosistemas de datos y navegar por ellos es extremadamente limitada, al igual que su capacidad para determinar si la información que reciben y los servicios que utilizan se ponen a su disposición en las mismas condiciones que para otros usuarios; pide, por lo tanto, a la Comisión que sitúe la transparencia y la no discriminación en el centro de la Ley de servicios digitales;

21.

Insiste en que la Ley de servicios digitales debe tener por objeto garantizar un alto nivel de transparencia en lo que respecta al funcionamiento de los servicios en línea y un entorno digital libre de discriminación; destaca que, aparte del sólido marco regulador existente que protege la privacidad y los datos personales, es necesario que las plataformas en línea estén obligadas a garantizar el uso legítimo de algoritmos; pide, por tanto, a la Comisión que desarrolle un régimen basado en la Directiva sobre el comercio electrónico que defina claramente la responsabilidad de los proveedores de servicios de hacer frente a los riesgos a los que se enfrentan sus usuarios y proteger sus derechos, y que prevea una obligación de transparencia y explicabilidad de los algoritmos, sanciones para hacer cumplir dichas obligaciones, la posibilidad de intervención humana y otras medidas como auditorías independientes anuales y pruebas de resistencia específicas para contribuir al cumplimiento y garantizarlo;

22.

Hace hincapié en que algunos proveedores de servicios digitales deben ser capaces de identificar a los usuarios de forma inequívoca, de manera equivalente a los servicios fuera de línea; observa una recopilación innecesaria de datos personales, como los números de teléfono móvil, por parte de las plataformas en línea en el momento de registrarse para utilizar un servicio, a menudo debida al uso de opciones de registro único; subraya que el RGPD describe claramente el principio de minimización de los datos, que limita los datos recopilados a lo estrictamente necesario para el fin; recomienda que se exija a las plataformas en línea que apoyan un servicio de registro único con una cuota de mercado dominante que apoyen también al menos un sistema de identidad abierto basado en un marco genérico, descentralizado e interoperable;

23.

Subraya que, para los casos en que sea necesario un determinado tipo de identificación oficial fuera de línea, ha de crearse un sistema de identificación electrónica equivalente seguro en línea; cree que la identificación en línea puede mejorarse aplicando la interoperabilidad transfronteriza de las identificaciones electrónicas del Reglamento eIDAS en toda la Unión; pide a la Comisión que estudie la posibilidad de crear un sistema único de registro en la Unión, como alternativa a los sistemas privados de registro único, y que introduzca la obligación para los servicios digitales de ofrecer siempre también una opción de registro manual, establecida por defecto; subraya que este servicio debe desarrollarse de manera que la recogida de datos de registro identificables por el proveedor de servicios de registro sea técnicamente imposible y los datos recogidos se limiten al mínimo absoluto; recomienda, por tanto, a la Comisión que estudie la posibilidad de crear un sistema de verificación para los usuarios de los servicios digitales, a fin de garantizar la protección de los datos personales y la verificación de la edad, especialmente en el caso de los menores, que no debe utilizarse para fines comerciales ni para el seguimiento de los usuarios en sitios cruzados; subraya que estos sistemas de registro y verificación solo deben aplicarse a los servicios digitales que requieran identificación personal, autenticación o verificación de la edad; recuerda que los Estados miembros y las instituciones de la Unión deben garantizar que las identificaciones electrónicas sean seguras y transparentes, que traten únicamente los datos necesarios para la identificación del usuario y que se utilicen únicamente para un fin legítimo y no con fines comerciales, ni para restringir el acceso general a internet o para el seguimiento de los usuarios en sitios cruzados;

24.

Considera indispensable que se lleve a cabo una plena armonización y aclaración de las normas sobre responsabilidad a escala de la Unión para garantizar el respeto de los derechos fundamentales y las libertades de los usuarios en el conjunto de la Unión; opina que esas normas deben mantener las exenciones de responsabilidad para los intermediarios que no tengan un conocimiento real de la actividad o la información ilícita en sus plataformas; expresa su preocupación por el hecho de que las recientes leyes nacionales destinadas a combatir la incitación al odio y la desinformación conduzcan a una creciente fragmentación normativa y a un menor nivel de protección de los derechos fundamentales en la Unión;

25.

Pide, a tal efecto, propuestas legislativas que mantengan el mercado único digital abierto y competitivo proporcionando requisitos armonizados con el objetivo de que los proveedores de servicios digitales apliquen garantías procesales y procedimientos eficaces, coherentes, transparentes y justos para abordar los contenidos ilícitos en consonancia con el Derecho nacional y europeo, en particular mediante un procedimiento armonizado de notificación y acción;

26.

Considera, en este sentido, que es fundamental proporcionar a las plataformas en línea normas, requisitos y salvaguardias claros con respecto a la responsabilidad por contenidos de terceros; propone el establecimiento de un marco regulador común a fin de identificar y retirar con eficacia los contenidos ilícitos;

27.

Destaca que las normas sobre los mecanismos de notificación y acción deben complementarse con requisitos para que las plataformas adopten medidas específicas que sean proporcionadas a su alcance y capacidad técnica y operativa para hacer frente eficazmente a la aparición de contenidos ilícitos en sus servicios; reconoce, por tanto, que, cuando sea tecnológicamente viable, sobre la base de órdenes suficientemente justificadas de autoridades públicas competentes independientes y teniendo plenamente en cuenta el contexto específico del contenido, se pueda requerir a los proveedores de servicios digitales que realicen búsquedas periódicas de distintos contenidos que un tribunal ya haya declarado ilegales, a condición de que el seguimiento y la búsqueda de la información a que se refiera dicho requerimiento se limiten a información que transmita un mensaje cuyo contenido se mantenga esencialmente inalterado en comparación con el contenido que haya dado lugar a la declaración de ilegalidad y que contenga los elementos especificados en el requerimiento, que, en consonancia con la sentencia del Tribunal de Justicia de 3 de octubre de 2019 en el asunto C-18/183 (8), sean idénticos o equivalentes en la medida en que no exijan al proveedor de servicios de alojamiento llevar a cabo una evaluación independiente de dicho contenido;

28.

Sostiene que la elección de las medidas concretas debe dejarse en manos de las plataformas; apoya un enfoque equilibrado basado en un diálogo con las partes interesadas y en una evaluación de los riesgos asumidos por las plataformas, así como una clara cadena de responsabilidades para evitar cargas reglamentarias innecesarias para las plataformas y restricciones innecesarias y desproporcionadas de los derechos fundamentales, en particular de la libertad de expresión, el acceso a la información, también sobre ideas políticas, y el derecho a la intimidad; destaca que en la legislación sectorial pueden especificarse en mayor medida algunas obligaciones; hace hincapié en que cualquier medida que se adopte con este fin no puede constituir, de iure o de facto, un requisito de seguimiento general;

29.

Destaca la necesidad de establecer salvaguardias y garantías procesales adecuadas, incluido el requisito de supervisión y verificación humanas, además de los procedimientos de contranotificación, a fin de permitir a quienes poseen y cargan contenidos defender adecuadamente y en tiempo oportuno sus derechos, y para garantizar que las decisiones de retirada o bloqueo sean legales, precisas, estén bien fundamentadas, protejan a los usuarios y respeten los derechos fundamentales; recalca que debe sancionarse a las personas que de forma sistemática y reiterada presenten notificaciones engañosas o abusivas; recuerda que, además de los procedimientos de contranotificación y la resolución extrajudicial de litigios por parte de las plataformas, de conformidad con el sistema de reclamaciones interno, debe seguir existiendo la posibilidad de recurso judicial efectivo para satisfacer el derecho a un resarcimiento efectivo;

30.

Respalda la preservación del marco actual sobre responsabilidad limitada en relación con los contenidos y el principio del país de origen, pero considera esencial que mejore la coordinación entre las autoridades nacionales competentes respecto a las solicitudes de retirada; subraya que el contenido ilícito debe eliminarse donde está alojado; hace hincapié en que este tipo de solicitudes debe estar sujeto a garantías jurídicas para impedir los abusos y garantizar el pleno respeto de los derechos fundamentales; destaca que las solicitudes de retirada de las autoridades competentes deben ser específicas y exponer claramente su base jurídica; subraya que debe aplicarse un mecanismo eficaz de supervisión y ejecución, incluidas sanciones proporcionadas que tengan en cuenta las capacidades técnicas y operativas, a los proveedores de servicios que incumplan las órdenes legales;

31.

Recuerda que no debe exigirse legalmente a los proveedores de servicios digitales que conserven los datos personales de sus usuarios o abonados con fines coercitivos, a menos que una autoridad competente independiente ordene una conservación selectiva respetando plenamente el Derecho de la Unión y la jurisprudencia del TJUE; recuerda, además, que dicha conservación de datos debe limitarse a lo estrictamente necesario con respecto a las categorías de datos que deben conservarse, los medios de comunicación afectados, las personas afectadas y el período de conservación adoptado;

32.

Considera que, a fin de proteger los derechos fundamentales, la Ley de servicios digitales debe introducir normas destinadas a garantizar que las condiciones de servicio de los proveedores de servicios digitales sean claras, transparentes y justas, y se pongan a disposición de los usuarios de forma sencilla y accesible; lamenta que las condiciones de servicio de algunas plataformas de contenidos obliguen a los agentes de los cuerpos y fuerzas de seguridad a emplear cuentas personales para investigar ciertas denuncias, lo cual supone una amenaza tanto para las investigaciones como para la seguridad personal, y pide una coordinación más eficiente entre los Estados miembros por lo que respecta al seguimiento de la aplicación de la ley en materia de contenidos ilícitos señalados; recuerda que las órdenes de retirada por parte de autoridades competentes independientes tienen que basarse siempre en la ley y no en las condiciones de servicio de los proveedores de servicios;

33.

Pide a la Comisión que vele por que los usuarios tengan acceso a contenidos en línea diversos y de calidad como medio para garantizar que los ciudadanos estén adecuadamente informados; espera que la Ley de servicios digitales garantice que los contenidos mediáticos de calidad sean de fácil acceso y se encuentren fácilmente en plataformas de terceros y que la retirada de contenidos se ajuste a las normas de derechos humanos y se limite a los contenidos que sean manifiestamente ilícitos o que una autoridad competente independiente haya considerado como tal; subraya que los contenidos legales no deben estar sujetos a ninguna obligación legal de retirada o bloqueo;

34.

Apoya un mayor diálogo entre los Estados miembros, las autoridades competentes y las partes interesadas pertinentes con el objetivo de desarrollar, evaluar y mejorar los enfoques de Derecho indicativo, como el Código de Buenas Prácticas en materia de Desinformación para la Unión, a fin de seguir abordando las categorías de contenidos legales, incluida la desinformación; espera que la Comisión publique directrices que incluyan normas reforzadas en materia de transparencia respecto a la moderación de los contenidos y a la política de publicidad en un instrumento específico que acompañe a la Ley de servicios digitales para garantizar que la retirada y el bloqueo de contenidos legales sobre la base de términos y condiciones se limiten al mínimo absoluto; pide además a la Comisión que establezca un marco que prohíba que las plataformas ejerzan un segundo nivel de control sobre los contenidos que se proporcionan bajo la responsabilidad de un proveedor de servicios de comunicación y que están sujetos a unas normas y a una supervisión específicas;

35.

Hace hincapié, además, en que debe ofrecerse a los usuarios más posibilidades de elección y control con respecto a los contenidos que ven, incluidas más opciones sobre la manera en que se clasifica el contenido para ellos y la posibilidad de renunciar a cualquier forma de curación de contenidos; cree firmemente que el diseño y el rendimiento de los sistemas de recomendación deben garantizar la facilidad de uso y la plena transparencia;

36.

Considera que la rendición de cuentas, tanto en el sector público como en el privado, y la elaboración de políticas con una base empírica requieren datos sólidos sobre la prevalencia de la actividad ilegal y la lucha contra ella y la retirada de contenidos ilícitos en línea, así como sobre los algoritmos de curación de contenidos de las plataformas en línea;

37.

Pide, en este sentido, que se establezca para las plataformas la obligación de informar de manera anual, exhaustiva, sistemática y proporcional a su alcance y a sus capacidades operativas, más concretamente sobre sus procedimientos de moderación de contenidos, incluyendo información sobre las medidas adoptadas contra las actividades ilícitas en línea y datos normalizados sobre la cantidad de contenido retirado y las razones y bases subyacentes, el tipo y la justificación de las solicitudes de retirada recibidas, el número de solicitudes cuya ejecución se haya denegado y sus razones; destaca que estos informes, referentes a las medidas adoptadas durante un año determinado, deben presentarse antes del fin del primer trimestre del año siguiente;

38.

Pide, asimismo, que se establezca para las autoridades nacionales la obligación de presentar informes, con carácter público y anual, que incluyan la facilitación de datos normalizados sobre el número de solicitudes de retirada y sus fundamentos jurídicos, el número de solicitudes de retirada que hayan sido objeto de recursos administrativos o judiciales, el resultado de esos procedimientos, con mención de los casos en que los contenidos o las actividades hayan sido considerados erróneamente ilícitos, y el número total de decisiones por las que se impusieron sanciones, incluida una descripción del tipo de sanción impuesta;

39.

Expresa su preocupación por la fragmentación y la documentada falta de recursos financieros y humanos de los organismos de supervisión y vigilancia; pide una mayor cooperación entre los Estados miembros en materia de vigilancia reglamentaria de los servicios digitales;

40.

Considera que, para garantizar la correcta aplicación de la Ley de servicios digitales, debe armonizarse en el mercado único digital la supervisión del cumplimiento de los procedimientos, las garantías procesales y las obligaciones de transparencia establecidas en dicho acto; apoya, en este sentido, una aplicación estricta y rigurosa por parte de una estructura de supervisión independiente de la Unión que tenga competencias para imponer sanciones sobre la base de una evaluación de un conjunto de factores claramente definido, como la proporcionalidad, las medidas técnicas y organizativas y la negligencia; cree que debería incluirse la posibilidad de que las sanciones se basen en un porcentaje del volumen de negocios global anual de la empresa;

41.

Destaca que las auditorías de las políticas y algoritmos internos de los proveedores de servicios digitales deben realizarse teniendo debidamente en cuenta el Derecho de la Unión, en particular los derechos fundamentales de los usuarios de los servicios, habida cuenta de la importancia de la no discriminación y la libertad de expresión e información en una sociedad abierta y democrática, y sin publicar datos comerciales sensibles; insiste en la necesidad de evaluar, a partir de una denuncia o por iniciativa de los organismos de supervisión, si los proveedores de servicios digitales difunden los contenidos y de qué manera, por ejemplo, mediante motores de recomendación y funciones de optimización, como el autocompletado y las tendencias de búsqueda;

42.

Considera que los informes de transparencia elaborados por las plataformas y las autoridades nacionales competentes deben ponerse a disposición del público y analizarse en relación con las tendencias estructurales en materia de eliminación, detección y bloqueo de contenidos a escala de la Unión;

43.

Subraya la importancia de facultar a los usuarios para que ejerzan sus derechos fundamentales en línea, por ejemplo mediante procedimientos de denuncia fácilmente accesibles, imparciales, transparentes, eficientes y gratuitos, mecanismos de denuncia de contenidos ilícitos y conductas delictivas de personas y empresas, recursos legales, medidas educativas y sensibilización sobre cuestiones relacionadas con la protección de datos y la seguridad en línea de los menores;

44.

Cree que la experiencia ha demostrado la eficacia de permitir que florezcan modelos de negocio innovadores y de reforzar el mercado único digital mediante la eliminación de los obstáculos a la libre circulación de los servicios digitales y la prevención de nuevas barreras nacionales injustificadas, y que el mantenimiento de este enfoque reduciría la fragmentación del mercado interior; considera, además, que la Ley de servicios digitales puede ofrecer oportunidades para desarrollar los conocimientos y competencias de los ciudadanos en el ámbito de la digitalización y, al mismo tiempo, garantizar un elevado nivel de protección de los consumidores, salvaguardando la seguridad en línea;

45.

Hace hincapié en que las normas de seguridad en el ciberespacio acordadas son indispensables a fin de que los ciudadanos puedan aprovechar plenamente todas las ventajas de los servicios digitales; señala, por tanto, la urgente necesidad de que los Estados miembros adopten medidas coordinadas para garantizar la ciberhigiene básica y prevenir los peligros que se pueden evitar en el ciberespacio, incluso mediante medidas legislativas;

46.

Encarga a su presidente que transmita la presente Resolución al Consejo y a la Comisión.

—————————————-

(1)  DO L 178 de 17.7.2000, p. 1.

(2)  DO L 119 de 4.5.2016, p. 1.

(3)  DO L 201 de 31.7.2002, p. 37.

(4)  DO L 303 de 28.11.2018, p. 69.

(5)  DO L 130 de 17.5.2019, p. 92.

(6)  DO L 63 de 6.3.2018, p. 50.

(7)  Reglamento (UE) nº 910/2014 del Parlamento Europeo y del Consejo de 23 de julio de 2014 relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE (DO L 257 de 28.8.2014, p. 73).

(8)  Sentencia del Tribunal de Justicia, de 3 de octubre de 2019, Eva Glawischnig-Piesczek contra Facebook Ireland Limited, C-18/18, ECLI:EU:C:2019:821.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.