Archivos de la etiqueta: Derecho Informático Parlamento Europeo

01Mar/22

Directiva (UE) 2022/211 del Parlamento Europeo y del Consejo de 16 de febrero de 2022

Directiva (UE) 2022/211 del Parlamento Europeo y del Consejo de 16 de febrero de 2022, por la que se modifica la Decisión Marco 2002/465/JAI del Consejo en lo que respecta a su aproximación a las normas de la Unión sobre protección de datos de carácter personal.

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, y en particular su artículo 16, apartado 2,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

De conformidad con el procedimiento legislativo ordinario (1),

Considerando lo siguiente:

(1) De conformidad con el artículo 62, apartado 6, de la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo (2), la Comisión debe revisar actos jurídicos adoptados por la Unión, distintos de dicha Directiva, que regulen el tratamiento de datos personales por parte de las autoridades competentes a los efectos expuestos en su artículo 1, apartado 1. Tal revisión tiene como finalidad evaluar la necesidad de aproximar dichos actos jurídicos a dicha Directiva y presentar, en su caso, las propuestas necesarias para modificarlos al objeto de garantizar un enfoque coherente de la protección de datos personales en el ámbito de aplicación de dicha Directiva. Como resultado de dicha revisión, se ha comprobado que la Decisión Marco 2002/465/JAI del Consejo (3) es uno de los actos jurídicos que deben modificarse.

(2) El tratamiento de datos personales en virtud de la Decisión Marco 2002/465/JAI implica el tratamiento, intercambio y utilización ulterior de la información pertinente para los fines establecidos en el artículo 82 del Tratado de Funcionamiento de la Unión Europea (TFUE). En aras de la coherencia y la protección efectiva de los datos personales, el tratamiento de datos personales en virtud de la Decisión Marco 2002/465/JAI debe cumplir con la Directiva (UE) 2016/680. El tratamiento de los datos personales contenidos en la información obtenida lícitamente por un equipo conjunto de investigación para fines distintos de aquellos para los que se creó el equipo, como procesos penales ulteriores, o procedimientos administrativos o civiles o el control parlamentario conexos, únicamente debe permitirse si es conforme con las condiciones establecidas en la Directiva (UE) 2016/680. Tal tratamiento de datos personales únicamente debe llevarse a cabo de conformidad con las condiciones establecidas en la Directiva (UE) 2016/680, lo que incluye que se lleve a cabo de conformidad con el Derecho de la Unión o del Estado miembro, y debe ser necesario y proporcionado para su fin.

(3) De conformidad con el artículo 6 bis del Protocolo nº 21 sobre la posición del Reino Unido y de Irlanda respecto del espacio de libertad, seguridad y justicia, anejo al Tratado de la Unión Europea (TUE) y al TFUE, Irlanda está vinculada por la Decisión Marco 2002/465/JAI y, por lo tanto, participa en la adopción de la presente Directiva.

 (4) De conformidad con los artículos 1, 2 y 2 bis del Protocolo nº 22 sobre la posición de Dinamarca, anejo al TUE y al TFUE, Dinamarca no participa en la adopción de la presente Directiva y no queda vinculada por ella ni sujeta a su aplicación.

(5) El Supervisor Europeo de Protección de Datos, al que se consultó de conformidad con el artículo 42, apartado 1, del Reglamento (UE) 2018/1725 del Parlamento Europeo y del Consejo (4), emitió su dictamen el 10 de marzo de 2021.

(6) Procede, por tanto, modificar la Decisión Marco 2002/465/JAI en consecuencia.

HAN ADOPTADO LA PRESENTE DIRECTIVA:

Artículo 1.- Modificación de la Decisión Marco 2002/465/JAI

En el artículo 1, apartado 10, de la Decisión Marco 2002/465/JAI, se añade el párrafo siguiente:

«En la medida en que la información utilizada para los fines mencionados en el párrafo primero, letras b), c) y d), incluya datos personales, solo se tratará de conformidad con la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, y en particular su artículo 4, apartado 2, y su artículo 9, apartados 1 y 3.

Artículo 2.- Transposición

1.   Los Estados miembros pondrán en vigor las disposiciones legales, reglamentarias y administrativas necesarias para dar cumplimiento a lo establecido en la presente Directiva a más tardar el 11 de marzo de 2023. Informarán de ello inmediatamente a la Comisión.

Cuando los Estados miembros adopten dichas disposiciones, estas incluirán una referencia a la presente Directiva o irán acompañadas de dicha referencia en su publicación oficial. Los Estados miembros establecerán las modalidades de la mencionada referencia.

2.   Los Estados miembros comunicarán a la Comisión el texto de las disposiciones de Derecho interno que adopten en el ámbito regulado por la presente Directiva.

Artículo 3.- Entrada en vigor

La presente Directiva entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Artículo 4.- Destinatarios

Los destinatarios de la presente Directiva son los Estados miembros de conformidad con los Tratados.

Hecho en Estrasburgo, el 16 de febrero de 2022.

Por el Parlamento Europeo

El Presidenta, R. METSOLA

Por el Consejo

El Presidente, C. BEAUNE

————————

(1)  Posición del Parlamento Europeo de 14 de diciembre de 2021 (pendiente de publicación en el Diario Oficial) y Decisión del Consejo de 25 de enero de 2022.

(2)  Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo (DO L 119 de 4.5.2016, p. 89).

(3)  Decisión Marco 2002/465/JAI del Consejo, de 13 de junio de 2002, sobre equipos conjuntos de investigación (DO L 162 de 20.6.2002, p. 1).

(4)  Reglamento (UE) 2018/1725 del Parlamento Europeo y del Consejo, de 23 de octubre de 2018, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por las instituciones, órganos y organismos de la Unión, y a la libre circulación de esos datos, y por el que se derogan el Reglamento (CE) nº 45/2001 y la Decisión nº 1247/2002/CE (DO L 295 de 21.11.2018, p. 39).

27Feb/22

Resolución del Parlamento Europeo, de 20 de octubre de 2020

Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre la Ley de servicios digitales y cuestiones relacionadas con los derechos fundamentales [2020/2022(INI)].

El Parlamento Europeo,

– Visto el Tratado de la Unión Europea (TUE), y en particular su artículo 2,

– Visto el Tratado de Funcionamiento de la Unión Europea (TFUE), y en particular su artículo 16 y su artículo 114,

– Vista la Carta de los Derechos Fundamentales de la Unión Europea, y en particular su artículo 6, su artículo 7, su artículo 8, su artículo 11, su artículo 13, su artículo 21, su artículo 22, su artículo 23, su artículo 24, su artículo 26, su artículo 38 y su artículo 47,

– Vista la Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico) (1),

– Visto el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE [Reglamento general de protección de datos (RGPD)] (2),

– Vista la Directiva 2002/58/CE del Parlamento Europeo y del Consejo, de 12 de julio de 2002, relativa al tratamiento de los datos personales y a la protección de la intimidad en el sector de las comunicaciones electrónicas (Directiva sobre la privacidad y las comunicaciones electrónicas) (3),

– Vista la Directiva (UE) 2018/1808 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018, por la que se modifica la Directiva 2010/13/UE sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados miembros relativas a la prestación de servicios de comunicación audiovisual (Directiva de servicios de comunicación audiovisual), habida cuenta de la evolución de las realidades del mercado (4),

– Vista la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las Directivas 96/9/CE y 2001/29/CE (5) (Directiva sobre los derechos de autor),

– Vista la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018, sobre las medidas para luchar eficazmente contra los contenidos ilícitos en línea (6),

– Vista la Evaluación de la amenaza de la delincuencia organizada en Internet (IOCTA) elaborada por Europol el 18 de septiembre de 2018,

– Vista la jurisprudencia del Tribunal de Justicia de la Unión Europea,

– Visto el artículo 54 de su Reglamento interno,

– Vistas las opiniones de la Comisión de Mercado Interior y Protección del Consumidor y de la Comisión de Cultura y Educación,

– Visto el informe de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior (A9-0172/2020),

A.

Considerando que, para que la política europea sobre los servicios digitales sea duradera y acertada, los derechos fundamentales, como la protección de la intimidad y los datos personales, el principio de no discriminación y la libertad de expresión e información, deben ser parte central de la política; que estos derechos deben verse reflejados tanto en la forma como en el fondo de su aplicación;

B.

Considerando que los tipos de servicios digitales y las funciones de los proveedores de servicios digitales han cambiado radicalmente desde la adopción de la Directiva sobre el comercio electrónico hace veinte años;

C.

Considerando que solo podemos ganarnos la confianza de los usuarios con unos servicios digitales que respeten sus derechos fundamentales, lo cual no solo garantizaría la aceptación de los servicios, sino que también ofrecería una ventaja competitiva y modelos de negocio estables para las empresas;

D.

Considerando que las normas de protección de datos aplicables a todos los proveedores que ofrecen servicios digitales en el territorio de la Unión se han actualizado y armonizado recientemente en el conjunto de la Unión con el Reglamento general de protección de datos; que las normas sobre la privacidad y las comunicaciones electrónicas, que son un subconjunto de los servicios digitales, están cubiertas por la Directiva sobre la privacidad y las comunicaciones electrónicas y están siendo revisadas actualmente;

E.

Considerando que la cantidad de todos los tipos de contenidos generados por los usuarios y compartidos, así como de servicios prestados a través de plataformas en línea, incluidos los servicios en la nube, ha aumentado exponencialmente y a un ritmo sin precedentes gracias a las tecnologías avanzadas; que lo anterior incluye contenidos ilícitos, como imágenes de pornografía infantil en línea, y contenidos legales, pero que pueden ser perjudiciales para la sociedad y la democracia, como la desinformación sobre los remedios contra la COVID-19;

F.

Considerando que la incitación al odio y la desinformación en línea se han extendido cada vez más en los últimos años a medida que los individuos y los agentes perturbadores utilizan las plataformas en línea para acentuar la polarización, que, a su vez, se emplea con fines políticos; que las mujeres, las personas de color, las personas que pertenecen o se considera que pertenecen a minorías étnicas o lingüísticas y las personas LGBTIQ suelen ser el blanco de los discursos discriminatorios de incitación al odio, la intimidación, las amenazas y la búsqueda de culpables en línea;

G.

Considerando que han contribuido a esta tendencia plataformas en línea cuyo modelo de negocio se basa en la recopilación y el análisis de datos de los usuarios con vistas a generar más tráfico y «clics» y, a su vez, más datos de elaboración de perfiles y, por tanto, más beneficios; que ello conduce a la amplificación del contenido sensacionalista; que la incitación al odio y la desinformación perjudican al interés público colectivo, al socavar el discurso público respetuoso y honesto, y amenazan la seguridad pública, ya que pueden incitar a la violencia en el mundo real; que la lucha contra estos contenidos es fundamental para garantizar el respeto de los derechos fundamentales y defender el Estado de Derecho y la democracia en la Unión;

H.

Considerando que las redes sociales y otras plataformas de distribución de contenidos utilizan técnicas de elaboración de perfiles para orientar y distribuir su contenido, así como los anuncios publicitarios; que los datos recopilados a partir de los rastros digitales de las personas pueden explotarse de manera que permitan deducir información personal muy íntima con un nivel de precisión muy elevado, especialmente cuando dichos datos se fusionan con otros conjuntos de datos; que los escándalos de Cambridge Analytica y Facebook demostraron los riesgos asociados con las operaciones opacas de tratamiento de datos de las plataformas en línea al revelar que se había microdirigido publicidad política y, a veces, incluso desinformación a determinados votantes;

I.

Considerando que los algoritmos automatizados que deciden cómo gestionar, priorizar, distribuir y eliminar contenidos de terceros en plataformas en línea, en particular durante las campañas políticas y electorales, suelen reproducir las pautas discriminatorias existentes en la sociedad, lo que conlleva un elevado riesgo de discriminación para las personas ya afectadas; que el uso generalizado de algoritmos para la eliminación o el bloqueo de contenidos también plantea problemas en relación con el Estado de Derecho y cuestiones relacionadas con la legalidad, la legitimidad y la proporcionalidad;

J.

Considerando que un pequeño número de proveedores de servicios, en su mayoría no europeos, tiene un peso significativo en el mercado e influye en los derechos y libertades de las personas, nuestras sociedades y democracias, al controlar la presentación de información, servicios y productos, por lo que tiene una repercusión significativa en el funcionamiento de los Estados miembros y en sus ciudadanos; que las decisiones de estas plataformas pueden tener consecuencias de gran calado para la libertad de expresión e información y para la libertad y el pluralismo de los medios de comunicación;

K.

Considerando que el enfoque político para combatir los contenidos ilícitos en línea en la Unión se ha centrado hasta ahora principalmente en la cooperación voluntaria y en la eliminación de contenidos por orden judicial, pero que un número cada vez mayor de Estados miembros está adoptando más leyes a escala nacional para hacer frente a los contenidos ilícitos de una manera disonante; que en la reciente legislación sectorial a escala de la Unión se han incluido disposiciones para hacer frente a determinados tipos de contenidos ilícitos;

L.

Considerando que un planteamiento puramente autorregulador en relación con las plataformas no proporciona un nivel adecuado de transparencia, rendición de cuentas y supervisión; que este planteamiento tampoco proporciona información adecuada a las autoridades públicas, a la sociedad civil y a los usuarios sobre la manera en que las plataformas abordan los contenidos ilícitos y las actividades y contenidos que violan sus términos y condiciones, ni sobre cómo tratan los contenidos en general;

M.

Considerando que este tipo de planteamiento puede no garantizar el respeto de los derechos fundamentales y crear una situación en la que las responsabilidades judiciales se transfieran parcialmente a particulares, lo que supone un riesgo de injerencia en el derecho a la libertad de expresión;

N.

Considerando que en la Unión cada sector tiene una vigilancia y una supervisión reglamentarias específicas; que sería beneficioso que hubiera una coordinación mayor y más amplia entre los distintos organismos de supervisión de toda la Unión;

O.

Considerando que la falta de datos públicos sólidos y comparables sobre la prevalencia de los contenidos ilícitos y nocivos en línea, sobre las notificaciones y la eliminación de tales contenidos por mandato judicial y por autorregulación, así como sobre el seguimiento por parte de las autoridades competentes, genera un déficit de transparencia y rendición de cuentas, tanto en el sector público como en el privado; que se observa una falta de información sobre los algoritmos utilizados por las plataformas y los sitios web y la forma en que las plataformas abordan la retirada errónea de contenidos;

P.

Considerando que la explotación sexual en línea de menores es uno de los tipos de contenidos ilícitos que se ve facilitado por los avances tecnológicos; que la gran cantidad de pornografía infantil que circula en línea plantea graves desafíos para su detección, su investigación y, sobre todo, para las labores de identificación de las víctimas; que, según Europol, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), con sede en los Estados Unidos, registró el año pasado un aumento del 106 % de las denuncias de intercambio en línea de contenidos de pornografía infantil;

Q.

Considerando que, según la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE), la eliminación de contenidos debe realizarse a raíz de una orden judicial de un Estado miembro; que los proveedores de alojamiento de datos pueden recurrir a herramientas y tecnologías de búsqueda automatizadas para detectar y eliminar contenidos equivalentes a otros declarados ilícitos previamente, pero no han de estar obligados a realizar una supervisión general de la información que almacenan ni a buscar activamente hechos o circunstancias que indiquen actividades ilícitas, como se establece en el artículo 15, apartado 1, de la Directiva 2000/31/CE;

R.

Considerando que una identificación electrónica fiable es elemental para garantizar el acceso seguro a los servicios digitales y para realizar transacciones electrónicas de forma más segura; que, en la actualidad, solo quince Estados miembros han notificado a la Comisión su sistema de identidad electrónica para el reconocimiento transfronterizo en el marco del Reglamento (UE) nº 910/2014 (7) (Reglamento eIDAS);

S.

Considerando que internet y las plataformas de internet siguen siendo un lugar estratégico para las actividades de grupos terroristas y se utilizan como instrumento de diseminación de propaganda, captación y promoción de sus actividades;

1.

Cree en los beneficios económicos y sociales evidentes de un mercado único digital operativo para la Unión y sus Estados miembros; acoge con satisfacción estos beneficios, en particular la mejora del acceso a la información y el refuerzo de la libertad de expresión; destaca la importante obligación de garantizar un ecosistema digital justo en el que se respeten los derechos fundamentales consagrados en los Tratados y en la Carta de los Derechos Fundamentales de la Unión Europea, en particular la libertad de expresión y de información, la no discriminación, la libertad y el pluralismo de los medios de comunicación y la protección de la intimidad y de los datos personales, y se garantice la seguridad de los usuarios en línea; hace hincapié en que las intervenciones legislativas y otras intervenciones reguladoras en el mercado único digital destinadas a garantizar el cumplimiento de esta obligación deben limitarse estrictamente a lo necesario; recuerda que los mecanismos de eliminación de contenidos que se utilizan sin las garantías de un proceso debido contravienen el artículo 10 del Convenio Europeo de Derechos Humanos;

2.

Insta a la Comisión a que adopte un enfoque regulador adaptado para abordar las diferencias que persisten entre los mundos en línea y fuera de línea, así como los desafíos que plantea la diversidad de actores y de servicios ofrecidos en línea; considera esencial, en este sentido, aplicar distintos enfoques reguladores respecto al contenido ilícito y al contenido legal; subraya que los contenidos ilícitos en línea y los delitos facilitados por el ciberespacio deben abordarse con el mismo rigor, sobre la base de los mismos principios jurídicos que los aplicados a los contenidos ilícitos y el comportamiento delictivo fuera de línea, y con las mismas garantías para los ciudadanos; recuerda que la Directiva sobre el comercio electrónico es el marco jurídico para los servicios en línea en el mercado interior que regula la gestión de contenidos;

3.

Estima necesario que se retiren los contenidos ilícitos de forma rápida y sistemática para hacer frente a la delincuencia y a las violaciones de los derechos fundamentales; considera que los códigos de conducta voluntarios abordan este problema solo de manera parcial;

4.

Pide a los proveedores de servicios digitales que retiren los contenidos de la red de manera diligente, proporcionada y no discriminatoria y teniendo debidamente en cuenta en todas las circunstancias los derechos fundamentales de los usuarios y la importancia fundamental de la libertad de expresión e información en una sociedad abierta y democrática con el fin de evitar la eliminación de contenidos que no sean ilegales; pide a los proveedores de servicios digitales que, por iniciativa propia, deseen restringir determinado contenido legal de sus usuarios, que estudien la posibilidad de etiquetar ese contenido en lugar de retirarlo de la red, dando así a los usuarios la oportunidad de acceder a él bajo su responsabilidad;

5.

Considera que todas las medidas de retirada de contenidos legalmente impuestas en la Ley de servicios digitales deben referirse únicamente a los contenidos ilícitos, con arreglo a su definición en el Derecho nacional y de la Unión, y que la legislación no debe incluir conceptos y términos indefinidos, ya que ello crearía inseguridad jurídica para las plataformas en línea y pondría en peligro los derechos fundamentales y la libertad de expresión;

6.

Reconoce, no obstante, que el ecosistema digital actual también fomenta comportamientos problemáticos, como la microsegmentación basada en características que exponen vulnerabilidades físicas o psicológicas, la propagación de la incitación al odio, los contenidos racistas y la desinformación, cuestiones emergentes como el abuso organizado de múltiples plataformas y la creación de cuentas o la manipulación de contenidos en línea mediante algoritmos; observa con preocupación que algunos modelos de negocio se basan en mostrar contenido sensacionalista y polarizador a los usuarios con el fin de aumentar su tiempo de visualización y, por ende, los beneficios de las plataformas en línea; subraya los efectos negativos de estos modelos de negocio en los derechos fundamentales de las personas y en la sociedad en su conjunto; pide transparencia en las políticas de monetización de las plataformas en línea;

7.

Hace hincapié, por tanto, en que debe frenarse la difusión de dichos contenidos nocivos; cree firmemente que la alfabetización mediática, el control por parte de los usuarios de los contenidos que se les proponen y el acceso público a contenidos y educación de alta calidad son cruciales a este respecto; acoge con satisfacción, por tanto, la iniciativa de la Comisión de crear un Observatorio Europeo de los Medios Digitales para apoyar a los servicios independientes de verificación de datos, mejorar el conocimiento público sobre la desinformación en línea y ayudar a las autoridades públicas encargadas de supervisar a los medios digitales;

8.

Pide a la Comisión y a los Estados miembros que apoyen a los medios de comunicación independientes y de servicio público, así como las iniciativas educativas sobre alfabetización mediática y las campañas de sensibilización específicas en el seno de la sociedad civil; señala que debe prestarse especial atención a los contenidos nocivos en el contexto de los menores que utilizan internet, especialmente en lo que respecta a su exposición al ciberacoso, el acoso sexual, la pornografía, la violencia o las autolesiones;

9.

Observa que, dado que las actividades en línea de una persona permiten conocer a fondo su personalidad y hacen posible su manipulación, la recopilación general e indiscriminada de datos personales relativos a cada uso de un servicio digital interfiere desproporcionadamente en el derecho a la intimidad y la protección de los datos personales; destaca, en particular, el impacto negativo potencial de la publicidad microsegmentada y comportamental, y de los análisis de individuos, especialmente los menores, pues se inmiscuyen en la vida privada de los particulares y suscitan cuestiones en cuanto a la recogida y el uso de datos para personalizar la publicidad con miras a ofrecer productos o servicios o a fijar precios; confirma que el derecho de los usuarios a no ser objeto de un seguimiento generalizado cuando utilizan servicios digitales está recogido en el RGPD y debe aplicarse adecuadamente en toda la Unión; toma nota de que la Comisión ha propuesto supeditar la curación de contenidos específicos a una decisión de autoinclusión voluntaria en su propuesta de nuevo Reglamento sobre el respeto de la vida privada y la protección de los datos personales en el sector de las comunicaciones electrónicas (2017/0003 (COD));

10.

Considera que la publicidad política engañosa u opaca es un tipo especial de amenaza en línea porque influye en los mecanismos básicos que permiten el funcionamiento de nuestra sociedad democrática, especialmente cuando ese contenido está patrocinado por terceros, incluidos agentes extranjeros; subraya que cuando la elaboración de perfiles se realiza a gran escala, con fines de microsegmentación política para manipular el comportamiento de los votantes, puede socavar gravemente los cimientos de la democracia; pide, por tanto, a los proveedores de servicios digitales que adopten las medidas necesarias para identificar y etiquetar los contenidos publicados por bots sociales, y espera que la Comisión proporcione directrices sobre el uso de esas tecnologías digitales persuasivas en las campañas electorales y en las estrategias de publicidad política; pide, a este respecto, que se establezcan requisitos estrictos de transparencia para la exhibición de anuncios políticos de pago;

11.

Considera necesario que se retiren los contenidos ilícitos sin demora indebida y de forma sistemática, a fin de hacer frente a las infracciones, en especial a las relacionadas con menores y contenido terrorista, y a las violaciones de los derechos fundamentales, con las salvaguardias necesarias en vigor, como la transparencia del proceso, el derecho de apelación y el acceso a una tutela judicial efectiva; estima que los códigos de conducta voluntarios y las condiciones contractuales tipo no se aplican de manera adecuada y abordan este problema solo de manera parcial; subraya que la responsabilidad en última instancia de hacer cumplir la ley, decidir acerca de la legalidad de las actividades en línea y ordenar a los proveedores de servicios de alojamiento que retiren o desactiven el acceso a contenidos ilícitos recae en las autoridades competentes independientes;

12.

Reconoce que, si bien el carácter ilícito de ciertos tipos de contenido puede determinarse fácilmente, la decisión es más difícil respecto a otras clases de contenido, ya que es necesaria una contextualización; advierte de que las herramientas automatizadas actuales no son capaces de realizar un análisis crítico ni de comprender adecuadamente la importancia del contexto para determinados contenidos, lo que podría dar lugar a una retirada de contenido innecesaria y perjudicar a la libertad de expresión y el acceso a información diversa, también sobre opiniones políticas, conllevando así una censura; destaca que la revisión humana de los informes automatizados por parte de los proveedores de servicios o sus contratistas no resuelve plenamente este problema, especialmente si se subcontrata a personal privado que carece de un nivel suficiente de independencia, cualificaciones y responsabilidad;

13.

Observa con preocupación que el contenido ilícito en línea puede multiplicarse con facilidad y rapidez y, por lo tanto, sus efectos negativos pueden amplificarse en muy poco tiempo; cree, no obstante, que la Ley de servicios digitales no debe contener ninguna obligación para los proveedores de servicios de alojamiento de datos u otros intermediarios técnicos en lo que se refiere a la utilización de herramientas automatizadas para la moderación de contenidos;

14.

Recuerda que los contenidos ilícitos en línea no solo deben ser retirados por las plataformas en línea, sino que también deben ser objeto de seguimiento por parte de las autoridades encargadas de hacer cumplir la ley y del poder judicial cuando se trate de actos delictivos; pide a la Comisión que considere la posibilidad de obligar a las plataformas en línea a denunciar los delitos graves a la autoridad competente, una vez que tengan conocimiento de ellos; considera, a este respecto, que una cuestión fundamental en algunos Estados miembros no es solo que tengan casos sin resolver, sino también pendientes de investigación; pide que se eliminen los obstáculos a la presentación de denuncias ante las autoridades competentes; tiene el convencimiento de que, dado el carácter sin fronteras de internet y la rápida difusión de los contenidos ilícitos en línea, debe mejorarse la cooperación entre los proveedores de servicios y las autoridades nacionales competentes, así como la cooperación transfronteriza entre estas últimas, sobre la base de los principios de necesidad y proporcionalidad; subraya a este respecto la necesidad de respetar el ordenamiento jurídico de la Unión y los principios establecidos de cooperación transfronteriza y confianza mutua; pide a los Estados miembros que doten a sus autoridades policiales y judiciales de los conocimientos especializados, los recursos y los instrumentos necesarios para que puedan hacer frente con eficacia al creciente número de casos de contenido ilícito en línea y a la solución de controversias relativas a la retirada de los contenidos de la red, y que mejoren el acceso a la justicia en el ámbito de los servicios digitales;

15.

Subraya que un contenido determinado puede considerarse ilícito en un Estado miembro y estar amparado por el derecho a la libertad de expresión en otro; destaca que, para proteger la libertad de expresión, evitar conflictos de leyes, prevenir el bloqueo geográfico injustificado e ineficaz y aspirar a un mercado único digital armonizado, no debe exigirse a los proveedores de servicios de alojamiento que eliminen o inhabiliten el acceso a información que sea legal en el Estado miembro en el que estén establecidos o en el que residan o estén establecidos sus representantes legales; recuerda que las autoridades nacionales solo pueden ejecutar órdenes de retirada por parte de autoridades competentes independientes dirigidas a proveedores de servicios establecidos en su territorio; considera necesario reforzar los mecanismos de cooperación entre los Estados miembros con el apoyo de la Comisión y de los organismos pertinentes de la Unión; pide un diálogo estructurado entre los Estados miembros a fin de establecer el riesgo de determinados tipos de contenido y de detectar posibles diferencias en la evaluación de tales riesgos entre los Estados miembros;

16.

Subraya que el contenido ilícito debe eliminarse donde está alojado y que no debe exigirse a quienes actúan de meros intermediarios que bloqueen el acceso a contenidos;

17.

Cree firmemente que el actual marco jurídico de la Unión que regula los servicios digitales debe actualizarse con vistas a abordar los retos que plantean la fragmentación entre los Estados miembros y las nuevas tecnologías, como la prevalencia de la elaboración de perfiles y la adopción de decisiones algorítmicas que abarcan todos los ámbitos de la vida, así como a garantizar la claridad jurídica y el respeto de los derechos fundamentales, en particular la libertad de expresión y el derecho a la intimidad, con visión de futuro, dado el rápido desarrollo de la tecnología;

18.

Celebra el compromiso de la Comisión de introducir un enfoque armonizado en el que se aborden las obligaciones impuestas a los proveedores de servicios digitales, incluidos los intermediarios en línea, con el fin de evitar la fragmentación del mercado interior y una aplicación incoherente de la normativa; pide a la Comisión que proponga las soluciones más eficientes y eficaces para el conjunto del mercado interior, evitando al mismo tiempo nuevas cargas administrativas innecesarias y manteniendo el mercado único digital abierto, justo, seguro y competitivo para todos sus participantes; destaca que el régimen de responsabilidad de los proveedores de servicios digitales debe ser proporcionado, no debe perjudicar a los pequeños y medianos proveedores y no debe limitar de forma injustificada la innovación y el acceso a la información;

19.

Considera que la reforma debe fundamentarse en la sólida base y el pleno cumplimiento de la legislación vigente de la Unión, en particular el Reglamento general de protección de datos y la Directiva sobre la privacidad y las comunicaciones electrónicas, actualmente en proceso de revisión, así como en el respeto de la prevalencia de otros instrumentos específicos del sector, como la Directiva de servicios de comunicación audiovisual; subraya que la modernización de las normas sobre comercio electrónico puede afectar a los derechos fundamentales; insta, por lo tanto, a la Comisión a que siga con suma atención su enfoque y a que integre las normas internacionales de derechos humanos en su revisión;

20.

Destaca que la capacidad práctica de los usuarios individuales para comprender los complejos ecosistemas de datos y navegar por ellos es extremadamente limitada, al igual que su capacidad para determinar si la información que reciben y los servicios que utilizan se ponen a su disposición en las mismas condiciones que para otros usuarios; pide, por lo tanto, a la Comisión que sitúe la transparencia y la no discriminación en el centro de la Ley de servicios digitales;

21.

Insiste en que la Ley de servicios digitales debe tener por objeto garantizar un alto nivel de transparencia en lo que respecta al funcionamiento de los servicios en línea y un entorno digital libre de discriminación; destaca que, aparte del sólido marco regulador existente que protege la privacidad y los datos personales, es necesario que las plataformas en línea estén obligadas a garantizar el uso legítimo de algoritmos; pide, por tanto, a la Comisión que desarrolle un régimen basado en la Directiva sobre el comercio electrónico que defina claramente la responsabilidad de los proveedores de servicios de hacer frente a los riesgos a los que se enfrentan sus usuarios y proteger sus derechos, y que prevea una obligación de transparencia y explicabilidad de los algoritmos, sanciones para hacer cumplir dichas obligaciones, la posibilidad de intervención humana y otras medidas como auditorías independientes anuales y pruebas de resistencia específicas para contribuir al cumplimiento y garantizarlo;

22.

Hace hincapié en que algunos proveedores de servicios digitales deben ser capaces de identificar a los usuarios de forma inequívoca, de manera equivalente a los servicios fuera de línea; observa una recopilación innecesaria de datos personales, como los números de teléfono móvil, por parte de las plataformas en línea en el momento de registrarse para utilizar un servicio, a menudo debida al uso de opciones de registro único; subraya que el RGPD describe claramente el principio de minimización de los datos, que limita los datos recopilados a lo estrictamente necesario para el fin; recomienda que se exija a las plataformas en línea que apoyan un servicio de registro único con una cuota de mercado dominante que apoyen también al menos un sistema de identidad abierto basado en un marco genérico, descentralizado e interoperable;

23.

Subraya que, para los casos en que sea necesario un determinado tipo de identificación oficial fuera de línea, ha de crearse un sistema de identificación electrónica equivalente seguro en línea; cree que la identificación en línea puede mejorarse aplicando la interoperabilidad transfronteriza de las identificaciones electrónicas del Reglamento eIDAS en toda la Unión; pide a la Comisión que estudie la posibilidad de crear un sistema único de registro en la Unión, como alternativa a los sistemas privados de registro único, y que introduzca la obligación para los servicios digitales de ofrecer siempre también una opción de registro manual, establecida por defecto; subraya que este servicio debe desarrollarse de manera que la recogida de datos de registro identificables por el proveedor de servicios de registro sea técnicamente imposible y los datos recogidos se limiten al mínimo absoluto; recomienda, por tanto, a la Comisión que estudie la posibilidad de crear un sistema de verificación para los usuarios de los servicios digitales, a fin de garantizar la protección de los datos personales y la verificación de la edad, especialmente en el caso de los menores, que no debe utilizarse para fines comerciales ni para el seguimiento de los usuarios en sitios cruzados; subraya que estos sistemas de registro y verificación solo deben aplicarse a los servicios digitales que requieran identificación personal, autenticación o verificación de la edad; recuerda que los Estados miembros y las instituciones de la Unión deben garantizar que las identificaciones electrónicas sean seguras y transparentes, que traten únicamente los datos necesarios para la identificación del usuario y que se utilicen únicamente para un fin legítimo y no con fines comerciales, ni para restringir el acceso general a internet o para el seguimiento de los usuarios en sitios cruzados;

24.

Considera indispensable que se lleve a cabo una plena armonización y aclaración de las normas sobre responsabilidad a escala de la Unión para garantizar el respeto de los derechos fundamentales y las libertades de los usuarios en el conjunto de la Unión; opina que esas normas deben mantener las exenciones de responsabilidad para los intermediarios que no tengan un conocimiento real de la actividad o la información ilícita en sus plataformas; expresa su preocupación por el hecho de que las recientes leyes nacionales destinadas a combatir la incitación al odio y la desinformación conduzcan a una creciente fragmentación normativa y a un menor nivel de protección de los derechos fundamentales en la Unión;

25.

Pide, a tal efecto, propuestas legislativas que mantengan el mercado único digital abierto y competitivo proporcionando requisitos armonizados con el objetivo de que los proveedores de servicios digitales apliquen garantías procesales y procedimientos eficaces, coherentes, transparentes y justos para abordar los contenidos ilícitos en consonancia con el Derecho nacional y europeo, en particular mediante un procedimiento armonizado de notificación y acción;

26.

Considera, en este sentido, que es fundamental proporcionar a las plataformas en línea normas, requisitos y salvaguardias claros con respecto a la responsabilidad por contenidos de terceros; propone el establecimiento de un marco regulador común a fin de identificar y retirar con eficacia los contenidos ilícitos;

27.

Destaca que las normas sobre los mecanismos de notificación y acción deben complementarse con requisitos para que las plataformas adopten medidas específicas que sean proporcionadas a su alcance y capacidad técnica y operativa para hacer frente eficazmente a la aparición de contenidos ilícitos en sus servicios; reconoce, por tanto, que, cuando sea tecnológicamente viable, sobre la base de órdenes suficientemente justificadas de autoridades públicas competentes independientes y teniendo plenamente en cuenta el contexto específico del contenido, se pueda requerir a los proveedores de servicios digitales que realicen búsquedas periódicas de distintos contenidos que un tribunal ya haya declarado ilegales, a condición de que el seguimiento y la búsqueda de la información a que se refiera dicho requerimiento se limiten a información que transmita un mensaje cuyo contenido se mantenga esencialmente inalterado en comparación con el contenido que haya dado lugar a la declaración de ilegalidad y que contenga los elementos especificados en el requerimiento, que, en consonancia con la sentencia del Tribunal de Justicia de 3 de octubre de 2019 en el asunto C-18/183 (8), sean idénticos o equivalentes en la medida en que no exijan al proveedor de servicios de alojamiento llevar a cabo una evaluación independiente de dicho contenido;

28.

Sostiene que la elección de las medidas concretas debe dejarse en manos de las plataformas; apoya un enfoque equilibrado basado en un diálogo con las partes interesadas y en una evaluación de los riesgos asumidos por las plataformas, así como una clara cadena de responsabilidades para evitar cargas reglamentarias innecesarias para las plataformas y restricciones innecesarias y desproporcionadas de los derechos fundamentales, en particular de la libertad de expresión, el acceso a la información, también sobre ideas políticas, y el derecho a la intimidad; destaca que en la legislación sectorial pueden especificarse en mayor medida algunas obligaciones; hace hincapié en que cualquier medida que se adopte con este fin no puede constituir, de iure o de facto, un requisito de seguimiento general;

29.

Destaca la necesidad de establecer salvaguardias y garantías procesales adecuadas, incluido el requisito de supervisión y verificación humanas, además de los procedimientos de contranotificación, a fin de permitir a quienes poseen y cargan contenidos defender adecuadamente y en tiempo oportuno sus derechos, y para garantizar que las decisiones de retirada o bloqueo sean legales, precisas, estén bien fundamentadas, protejan a los usuarios y respeten los derechos fundamentales; recalca que debe sancionarse a las personas que de forma sistemática y reiterada presenten notificaciones engañosas o abusivas; recuerda que, además de los procedimientos de contranotificación y la resolución extrajudicial de litigios por parte de las plataformas, de conformidad con el sistema de reclamaciones interno, debe seguir existiendo la posibilidad de recurso judicial efectivo para satisfacer el derecho a un resarcimiento efectivo;

30.

Respalda la preservación del marco actual sobre responsabilidad limitada en relación con los contenidos y el principio del país de origen, pero considera esencial que mejore la coordinación entre las autoridades nacionales competentes respecto a las solicitudes de retirada; subraya que el contenido ilícito debe eliminarse donde está alojado; hace hincapié en que este tipo de solicitudes debe estar sujeto a garantías jurídicas para impedir los abusos y garantizar el pleno respeto de los derechos fundamentales; destaca que las solicitudes de retirada de las autoridades competentes deben ser específicas y exponer claramente su base jurídica; subraya que debe aplicarse un mecanismo eficaz de supervisión y ejecución, incluidas sanciones proporcionadas que tengan en cuenta las capacidades técnicas y operativas, a los proveedores de servicios que incumplan las órdenes legales;

31.

Recuerda que no debe exigirse legalmente a los proveedores de servicios digitales que conserven los datos personales de sus usuarios o abonados con fines coercitivos, a menos que una autoridad competente independiente ordene una conservación selectiva respetando plenamente el Derecho de la Unión y la jurisprudencia del TJUE; recuerda, además, que dicha conservación de datos debe limitarse a lo estrictamente necesario con respecto a las categorías de datos que deben conservarse, los medios de comunicación afectados, las personas afectadas y el período de conservación adoptado;

32.

Considera que, a fin de proteger los derechos fundamentales, la Ley de servicios digitales debe introducir normas destinadas a garantizar que las condiciones de servicio de los proveedores de servicios digitales sean claras, transparentes y justas, y se pongan a disposición de los usuarios de forma sencilla y accesible; lamenta que las condiciones de servicio de algunas plataformas de contenidos obliguen a los agentes de los cuerpos y fuerzas de seguridad a emplear cuentas personales para investigar ciertas denuncias, lo cual supone una amenaza tanto para las investigaciones como para la seguridad personal, y pide una coordinación más eficiente entre los Estados miembros por lo que respecta al seguimiento de la aplicación de la ley en materia de contenidos ilícitos señalados; recuerda que las órdenes de retirada por parte de autoridades competentes independientes tienen que basarse siempre en la ley y no en las condiciones de servicio de los proveedores de servicios;

33.

Pide a la Comisión que vele por que los usuarios tengan acceso a contenidos en línea diversos y de calidad como medio para garantizar que los ciudadanos estén adecuadamente informados; espera que la Ley de servicios digitales garantice que los contenidos mediáticos de calidad sean de fácil acceso y se encuentren fácilmente en plataformas de terceros y que la retirada de contenidos se ajuste a las normas de derechos humanos y se limite a los contenidos que sean manifiestamente ilícitos o que una autoridad competente independiente haya considerado como tal; subraya que los contenidos legales no deben estar sujetos a ninguna obligación legal de retirada o bloqueo;

34.

Apoya un mayor diálogo entre los Estados miembros, las autoridades competentes y las partes interesadas pertinentes con el objetivo de desarrollar, evaluar y mejorar los enfoques de Derecho indicativo, como el Código de Buenas Prácticas en materia de Desinformación para la Unión, a fin de seguir abordando las categorías de contenidos legales, incluida la desinformación; espera que la Comisión publique directrices que incluyan normas reforzadas en materia de transparencia respecto a la moderación de los contenidos y a la política de publicidad en un instrumento específico que acompañe a la Ley de servicios digitales para garantizar que la retirada y el bloqueo de contenidos legales sobre la base de términos y condiciones se limiten al mínimo absoluto; pide además a la Comisión que establezca un marco que prohíba que las plataformas ejerzan un segundo nivel de control sobre los contenidos que se proporcionan bajo la responsabilidad de un proveedor de servicios de comunicación y que están sujetos a unas normas y a una supervisión específicas;

35.

Hace hincapié, además, en que debe ofrecerse a los usuarios más posibilidades de elección y control con respecto a los contenidos que ven, incluidas más opciones sobre la manera en que se clasifica el contenido para ellos y la posibilidad de renunciar a cualquier forma de curación de contenidos; cree firmemente que el diseño y el rendimiento de los sistemas de recomendación deben garantizar la facilidad de uso y la plena transparencia;

36.

Considera que la rendición de cuentas, tanto en el sector público como en el privado, y la elaboración de políticas con una base empírica requieren datos sólidos sobre la prevalencia de la actividad ilegal y la lucha contra ella y la retirada de contenidos ilícitos en línea, así como sobre los algoritmos de curación de contenidos de las plataformas en línea;

37.

Pide, en este sentido, que se establezca para las plataformas la obligación de informar de manera anual, exhaustiva, sistemática y proporcional a su alcance y a sus capacidades operativas, más concretamente sobre sus procedimientos de moderación de contenidos, incluyendo información sobre las medidas adoptadas contra las actividades ilícitas en línea y datos normalizados sobre la cantidad de contenido retirado y las razones y bases subyacentes, el tipo y la justificación de las solicitudes de retirada recibidas, el número de solicitudes cuya ejecución se haya denegado y sus razones; destaca que estos informes, referentes a las medidas adoptadas durante un año determinado, deben presentarse antes del fin del primer trimestre del año siguiente;

38.

Pide, asimismo, que se establezca para las autoridades nacionales la obligación de presentar informes, con carácter público y anual, que incluyan la facilitación de datos normalizados sobre el número de solicitudes de retirada y sus fundamentos jurídicos, el número de solicitudes de retirada que hayan sido objeto de recursos administrativos o judiciales, el resultado de esos procedimientos, con mención de los casos en que los contenidos o las actividades hayan sido considerados erróneamente ilícitos, y el número total de decisiones por las que se impusieron sanciones, incluida una descripción del tipo de sanción impuesta;

39.

Expresa su preocupación por la fragmentación y la documentada falta de recursos financieros y humanos de los organismos de supervisión y vigilancia; pide una mayor cooperación entre los Estados miembros en materia de vigilancia reglamentaria de los servicios digitales;

40.

Considera que, para garantizar la correcta aplicación de la Ley de servicios digitales, debe armonizarse en el mercado único digital la supervisión del cumplimiento de los procedimientos, las garantías procesales y las obligaciones de transparencia establecidas en dicho acto; apoya, en este sentido, una aplicación estricta y rigurosa por parte de una estructura de supervisión independiente de la Unión que tenga competencias para imponer sanciones sobre la base de una evaluación de un conjunto de factores claramente definido, como la proporcionalidad, las medidas técnicas y organizativas y la negligencia; cree que debería incluirse la posibilidad de que las sanciones se basen en un porcentaje del volumen de negocios global anual de la empresa;

41.

Destaca que las auditorías de las políticas y algoritmos internos de los proveedores de servicios digitales deben realizarse teniendo debidamente en cuenta el Derecho de la Unión, en particular los derechos fundamentales de los usuarios de los servicios, habida cuenta de la importancia de la no discriminación y la libertad de expresión e información en una sociedad abierta y democrática, y sin publicar datos comerciales sensibles; insiste en la necesidad de evaluar, a partir de una denuncia o por iniciativa de los organismos de supervisión, si los proveedores de servicios digitales difunden los contenidos y de qué manera, por ejemplo, mediante motores de recomendación y funciones de optimización, como el autocompletado y las tendencias de búsqueda;

42.

Considera que los informes de transparencia elaborados por las plataformas y las autoridades nacionales competentes deben ponerse a disposición del público y analizarse en relación con las tendencias estructurales en materia de eliminación, detección y bloqueo de contenidos a escala de la Unión;

43.

Subraya la importancia de facultar a los usuarios para que ejerzan sus derechos fundamentales en línea, por ejemplo mediante procedimientos de denuncia fácilmente accesibles, imparciales, transparentes, eficientes y gratuitos, mecanismos de denuncia de contenidos ilícitos y conductas delictivas de personas y empresas, recursos legales, medidas educativas y sensibilización sobre cuestiones relacionadas con la protección de datos y la seguridad en línea de los menores;

44.

Cree que la experiencia ha demostrado la eficacia de permitir que florezcan modelos de negocio innovadores y de reforzar el mercado único digital mediante la eliminación de los obstáculos a la libre circulación de los servicios digitales y la prevención de nuevas barreras nacionales injustificadas, y que el mantenimiento de este enfoque reduciría la fragmentación del mercado interior; considera, además, que la Ley de servicios digitales puede ofrecer oportunidades para desarrollar los conocimientos y competencias de los ciudadanos en el ámbito de la digitalización y, al mismo tiempo, garantizar un elevado nivel de protección de los consumidores, salvaguardando la seguridad en línea;

45.

Hace hincapié en que las normas de seguridad en el ciberespacio acordadas son indispensables a fin de que los ciudadanos puedan aprovechar plenamente todas las ventajas de los servicios digitales; señala, por tanto, la urgente necesidad de que los Estados miembros adopten medidas coordinadas para garantizar la ciberhigiene básica y prevenir los peligros que se pueden evitar en el ciberespacio, incluso mediante medidas legislativas;

46.

Encarga a su presidente que transmita la presente Resolución al Consejo y a la Comisión.

—————————————-

(1)  DO L 178 de 17.7.2000, p. 1.

(2)  DO L 119 de 4.5.2016, p. 1.

(3)  DO L 201 de 31.7.2002, p. 37.

(4)  DO L 303 de 28.11.2018, p. 69.

(5)  DO L 130 de 17.5.2019, p. 92.

(6)  DO L 63 de 6.3.2018, p. 50.

(7)  Reglamento (UE) nº 910/2014 del Parlamento Europeo y del Consejo de 23 de julio de 2014 relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE (DO L 257 de 28.8.2014, p. 73).

(8)  Sentencia del Tribunal de Justicia, de 3 de octubre de 2019, Eva Glawischnig-Piesczek contra Facebook Ireland Limited, C-18/18, ECLI:EU:C:2019:821.

07May/21

Resolución del Parlamento Europeo, de 25 de octubre de 2018

Resolución del Parlamento Europeo, de 25 de octubre de 2018, sobre la utilización de los datos de los usuarios de Facebook por parte de Cambridge Analytica y el impacto en la protección de los datos. 

El Parlamento Europeo,

–  Vistos el Tratado de la Unión Europea (TUE), el Tratado de Funcionamiento de la Unión Europea (TFUE), la Carta de los Derechos Fundamentales de la Unión Europea, en particular sus artículos 7, 8, 11, 12, 39, 40, 47 y 52, el Convenio Europeo para la Protección de los Derechos Humanos y de las Libertades Fundamentales, en particular sus artículos 8, 9, 10, 11, 13, 16, 17, y el protocolo adicional al Convenio para la Protección de los Derechos Humanos y de las Libertades Fundamentales, en particular su artículo 3,

–  Visto el Pacto Internacional de Derechos Civiles y Políticos y, en particular, sus artículos 2, 17, 19, 20 y 25,

–  Vistos el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (1), y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo (2),

–  Vistos el Convenio del Consejo de Europa para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal y su Protocolo adicional,

–  Vistos la investigación de la Cámara de los Comunes sobre las noticias falsas y el 5.º Informe provisional de su Comisión de Asuntos Digitales, Cultura, Medios de Comunicación y Deporte sobre desinformación y «noticias falsas»,

–  Vistas las audiencias celebradas en la Comisión de Energía y Comercio de la Cámara de Representantes de los Estados Unidos,

–  Vista la Decisión de Ejecución (UE) 2016/1250 de la Comisión, de 12 de julio de 2016, con arreglo a la Directiva 95/46/CE del Parlamento Europeo y del Consejo, sobre la adecuación de la protección conferida por el Escudo de la privacidad UE-EE.UU. (3),

–  Vista la Resolución del Parlamento Europeo, de 5 de julio de 2018, sobre la adecuación de la protección conferida por el Escudo de la privacidad UE-EE. UU. (4),

–  Vista la sentencia del Tribunal de Justicia de la Unión Europea, de 6 de octubre de 2015, en el asunto C-362/14 Maximilian Schrems / Data Protection Commissioner (5),

–  Vista la sentencia del Tribunal de Justicia de la Unión Europea, de 25 de enero de 2018, en el asunto C-498/16 Maximilian Schrems v. Facebook Ireland Limited (6),

–  Vista la sentencia del Tribunal de Justicia de la Unión Europea, de 5 de junio de 2018, en el asunto C-210/16 Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein v Wirtschaftsakademie Schleswig-Holstein GmbH (7),

–  Vista la solicitud formal de David Caroll en la que solicita a Cambridge Analytica que recupere su información personal y que revele su fuente,

–  Visto el Dictamen 3/2018 del Supervisor Europeo de Protección de Datos (SEPD), de19 de marzo de 2018 sobre la manipulación en línea y los datos personales (8),

–  Vistas las Directrices del Grupo de Trabajo del artículo 29 de 3 de octubre de 2017 sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento (UE) 2016/679 (9),

–  Vistas las dos series de respuestas escritas a preguntas que se dejaron sin responder en la reunión entre los líderes de los grupos políticos del Parlamento Europeo y el director ejecutivo de Facebook, Mark Zuckerberg, publicadas por Facebook el 23 de mayo de 2018( 10) y el 4 de junio de 2018 respectivamente (11),

–  Vistas la Recomendación (UE) 2018/234 de la Comisión, de 14 de febrero de 2018, con vistas a reforzar el carácter europeo y el desarrollo eficiente de las elecciones de 2019 al Parlamento Europeo (12), la Recomendación de la Comisión, de 12 de septiembre de 2018, relativa a las redes de cooperación electoral, la transparencia en línea, la protección contra los incidentes de ciberseguridad y la lucha contra las campañas de desinformación en el contexto de las elecciones al Parlamento Europeo (C(2018)5949), y la Comunicación de la Comisión, de 12 de septiembre de 2018, titulada «Garantizar unas elecciones europeas libres y justas» (COM(2018)0637),

–  Vista la propuesta de la Comisión, de 12 de septiembre de 2018, de Reglamento del Parlamento Europeo y del Consejo por el que se modifica el Reglamento (UE, Euratom) n.º 1141/2014 sobre un procedimiento de verificación relativo a las infracciones a las normas relativas a la protección de los datos personales en el contexto de las elecciones al Parlamento Europeo (COM(2018)0636),

–  Visto el Documento de orientación de la Comisión, de 12 de septiembre de 2018, relativo a la aplicación de la legislación sobre protección de datos de la Unión en el contexto electoral (COM(2018)0638),

–  Vistas las audiencias exhaustivas realizadas por la Comisión de Libertades Civiles, Justicia y Asuntos de Interior encomendadas por el Parlamento Europeo sobre la utilización de los datos de usuarios de Facebook por parte de Cambridge Analytica y su impacto en la protección de datos,

–  Vistos los informes de la Oficina del Comisionado de Información del Reino Unido sobre la investigación del uso de análisis de datos en campañas políticas, y el informe titulado «Democracy Disrupted?» (¿Funciona aún la democracia?) (13),

–  Vistas las declaraciones de la Oficina Europea de las Uniones de Consumidores (BEUC), de 25 de junio de 2018 (14),

–  Vista la declaración de la Comisión, de 23 de octubre de 2018,

–  Vista la propuesta de Resolución de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior,

–  Visto el artículo 123, apartado 2, de su Reglamento interno,

A.  Considerando que el periodismo de investigación puso al descubierto e hizo públicas importantes fugas de datos de usuarios de Facebook en relación con el acceso concedido por Facebook a aplicaciones de terceros, y el subsiguiente uso indebido de estos datos para campañas electorales, así como otras violaciones de datos personales en poder y recogidos por las principales empresas de redes sociales descubiertas posteriormente;

B.  Considerando que esas violaciones de datos personales afectaron a ciudadanos del todo el mundo, incluidos los ciudadanos europeos y no europeos residentes en el territorio de la Unión Europea; que varios Parlamentos nacionales han realizado audiencias e investigaciones sobre el asunto y han publicado sus conclusiones;

C.  Considerando que estos casos de violación de datos personales se produjeron durante un período prolongado; que, sin embargo, las empresas afectadas incumplían la legislación de la UE sobre protección de datos aplicable en ese momento, en particular la Directiva 95/46/CE y la Directiva 2002/58/CE;

D.  Considerando que el uso indebido de datos que se reveló en el contexto del escándalo de Cambridge Analytica ocurrió antes de la aplicación del Reglamento general de protección de datos;

E.  Considerando que Facebook ha afirmado que no se ha compartido con Cambridge Analytica información alguna sobre cuentas bancarias, tarjetas de crédito o datos nacionales de identidad;

F.  Considerando que Cambridge Analytica afirmó haber realizado el tratamiento de los datos oficialmente con fines de investigación, pero que posteriormente transfirió los datos recopilados para fines políticos y comerciales;

G.  Considerando que la reacción inicial de las empresas afectadas no se ajustó a lo que cabía esperar y no permitió una investigación y un control completos e independientes por parte de las autoridades correspondientes ni a escala nacional ni europea;

H.  Considerando que el Parlamento Europeo celebró un primer intercambio de puntos de vista a puerta cerrada con el director ejecutivo y fundador de Facebook, Mark Zuckerberg, el 22 de mayo de 2018, y que esta reunión dio lugar a la solicitud de la Conferencia de Presidentes de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior, junto con las Comisiones de Asuntos Constitucionales, Asuntos Jurídicos e Industria, Investigación y Energía, de celebrar exhaustivas audiencias de seguimiento;

I.  Considerando que, el 4 y el 25 de junio y el 2 de julio de 2018, se celebraron tres audiencias sobre el impacto del caso Facebook / Cambridge Analytica en las cuestiones relacionadas con la protección de datos, los procesos electorales, noticias falsas y la posición de las redes sociales en el mercado, con la participación de los correspondientes comisarios europeos, el director ejecutivo de la Agencia de Seguridad de las Redes de la Información de la Unión Europea (ENISA), el Supervisor Europeo de Protección de Datos (SEPD), el presidente del Comité Europeo de Protección de Datos (CEPD), la Oficina del Comisionado de Información del Reino Unido, el director ejecutivo de la Comisión Electoral del Reino Unido, ciudadanos afectados y Facebook;

J.  Considerando que Facebook se negó a delegar a miembros del personal con el nivel técnico y de responsabilidad adecuado y que disponen de los conocimientos técnicos requeridos por los presidentes de las comisiones en cuestión y, en su lugar, envió a las tres audiencias a miembros del equipo responsable de la política pública; que la información facilitada por los representantes de Facebook durante las audiencias carecía de precisión por lo que respecta a las medidas concretas y específicas adoptadas para garantizar el pleno cumplimiento de la legislación de la UE en materia de protección de datos y tuvo un carácter más general;

K.  Considerando que, en su dictamen 3/2018, el SEPD indica que existen varios motivos de preocupación por cuestiones relativas a la manipulación en línea de datos personales, si bien afirma también que la legislación en materia de competencia desempeña un papel fundamental a la hora de garantizar la rendición de cuentas de los actores dominantes en el mercado y de proteger la democracia contra un excesivo poder de mercado; que conviene reflejar mejor los intereses de las personas a la hora de evaluar el posible abuso de posición dominante o las fusiones de las empresas, que pueden haber acumulado un importante poder de información:

L.  Considerando que, en su dictamen de 3 de octubre de 2017, el Grupo de Trabajo del artículo 29 declaraba que la elaboración de perfiles y la toma de decisiones automatizada pueden plantear riesgos significativos para los derechos y las libertades de las personas que requieren salvaguardias adecuadas;

M.  Considerando que el presidente del CEPD destacó que el caso Facebook / Cambridge Analytica ocurrió antes de la entrada en vigor del Reglamento general de protección de datos, por lo que no se aplica el sistema de la autoridad de control principal en virtud del Reglamento general de protección de datos; que las investigaciones fueron dirigidas por la Oficina del Comisionado de Información del Reino Unido;

N.  Considerando que Facebook ha admitido que celebró un contrato con un desarrollador de aplicaciones sin haber llevado a cabo una verificación previa de sus términos y condiciones, que estipulaban el derecho de este último a revelar datos personales a terceros; que esta negligencia tuvo graves consecuencias y que esta práctica ya era ilegal con arreglo a la legislación en materia de protección de datos aplicable en aquel momento;

O.  Considerando que están en curso las negociaciones sobre el Reglamento relativo a la privacidad electrónica;

P.  Considerando que el CEPD indicó que alrededor de 100 casos transfronterizos ya están siendo tratados con el mecanismo de coherencia del Reglamento general de protección de datos; que este mecanismo coordina las acciones de las autoridades nacionales de protección de datos con el fin de garantizar un enfoque común en la aplicación de la legislación de la UE en materia de protección de datos;

Q.  Considerando que Facebook, uno de los firmantes del Escudo de la privacidad, ha confirmado que, entre los datos personales utilizados de forma irregular por la consultoría política Cambridge Analytica, se encontraban los datos de 2,7 millones de ciudadanos de la Unión;

R.  Considerando que el 28 de septiembre de 2018, Facebook hizo público que un agente externo había atacado sus sistemas y se había aprovechado de una vulnerabilidad que permitía acceder a los códigos de seguridad de Facebook de 50 millones de cuentas, y que la Comisión de Protección de Datos irlandesa y otras autoridades de protección de datos han iniciado investigaciones de estos hechos a fin de comprobar el cumplimiento de la legislación de la Unión en materia de protección de datos;

S.  Considerando que la Comisión Federal de Comercio de los Estados Unidos está investigando si Facebook ha incumplido sus promesas de privacidad, incluido el cumplimiento del Escudo de la privacidad, o si ejerce actividades desleales que hayan causado un grave perjuicio a los consumidores, infringiendo la Ley de la Comisión Federal de Comercio y la solución anterior alcanzada en 2011 entre la Comisión Federal de Comercio y Facebook;

T.  Considerando que cuatro organizaciones de consumidores de Bélgica, Italia, España y Portugal han presentado una demanda colectiva contra Facebook, solicitando una compensación para los usuarios de Facebook afectados en sus respectivos países;

U.  Considerando que la Oficina Europea de Uniones de Consumidores (BEUC) señaló, en su testimonio presentado el 25 de junio de 2018, la necesidad de garantizar la rendición de cuentas de las plataformas para el acceso de terceros a los datos personales; que, en el mismo testimonio, la BEUC sostiene igualmente que las empresas deberían hacer más para garantizar unas sólidas estructuras de rendición de cuentas para el acceso de los socios a los datos personales y la ulterior explotación de los mismos;

V.  Considerando que la investigación llevada a cabo por la Oficina del Comisionado de Información del Reino Unido cubría también el vínculo entre Cambridge Analytica, su sociedad matriz SCL Elections Limited y Aggregate IQ e incluye presunciones de que los datos personales, obtenidos de Facebook, pueden haber sido objeto de un uso indebido por ambas partes en el referéndum del Reino Unido sobre la pertenencia a la UE y utilizado para orientar a los electores durante el proceso electoral presidencial de 2016; que la investigación de la Oficina del Comisionado de Información del Reino Unido se llevó a cabo principalmente con arreglo a la Ley de Protección de Datos de 1998 y a los Reglamentos sobre la privacidad y las comunicaciones electrónicas de 2003, teniendo también en cuenta, en su caso, el Reglamento general de protección de datos;

W.  Considerando que la Comisión Especial de Cultura, Medios de Comunicación y Deporte de la Cámara de los Comunes ha oído testimonios relativos a presuntas injerencias rusas en los procesos electorales en la UE y ha instado a las autoridades nacionales competentes a que investiguen esas denuncias; que, en mayo de 2017, se nombró en los Estados Unidos a un abogado especial para investigar las injerencias rusas en las elecciones presidenciales de 2016 y asuntos relacionados y que esta investigación sigue en curso;

X.  Considerando que la Oficina del Comisionado de Información del Reino Unido transmitió a Facebook una notificación de su intención de imponerle una sanción pecuniaria de 500 000 libras esterlinas por falta de transparencia y por cuestiones de seguridad relacionadas con la recogida de datos que constituyen violación de los principios primero y séptimo de la Ley de Protección de Datos de 1998;

Y.  Considerando que la Oficina del Comisionado de Información del Reino Unido ya emitió 23 comunicaciones de información destinadas a 17 diferentes organizaciones y particulares, incluido Facebook el 23 de febrero de 2018, solicitándoles información de manera estructurada; que, el 18 de mayo de 2018, Facebook confirmó que Aggregate IQ había creado y, en algunos casos, insertado mensajes publicitarios de la campaña del Partido Democrático Unionista (DUP) a favor de la retirada, y de Vote Leave, BeLeave y Veterans for Britain;

Z.  Considerando que la Oficina del Comisionado de Información del Reino Unido ha expresado su preocupación por lo que respecta a las condiciones en las que se ha facilitado la información de que disponen los usuarios sobre las fuentes de los datos, y a la disponibilidad y transparencia de los controles ofrecidos a los usuarios; que la Oficina del Comisionado de Información del Reino Unido ha declarado igualmente que la información general sobre la privacidad y los controles puestos a disposición en Facebook no informaba realmente a los usuarios de los posibles usos de su información personal; que la Oficina del Comisionado de Información del Reino Unido manifiesta su preocupación por el hecho de que se haya accedido a los datos a través de la plataforma de Facebook y que estos se hayan utilizado para fines distintos a los previstos o para fines que los interesados no podían haber previsto razonablemente;

AA.  Considerando que las cifras de la Comisión Electoral del Reino Unido revelan que los partidos políticos del Reino Unido gastaron 3,2 millones de libras esterlinas en publicidad directa en Facebook durante las elecciones generales de 2017;

AB.  Considerando que las redes sociales constituyen una plataforma importante para los partidos políticos y las instituciones públicas, al permitirles conectar con los ciudadanos;

AC.  Considerando que las plataformas en línea a nivel mundial se enfrentan a dificultades para hacer frente a las noticias falsas de manera eficaz, debido a las diferentes amenazas y panoramas mediáticos en los diferentes países y regiones;

AD.  Considerando que el análisis de datos y los algoritmos tienen un impacto cada vez mayor en la información que se facilita a los ciudadanos; que dichas técnicas, en caso de utilizarse indebidamente, podrían poner en peligro los derechos fundamentales a la información, así como la libertad de los medios de comunicación y el pluralismo;

AE.  Considerando que la responsabilidad y la transparencia algorítmica son esenciales para garantizar una información adecuada y una clara comprensión por parte de los ciudadanos del tratamiento de sus datos personales; que esto debe implicar la aplicación de medidas técnicas y operativas que garanticen la transparencia y el carácter no discriminatorio de la toma de decisiones automatizada y la prohibición del cálculo de probabilidades del comportamiento individual; que la transparencia debe facilitar a las personas información fiable sobre la lógica aplicada, el significado y las consecuencias previstas; y que debe incluir información sobre los datos utilizados para la formación en materia de análisis de macrodatos y permitir a las personas comprender y controlar las decisiones que los afectan;

AF.  Considerando que, en la reunión con los comisarios europeos del 2 de julio de 2018, Facebook prometió cooperar y permitir el acceso de académicos independientes a los datos sobre la presunta manipulación de votos;

1.  Espera que todas las plataformas en línea garanticen el pleno cumplimiento de la legislación de la Unión en materia de protección de datos, concretamente el Reglamento general de protección de datos y la Directiva 2002/58/CE (privacidad electrónica), y que estas ayuden a los usuarios a comprender cómo se tratan sus datos personales en la publicidad dirigida a grupos específicos de usuarios, y que se disponga de controles eficaces, lo cual incluye la garantía de que se utilizan consensos diferentes para diferentes finalidades de tratamiento y que existe una mayor transparencia en relación con los parámetros de privacidad, el diseño y la visibilidad de las declaraciones de confidencialidad;

2.  Subraya que en ningún caso se podrá recurrir al argumento de la excepción con fines de investigación previsto en la legislación de la Unión en materia de protección de datos como coladero para un uso indebido de los datos;

3.  Toma nota de la declaración de Facebook, según la cual, utiliza los datos de usuarios ajenos a Facebook exclusivamente para crear conjuntos de datos agregados de los que extrae conclusiones sobre la manera en que se utiliza el servicio;

4.  Hace hincapié en la necesidad de un grado de transparencia y de una responsabilidad algorítmica mucho mayor por lo que respecta al tratamiento y la analítica de datos por los sectores público y privado y cualquier otro agente que utilice la analítica de datos como herramienta de base para garantizar que los ciudadanos estén informados adecuadamente sobre el tratamiento de sus datos personales;

5.  Opina que la era digital exige que se adapten las leyes electorales a esta nueva realidad digital y sugiere que las salvaguardias electorales convencionales («fuera de línea»), tales como unas normas aplicables a las comunicaciones políticas durante los períodos electorales, la transparencia y los límites de los gastos electorales, el respeto de los períodos de reflexión electoral y la igualdad de trato de los candidatos también deben aplicarse en línea; considera que los Estados miembros deben introducir un sistema obligatorio de impresiones digitales para la campaña y la publicidad electrónicas y aplicar la Recomendación de la Comisión destinada a aumentar la transparencia de la publicidad y las comunicaciones políticas pagadas en línea; considera que cualquier tipo de publicidad política debe incluir información fácilmente accesible y comprensible sobre la organización que la pública y que esta deberá ser jurídicamente responsable del gasto, de modo que esté claro quién patrocina las campañas, de manera similar a los requisitos actualmente vigentes en diversos Estados miembros relativos al material impreso utilizado en las campañas; insiste en que los ciudadanos de la Unión deben poder reconocer fácilmente la publicidad y las comunicaciones políticas pagadas en línea, así como el partido, la fundación o la organización que las promueva; insiste, igualmente, en que la transparencia debe incluir también información completa sobre los criterios de selección del grupo destinatario de la publicidad política específica y el tamaño previsto del grupo destinatario;

6.  Toma nota de que Facebook ha actualizado su configuración de privacidad para permitir a los usuarios acogerse a la exclusión voluntaria de la publicidad específica, incluidos la presentación de anuncios basados en la información obtenida de terceros y el uso de su información personal recogida por Facebook para mostrar anuncios en otros sitios web o plataformas;

7.  Recomienda que todas las plataformas en línea establezcan una distinción entre el uso político de sus productos publicitarios en línea y su uso para fines comerciales; recuerda que el tratamiento de datos personales para la publicidad política requiere una base jurídica distinta a la de la publicidad comercial;

8.  Considera que el requisito de verificar la identidad, la ubicación y el patrocinador de la publicidad política recientemente introducida por Facebook en los Estados Unidos es una buena iniciativa que aumentará la transparencia y contribuirá a la lucha contra la intromisión electoral por parte de agentes extranjeros; insta a Facebook a que introduzca los mismos requisitos para la publicidad política en Europa; pide a los Estados miembros que ajusten sus leyes electorales a tal efecto;

9.  Considera que debe prohibirse la elaboración de perfiles para fines políticos y electorales, y la elaboración de perfiles sobre la base de comportamientos en línea que puedan revelar preferencias políticas, como la interacción con contenidos políticos, en la medida en que, con arreglo a la legislación de la Unión en materia de protección de datos, se hace referencia a opiniones políticas o filosóficas, y opina que las plataformas de redes sociales deben supervisar e informar activamente a las autoridades si se produce tal comportamiento; considera que, igualmente, debe prohibirse la elaboración de perfiles sobre la base de otros datos, como factores socioeconómicos o demográficos, para fines políticos o electorales; pide a los partidos políticos y a otros actores que participen en las elecciones que se abstengan de utilizar perfiles para fines políticos y electorales; pide a los partidos políticos que sean transparentes en lo que respecta a su utilización de las plataformas y los datos en línea;

10.  Recuerda las medidas propuestas por la Comisión para garantizar unas elecciones europeas libres y justas, en particular la enmienda legislativa destinada a endurecer las normas sobre la financiación de los partidos políticos europeos, que establece la posibilidad de imponer sanciones financieras por infringir las normas de protección de datos con el fin de influir deliberadamente en los resultados de las elecciones europeas; recuerda que el tratamiento de datos personales por parte de partidos políticos en la UE está sujeto al Reglamento general de protección de datos, y que la violación de los principios, los derechos y las obligaciones previstos en él daría lugar a multas y sanciones adicionales;

11.  Considera que la injerencia en las elecciones constituye un importante reto para la democracia, y para combatirla se requiere el esfuerzo conjunto de los proveedores de servicios, los reguladores y los agentes y partidos políticos;

12.  Celebra el paquete presentado por la Comisión el 12 de septiembre de 2018 relativo a los preparativos para las elecciones europeas;

13.  Recuerda la promesa hecha por Facebook sobre la concesión de acceso a los datos sobre la supuesta manipulación de votos a académicos independientes y espera que se le informe antes de finales de 2018 de las principales conclusiones y de las soluciones propuestas;

14.  Toma nota de las acciones emprendidas por Facebook para luchar contra el uso indebido de datos, incluidas la desactivación o la prohibición de aplicaciones sospechosas de utilizar indebidamente los datos de los usuarios; espera que Facebook actúe con rapidez en cuanto a los informes relativos a solicitudes sospechosas o abusivas y que impida la presencia de dichas solicitudes en la plataforma;

15.  Hace hincapié en que las plataformas de redes sociales no son solo plataformas pasivas que agrupan exclusivamente contenidos generados por los usuarios, subraya que, por el contrario, la evolución tecnológica ha ampliado el alcance y el papel de estas empresas mediante la introducción de publicidad basada en algoritmos y la publicación de contenidos; concluye que esta nueva función debe reflejarse en el ámbito normativo;

16.  Observa con pesar que Facebook no ha querido enviar a las audiencias a agentes con las cualificaciones técnicas y el nivel de responsabilidad empresarial adecuados, y señala que este enfoque es perjudicial para la confianza de los ciudadanos europeos en las plataformas sociales; lamenta que Mark Zuckerberg no deseara participar en una audiencia pública con los diputados;

17.  Considera que Facebook no solo ha defraudado la confianza de los ciudadanos europeos, sino que también ha violado el Derecho de la UE, y recuerda que, durante las audiencias, un representante de Facebook confirmó que Facebook era consciente de que los términos y las condiciones de la aplicación «This is Your Digital Life» (Esta es tu vida digital) preveían que los datos recogidos por la aplicación pudieran enviarse a terceros; concluye que Facebook firmó un contrato con un desarrollador de aplicaciones sabiendo que este había anunciado abiertamente que se reservaba el derecho a revelar datos personales a terceros; concluye, además, que Facebook es el responsable del tratamiento de datos personales y que, por consiguiente, es jurídicamente responsable cuando celebra un contrato con un procesador que viola la legislación de la UE en materia de protección de datos;

18.  Toma nota de las mejoras en materia de privacidad introducidas por Facebook después del escándalo Facebook / Cambridge Analytica, pero recuerda que Facebook prometió realizar una auditoría interna completa de la que el Parlamento Europeo todavía no ha sido informado, y recomienda a Facebook que introduzca modificaciones sustanciales en su plataforma para asegurar su conformidad con la legislación de la Unión en materia de protección de datos;

19.  Insta a Facebook a que permita y posibilite a ENISA y al CEPD, dentro de los límites de sus respectivos mandatos, llevar a cabo una auditoría completa e independiente de su plataforma y presentar los resultados de dicha auditoría a la Comisión Europea, al Parlamento Europeo y a los parlamentos nacionales; opina que este ejercicio debe llevarse a cabo también en otras plataformas importantes;

20.  Destaca la urgencia de contrarrestar cualquier intento de manipular las elecciones de la UE y de reforzar las normas aplicables a las plataformas en línea con respecto a la interrupción de los ingresos publicitarios de las cuentas y sitios web que difunden información falsa; acoge con satisfacción los planes de trabajo individuales que establecen acciones concretas para luchar contra la desinformación en todos los Estados miembros de la UE que las plataformas en línea y la industria de la publicidad presentaron a la Comisión el 16 de octubre de 2018; insta a las plataformas en línea a que etiqueten los contenidos compartidos por bots mediante la aplicación de normas de transparencia para acelerar la eliminación de cuentas falsas para cumplir las órdenes judiciales de proporcionar información sobre las personas que crean contenido ilegal y a trabajar con verificadores independientes de hechos y con el mundo académico para informar a los usuarios sobre información falsa con alcance significativo y para ofrecer correcciones cuando sea posible.

21.  Pide a todas las plataformas en línea que presten servicios publicitarios a partidos políticos y a campañas electorales que incluyan en el equipo de ventas a personal experto que pueda prestar a los partidos políticos y las campañas un asesoramiento específico sobre transparencia y responsabilidad en relación con la manera de evitar que se utilicen los datos para los usuarios destinatarios; pide a todas las plataformas en línea que permitan a los compradores de publicidad realizar determinadas selecciones para proporcionar asesoramiento jurídico sobre las responsabilidades de dichos compradores en calidad de corresponsables de los datos, a raíz de una sentencia del TJUE en el asunto C-210/16;

22.  Pide a todas las plataformas en línea que desplieguen con carácter de urgencia las medidas de transparencia previstas en relación con la publicidad política, que deberán incluir la consulta y la evaluación de estas herramientas por parte de las autoridades nacionales encargadas de la observación y el control electorales; insiste en que dicha publicidad política y electoral no debe realizarse sobre la base de perfiles de usuarios individuales;

23.  Pide a los Estados miembros que adapten las normas electorales a las campañas en línea, incluidas las relativas a la transparencia sobre la financiación, los periodos de reflexión electoral y el papel de los medios de comunicación y de la desinformación;

24.  Recomienda que se exija la realización de auditorías por terceros una vez concluidas las campañas de referéndum con el fin de garantizar la eliminación de los datos personales recogidos en el marco de la campaña o, en caso de haberse compartido, que estos se han obtenido con el correspondiente consentimiento;

25.  Pide a Facebook que mejore la transparencia con el fin de permitir a los usuarios comprender el modo y el motivo por el que un partido político o una campaña pueden dirigirse a ellos;

26.  Opina que debe dotarse a las autoridades de protección de datos de financiación adecuada para desarrollar unos conocimientos técnicos equivalentes a los que poseen las organizaciones sujetas al control; pide a los Estados miembros que garanticen que las autoridades responsables de la protección de datos dispongan de los recursos humanos, técnicos y financieros necesarios para el desempeño eficaz de sus tareas y el ejercicio de sus competencias, de conformidad con el artículo 52 del Reglamento general de protección de datos; insta a la Comisión a que controle estrechamente a los Estados miembros por lo que respecta a su obligación de poner estos recursos a disposición y, en caso necesario, a que inicie procedimientos de infracción;

27.  Recuerda que Facebook es una organización autocertificada en el marco del Escudo de la privacidad UE-Estados Unidos y, como tal, se ha beneficiado de la decisión de adecuación como fundamento jurídico para la transferencia y posterior tratamiento de datos personales de la Unión Europea a los Estados Unidos;

28.  Recuerda su Resolución, de 5 de julio de 2018, sobre la adecuación de la protección conferida por el Escudo de la privacidad UE-EE.UU. y, a la luz de la confirmación por parte de Facebook de que se han producido graves violaciones de la privacidad, pide a las autoridades de los Estados Unidos responsables de la aplicación del Escudo de la privacidad que reaccionen a tales revelaciones sin demora en pleno cumplimiento de las garantías y los compromisos hechos para mantener el actual acuerdo del Escudo de la privacidad y, en caso necesario, para retirar a dichas empresas de la lista del Escudo de la privacidad; celebra, en este contexto, la supresión de Cambridge Analytica del escudo de la privacidad en junio de 2018; pide también a las autoridades de la Unión competentes para la protección de datos que investiguen esas revelaciones y, si fuera necesario, suspendan y prohíban la transferencia de datos en el marco del Escudo de la privacidad; espera que la Comisión Federal de Comercio, como autoridad estadounidense responsable, facilite a la Comisión un resumen detallado de sus conclusiones una vez concluida su investigación sobre la violación de datos en la que están involucrados Facebook y Cambridge Analytica y que adopte las medidas coercitivas oportunas contra las empresas implicadas que tengan un efecto disuasorio eficaz;

29.  Lamenta que no se haya respetado el plazo del 1 de septiembre de 2018 para que los Estados Unidos cumplan plenamente lo dispuesto en el Escudo de la privacidad; considera, por consiguiente, que la Comisión no ha actuado de conformidad con el artículo 45, apartado 5, del Reglamento general de protección de datos; insta, por lo tanto, a la Comisión a que, de acuerdo con la Resolución del Parlamento, de 5 de julio de 2018, sobre la adecuación de la protección conferida por el Escudo de la privacidad UE-EE.UU., suspenda el Escudo de privacidad hasta que las autoridades de los Estados Unidos cumplan las condiciones de este acuerdo;

30.  Señala que el uso indebido de datos personales afecta a los derechos fundamentales de miles de millones de personas en todo el mundo; considera que el Reglamento general de protección de datos y la Directiva sobre la privacidad electrónica prevén las normas de protección más estrictas; lamenta que Facebook decidiera excluir a 1 500 millones de usuarios no pertenecientes a la UE del ámbito de protección del Reglamento general de protección de datos y de la Directiva sobre la privacidad electrónica; pone en tela de juicio la legalidad de esta medida; insta a todas las plataformas en línea a que apliquen las normas del Reglamento general de protección de datos (y la privacidad electrónica) a todos sus servicios, independientemente del lugar en el que se ofrezcan, ya que un elevado nivel de protección de los datos personales se considera cada vez más una ventaja competitiva importante;

31.  Pide a la Comisión que mejore las normas de competencia para reflejar la realidad digital y que examine el modelo empresarial de las plataformas de redes sociales y su posible situación de monopolio, teniendo debidamente en cuenta el hecho de que tal monopolio puede estar presente debido al carácter específico de la marca y a la cantidad de datos personales de que dispone más que a una situación de monopolio tradicional, y que adopte las medidas necesarias para remediar esta situación; pide a la Comisión que proponga modificaciones del Código Europeo de las Comunicaciones Electrónicas con el fin de exigir igualmente a los proveedores de comunicaciones de transmisión libre que se interconecten entre ellos, con el fin de evitar el efecto de bloqueo para sus usuarios;

32.  Solicita que el Parlamento Europeo, la Comisión, el Consejo y todas las demás instituciones, agencias y organismos de la Unión Europea verifiquen que las páginas de redes sociales y los instrumentos analíticos y de comercialización en sus respectivos sitios web no ponen en modo alguno en riesgo los datos personales de los ciudadanos; sugiere que evalúen sus actuales políticas de comunicación desde esta perspectiva, lo que podría implicar la posibilidad de cerrar sus cuentas de Facebook como condición necesaria para proteger los datos personales de todas las personas que se pongan en contacto con ellos; encarga a su propio servicio de comunicaciones que se adhiera estrictamente a las directrices del SEPD relativas a la protección de datos personales a través de servicios web prestados por las instituciones de la UE (15);

33.  Considera que la próxima Comisión Europea debe asignar específicamente a uno de sus miembros la cartera de protección de datos y protección de la privacidad, con vistas a comprometer proactivamente a socios, dentro y fuera de la Unión, a velar por que todas las propuestas legislativas cumplan plenamente el acervo jurídico de la Unión en materia de protección de datos y protección de la privacidad;

34.  Insta al Consejo a que ponga fin al bloqueo con respecto al Reglamento sobre la privacidad electrónica y a que alcance por fin un acuerdo con el Parlamento sin rebajar el nivel de protección actual con el fin de garantizar la protección que ofrece en la actualidad la Directiva relativa a la privacidad electrónica, de modo que se garanticen los derechos de los ciudadanos, en particular los relativos a la protección de los usuarios contra el «targeting» (clasificación del público objetivo);

35.  Solicita que la Comisión lleve a cabo una auditoría de las actividades del sector publicitario en los medios sociales y que presente propuestas legislativas en el caso de que el sector y las partes interesadas no puedan llegar a un acuerdo sobre códigos de conducta voluntarios con medidas disuasorias;

36.  Pide a las autoridades responsables de la protección de datos a escala nacional y europea que lleven a cabo una investigación a fondo de Facebook y sus actuales prácticas de modo que el nuevo mecanismo de coherencia del Reglamento general de protección de datos sirva para garantizar una respuesta adecuada y eficaz a escala de la Unión;

37.  Pide a los Estados miembros que adopten medidas para hacer frente a los riesgos para la seguridad de las redes y los sistemas de información utilizados para la organización de elecciones;

38.  Opina que los Estados miembros deben colaborar con terceras partes, incluidos los medios de comunicación, plataformas en línea y proveedores de tecnología de la información, en actividades de sensibilización destinadas a aumentar la transparencia de las elecciones y crear la confianza en el proceso electoral;

39.  Considera que los Estados miembros deben iniciar urgentemente, con el apoyo de Eurojust, si fuera necesario, una investigación sobre el supuesto uso indebido del espacio político en línea por las potencias extranjeras;

40.  Encarga a su presidente que transmita la presente Resolución al Consejo, a la Comisión, a los Gobiernos y los Parlamentos de los Estados miembros y de los Estados Unidos de América, al Consejo de Europa y al director ejecutivo de Facebook.

—————————————————————————–

(1) DO L 119 de 4.5.2016, p. 1.

(2) DO L 119 de 4.5.2016, p. 89.

(3) DO L 207 de 1.8.2016, p. 1.

(4) Textos Aprobados, P8_TA(2018)0315.

(5) ECLI:EU:C:2015:650.

(6) ECLI:EU:C:2018:37.

(7) ECLI:EU:C:2018:388.

(8) https://edps.europa.eu/sites/edp/files/publication/18-03-19_online_manipulation_en.pdf

(9) http://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053

(10) http://www.europarl.europa.eu/the-president/en/newsroom/answers-from-facebook-to-questions-asked-during-mark-zuckerberg-meeting

(11)http://www.europarl.europa.eu/resources/library/media/20180604RES04911/20180604RES04911.pdf

(12) DO L 45 de 17.2.2018, p. 40.

(13) https://ico.org.uk/media/action-weve-taken/2259369/democracy-disrupted-110718.pdf https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2018/07/findings-recommendations-and-actions-from-ico-investigation-into-data-analytics-in-political-campaigns/

(14) https://www.beuc.eu/publications/beuc-x-2018-067_ep_hearing_facebook-cambridge_analytica.pdfhttp

(15) https://edps.europa.eu/sites/edp/files/publication/16-11-07_guidelines_web_services_en.pdf