A nova Lei Alemã que obriga provedores de Redes Sociais a remover conteúdo publicado por usuários. Um modelo para o Brasil?

A NOVA LEI ALEMÃ QUE OBRIGA PROVEDORES DE REDES SOCIAIS A REMOVER CONTEÚDO PUBLICADO POR USUÁRIOS – Um modelo para o Brasil?

 

Demócrito Reinaldo Filho

Desembargador do TJPE

 

 

Entrou em vigor no dia 1º. de janeiro deste ano, na Alemanha, a lei que obriga os controladores de plataformas e serviços de redes sociais a  fazer a remoção de conteúdo ilícito ou ofensivo, sempre que receberem reclamação por alguém que se sinta ofendido por informação postada por um terceiro[1].  A Lei recebeu o título de “Netzwerkdurchsetzungsgesetz “ (em tradução livre: “Lei de Aplicação na Internet”), mas ficou conhecida simplesmente por “NetzDG”, e já havia sido aprovada desde junho do ano passado, mas só entrou em vigor este ano para que os provedores se adaptassem às suas exigências.

A Lei obriga os provedores de redes sociais a adotarem um sistema de “notice and takedown”, ou seja, eles são obrigados a instalar um sistema de gerenciamento de denúncias e queixas a respeito de publicações com conteúdo ilícito ou ofensivo.  Em caso de conteúdo “visivelmente ilícito”, o provedor tem que decidir sobre a remoção (ou não) em 24 horas; em se tratando de informação não claramente ilegal, a remoção pode ser feita em até 07 dias (e, em alguns casos, até além desse prazo). Os provedores também estão obrigados a produzir relatório anual detalhando o número das postagens excluídas e por quais motivos. Em caso de violações aos termos da Lei, as empresas que prestam serviços de redes sociais podem ser multadas em até 50 milhões de euros, dependendo da gravidade da infração. A Lei só vale para provedores que tenham acima de 2 milhões de usuários e estão expressamente excluídos de sua abrangência os aplicativos de envio de mensagens instantâneas (a ex. do Whatsapp), assim como os jornais e veículos de comunicação na versão online. Cidadãos podem denunciar violações da Lei ao Departamento Federal de Justiça da Alemanha (BfJ) [2]. Ainda, com o objetivo de torná-la eficaz em relação a provedor que não tenha presença física ou subsidiária situada em território alemão, a Lei obriga que indique um representante, a quem podem ser dirigidas as reclamações dos usuários ou pedidos de informação do órgão governamental (o BfJ).

O fato de a Alemanha ter sido um dos primeiros países a regular a obrigação dos provedores de remover conteúdo ilegal pode ser explicado pela história desse país. A Alemanha é um país traumatizado com questões de discriminação racial desde a época do nazismo e tem uma política de constante policiamento contra o “discurso do ódio” (hate speech). Tem leis que proíbem a qualquer pessoa negar a existência do Holocausto[3]. Além disso, autoridades do governo alemão já vinham reclamando que os provedores de redes sociais não estavam tomando as medidas necessárias para combater a difusão do conteúdo racista e difamatório compartilhado na Internet[4]. Obviamente que também apressou a edição da Lei a eclosão do escândalo das chamadas fake news, quando se ficou sabendo que a legitimidade da eleição de Donald Trump para o governo dos EUA poderia ter sido afetada por notícias fabricadas por agentes russos, comprovando que a difusão massificada de material informacional falso pode inclusive afetar os regimes democráticos.

Os provedores já começaram a se estruturar para se adaptar à nova Lei. O Google já criou um formulário online para receber denúncias, enquanto o Twitter adicionou uma opção à sua função de denúncia já existente. O Facebook informou que contratou centenas de novos funcionários na Alemanha para conseguir lidar com as denúncias no país a tempo de atender as exigências da “NetzDG” [5].

O processo de adaptação à nova Lei não veio no entanto despido de críticas.  A nova legislação recebeu muita resistência, particularmente da legenda populista de direita AfD, que classificou a “NetzDG” como uma “lei de censura”. Parlamentar e uma das principais figuras públicas da legenda nacionalista, Beatrix von Storch teve suas contas no Twitter e Facebook temporariamente suspensas depois de criticar felicitações de Ano Novo feitas em árabe pela polícia de Colônia[6]. A suspensão das contas deu margem a que outro líder da AfD, Alexander Gauland, saísse com o discurso populista de que a aprovação da Lei significava o “fim da liberdade de opinião” e que ela instituía “métodos da Stasi”, em referência à notória polícia política da antiga Alemanha Oriental[7]. As críticas não partiram apenas da extrema-direita alemã. Organizações de jornalistas, como a Repórteres Sem Fronteiras (RSF), e ativistas da internet levantaram objeções à “NetzDG”, alegando que a Lei “privatiza” o controle sobre o fluxo das comunicações,  já que deixa para as empresas privadas (os provedores) a tarefa de excluir e bloquear conteúdos, ao invés desse controle ser feito pelo Judiciário[8]. Atribuindo esse poder com exclusividade aos provedores, será difícil descobrir por quais motivos postagens foram excluídas, argumentam. Além disso, existe a preocupação de que a Lei quebre a neutralidade do Governo, já que dá poderes de fiscalização ao Departamento Federal de Justiça da Alemanha (BfJ)[9].

Essas críticas, no entanto, não procedem. Primeiro porque não há qualquer risco à liberdade de expressão na Internet. Todas as empresas jornalísticas e veículos de comunicação em versões online, ou seja, a mídia tradicional, constituída por profissionais do jornalismo, que já exerce controle editorial prévio sobre o conteúdo que publica, não é alcançada pela Lei[10]. O legislador teve o cuidado de excluir também do alcance da Lei os sistemas e aplicativos de mensagens eletrônicas (como Whatsapp e Telegram)[11], já que a comunicação nesses sistemas não é feita “para o público em geral”, mas limitada a indivíduos e usuários específicos que se comunicam de forma privada. Como se observa, todos os outros subespaços da rede mundial de comunicação foram preservados e provedores de outros serviços não foram onerados com a obrigação de gerenciamento do conteúdo informacional que circula em seus sistemas. A Lei foi precisa em limitar sua abrangência às redes sociais, assim entendidas as “plataformas” ou sistemas informáticos que permitem a publicação de conteúdo de forma instantânea e pelos próprios usuários sem qualquer tipo de controle. Só isso já seria suficiente para afastar qualquer alegativa de que poderá haver “censura” na rede ou diminuição dos espaços para a livre circulação de ideias e pensamentos.

O que o legislador da “NetzDG” pretendeu foi atribuir ao provedor de rede social um  mínimo de responsabilidade editorial pelo que é publicado em seu sistema.   Os controladores de plataformas de redes sociais não fazem uma checagem eficaz da identidade de seus usuários, permitindo que pessoas mal intencionadas se favoreçam dessa “anonimização” para cometer toda sorte de crimes e atentados contra direitos de outrem. Por outro lado, os provedores receberam imunização por qualquer tipo de conteúdo gerado pelos seus usuários. Foram beneficiados em diversos países, como aconteceu aqui no Brasil[12], por leis que os isentam de responsabilidade pelo que é publicado pelos usuários. Isso gera um ambiente propício para a lesão de direitos e propagação de crimes sem que haja qualquer tipo de reparação para as vítimas. Os editores diretos da publicação ilícita ficam encobertos pela “anonimização” que os sistemas conferem e o provedor, por sua vez, fica indiferente a tudo isso, sem ânimo para tomar qualquer iniciativa para reprimir a propagação do ilícito, ciente de que não pode ser responsabilizado. A Lei alemã altera essa realidade, ao atribuir obrigação ao provedor para que faça a análise do conteúdo postado por um usuário do seu sistema (plataforma), sempre que receber uma reclamação.

A Lei “NetzDG” criou o que eu chamo de  “controle editorial postergado”, ou seja, não se exige do provedor que faça uma varredura ou monitoramento prévio sobre o conteúdo das mensagens e informações que são postadas por seus usuários em sua plataforma. Trata-se de um controle editorial diferido para um momento posterior, que só é exercido se o provedor for instigado por meio de uma denúncia.  O provedor só realiza o exame da ilicitude do conteúdo publicado por um terceiro (usuário da plataforma) se outra pessoa, ofendida com a publicação, fizer uma reclamação formal. A partir daí é que o provedor toma a iniciativa de analisar a natureza da informação publicada e, verificando que se trata de conteúdo ilícito ou potencialmente nocivo à reputação ou honra da pessoa queixosa, pode remover a publicação ou deixá-la como está (assumindo, nesse caso, a responsabilidade pelas consequências).

O gerenciamento de reclamações, verdadeiro controle editorial posterior, não compromete o modelo de “redes sociais” criado pelas empresas de tecnologia da Internet. As redes sociais não morrerão por isso. Desse modo se preserva o funcionamento delas, não se embotando a inovação tecnológica, mas também não se permite que a difusão da informação nesses espaços de convivência virtual se faça de uma maneira completamente irresponsável, comprometendo outros direitos e princípios democráticos. Por outro lado, não há que se ter preocupação quanto ao rigor ou excesso com que os controladores das plataformas venham a realizar o gerenciamento das reclamações. Poderá ocorrer de alguma publicação não ter um conteúdo ilícito aparente e, ainda assim, o controlador do sistema optar por deletá-la. Isso pode acontecer eventualmente, da mesma forma que um jornal ou qualquer outro veículo de comunicação faz suas escolhas editoriais. Para evitar a responsabilização solidária, o provedor da rede social pode, sim, ser muito cauteloso e optar por deletar ou bloquear determinado conteúdo que tenha uma carga mínima de ilicitude ou pouca aparência de ilegalidade. Mas é assim mesmo que deve funcionar. Trata-se do seu exercício, agora imposto pela lei, do controle editorial posterior sobre a informação postada pelos usuários em sua plataforma (rede social).

Também é errado pensar que a “NetzDG” dá mais poder às empresas gigantes da Internet; muito pelo contrário, está se criando novas obrigações para elas, tanto que resistiram (e ainda resistem) a leis dessa natureza. O ofendido por uma publicação não bloqueada poderá sempre recorrer ao Judiciário para pedir a remoção do conteúdo não retirado pelo provedor ou sua condenação pelos danos causados. Acredito, por fim, que a designação de uma agência governamental para fiscalizar o cumprimento da Lei e aplicar multas em caso de sua inobservância não implicará em algum tipo de intervenção ou influência estatal no modo como os provedores vão fazer a análise das reclamações. O Departamento Federal de Justiça da Alemanha (BfJ), órgão governamental encarregado de supervisionar a aplicação da Lei,  não vai realizar censura de conteúdo ou de qualquer forma se sobrepor ao provedor no exame da ilegalidade de alguma postagem feita por usuário da rede social. A fiscalização ficará limitada a verificar se o provedor disponibiliza formulário ou algum mecanismo para receber reclamações, se faz gerenciamento e análise dessas reclamações dentro dos prazos previstos, se comunica às partes interessadas a decisão tomada (em relação à remoção ou não do conteúdo) etc. Ademais, a Subseção 5 da Seção 4 da Lei prevê que “se a autoridade administrativa desejar basear sua decisão sobre o fato de os conteúdos não removidos ou não bloqueados serem ilegais” ela “deve primeiro obter uma decisão judicial estabelecendo a ilegalidade da decisão” (antes tomada pelo provedor)[13]. O Judiciário, como se vê, fica sempre com a última palavra sobre a questão da remoção do conteúdo.

Como se observa, a Lei nos seus aspectos gerais é boa e pode servir como modelo para o Brasil. Na minha opinião, no entanto, a “NetzDG” ainda é muito tímida e conservadora, pois poderia ter avançado mais na regulação de certos aspectos. Os pontos negativos residem no estabelecimento de prazos longos para análise e remoção de certos conteúdos e na limitação do seu âmbito a provedores com mais de 2 milhões de usuários. A Lei confere o prazo de 07 dias para análise e (sendo o caso) remoção de conteúdo que não seja “obviamente ilegal”, prazo esse que pode ser elastecido mais ainda se “a decisão quanto à ilegalidade do conteúdo depende da falsidade da declaração de um fato ou de outras circunstâncias factuais”[14] ou se “a rede social transfere a decisão sobre a ilegalidade” a um órgão auto-regulatório[15]. Ora, esperar tanto tempo por uma decisão e, ao depois verificar a ilicitude do conteúdo, terá sido inútil, pois os efeitos lesivos da publicação já terão se espraiado. O certo seria estabelecer a obrigatoriedade de o provedor tomar toda e qualquer decisão dentro de 24 após receber a queixa. Se tem dúvida quanto à natureza da publicação, então que remova o material até que complete a análise; uma vez completada, pode, se for o caso, restabelecê-la. O prazo de 24 horas já vinha sendo considerado como razoável para o provedor fazer a remoção de uma publicação pela jurisprudência de diversos países, inclusive no Brasil[16]. Quanto à questão do alcance da Lei, é certo que o editor da “NetzDG” pretendeu focar nos grandes provedores de redes sociais (como Facebook, Twitter, Google, YouTube, Snapchat e Instagram), ao limitar sua aplicação aos provedores com mais de 2 milhões de usuários. Mas ao limitar seu alcance deixou os menores sem qualquer tipo de obrigação, o que não é conveniente. A Lei deveria ser mais abrangente e alcançar qualquer tipo de sistema informático que possibilite a publicação instantânea de material informacional diretamente pelos usuários.

Como disse, a Lei alemã é boa e pode servir perfeitamente como um paradigma legislativo, desde que aperfeiçoada. Acredito até que nem precisamos de uma lei tão detalhista quanto a germânica. O que precisamos mesmo é revogar imediatamente o famigerado art. 19 do “Marco Civil da Internet” (Lei n. 12.965/14), que atribuiu uma imunidade absoluta aos provedores de serviços na rede mundial de comunicação, impedindo que se lhes atribua qualquer tipo de controle editorial, ainda que postergado[17]. A simples revogação desse dispositivo já seria suficiente para que os provedores passassem a realizar um gerenciamento de reclamações e queixas em relação a publicações em suas plataformas, como ocorria antes de sua vigência. Antes dele, valia a jurisprudência do STJ no sentido de que, uma vez notificado pela parte interessada, o provedor tem que retirar o conteúdo em 24 horas, sob pena de ser responsabilizado solidariamente.

Recife, 12 de janeiro de 2018.

 

 

[1] Ver notícia publicada em 02.01.18 no  Estado de São Paulo sobre a entrada em vigor da Lei “NetzDG”, acessível em: http://link.estadao.com.br/noticias/geral,na-alemanha-entra-em-vigor-lei-que-multa-redes-sociais-por-discurso-de-odio,70002136202

[2] O texto da “NetzDG” pode ser acessado em: https://www.buzer.de/s1.htm?g=NetzDG&f=1

[3] Como ficou conhecida a perseguição e o extermínio sistemático, burocraticamente organizado e patrocinado pelo governo nazista, de aproximadamente seis milhões de judeus.

[4] Desde o início do ano passado o Ministro da Justiça germânico, Heiko Maas, vinha alertando que as redes sociais não estavam fazendo o suficiente para apagar todo o conteúdo racista e difamatório partilhado na Internet. Ver notícia publicada em 14.03.17, acessível em: https://www.publico.pt/2017/03/14/tecnologia/noticia/alemanha-aperta-o-cerco-as-redes-sociais-por-causa-das-noticias-falsas-1765165

[5] Ver a notícia já citada e publicada no Estado de SP em 02.01.18.

[6] Ver notícia publicada no portal Terra, em 02.01.18, acessível em:

https://www.terra.com.br/noticias/lei-contra-discurso-de-odio-na-internet-entra-em-vigor-na-alemanha,d2fa58d6438aeba80dada287754d117cljb24a8c.html

[7] Ver notícia publicada na versão em inglês da revista Der Spiegel, em 04.01.18, acessível em: http://www.spiegel.de/international/germany/german-populists-take-on-twitter-and-the-judiciary-a-1186233.html

[8] Conforme notícia publicada no site da Deutsche Welle (DW), em 02.01.18 , acessível em: http://www.dw.com/pt-br/lei-contra-discurso-de-%C3%B3dio-na-internet-entra-em-vigor-na-alemanha/a-41996447

[9] Ver notícia publicada no site da ANJ, em 02.01.18, acessível em: http://www.anj.org.br/site/associe-se/73-jornal-anj-online/4393-na-alemanha-lei-contra-odio-nas-redes-estreia-com-criticas-de-censura-e-desconfianca.html

[10] O legislador teve a preocupação de excluir expressamente os jornais e veículos noticiosos na Internet de seu alcance. No artigo primeiro da Seção 1, que trata do âmbito de aplicação da Lei, está dito que “Plataformas com ofertas editoriais jornalísticas, que são da responsabilidade do prestador de serviços, não são consideradas redes sociais na acepção desta Lei” – na redação original em alemão: Plattformen mit journalistisch-redaktionell gestalteten Angeboten, die vom Diensteanbieter selbst verantwortet werden, gelten nicht als soziale Netzwerke im Sinne dieses Gesetzes.

[11] No mesmo artigo primeiro da Seção 1,  também fica expresso que os aplicativos de mensagens não são considerados como redes sociais, para fins de aplicação da Lei, nos seguintes termos: “O mesmo se aplica às plataformas destinadas a comunicação individual ou à distribuição de conteúdo específico” – na redação original em alemão: Das Gleiche gilt für Plattformen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind.

[12] O art. 19 do Marco Civil da Internet (Lei n. 12.965/14) conferiu uma imunidade absoluta aos “provedores de aplicações”, com uma extensão que não é encontrada em qualquer outro país. No Brasil, o provedor não precisa tomar qualquer providência em relação a uma publicação de conteúdo ilícito, ainda que notificado pelo ofendido. Tem o direito de ficar completamente inerte, até que receba uma ordem judicial determinando a remoção do material ilícito.

[13] A disposição citada no original do texto da Lei, escrita em alemão: (5) Will die Verwaltungsbehörde ihre Entscheidung darauf stützen, dass nicht entfernte oder nicht gesperrte Inhalte rechtswidrig im Sinne des § 1 Absatz 3 sind, so soll sie über die Rechtswidrigkeit vorab eine gerichtliche Entscheidung herbeiführen.

[14] A Lei prevê que, nessas hipóteses em que a análise da legalidade do conteúdo publicado depende da verificação de certas circunstâncias de fato, o provedor pode dar ao usuário que fez a publicação oportunidade para que responda à queixa antes de proferir qualquer decisão.

[15] A Lei prevê que os provedores podem se associar e criar um órgão auto-regulatório, com a finalidade de fazer a análise de conteúdos informacionais, para melhor amparar decisões de remoção ou bloqueio do acesso.

[16] Antes da aprovação do famigerado art. 19 do Marco Civil da Internet (Lei n. 12.965/14), a jurisprudência do STJ era assente no sentido de que o provedor tinha o dever de remover a publicação denunciada como ofensiva ou ilícita em 24 horas, sob pena de ser responsabilizado solidariamente a reparar eventual lesão causada. Nesse sentido: REsp 1.406.448/RJ, julgado em 15/10/2013 (DJe 21/10/2013),

[17] O art. 19 do Marco Civil da Internet (Lei n. 12.965/14) retirou do provedor qualquer obrigação de fazer análise do conteúdo de uma publicação, ainda que notificado pela pessoa ofendida. Seu texto garante ao provedor que somente deverá agir para remover conteúdo ilícito quando receber uma ordem judicial. A sua redação é a seguinte: “Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.