fbpx
Fundação Podemos
/
/
Acervo Temático: Experiências Internacionais no Combate às Fake News

Acervo Temático: Experiências Internacionais no Combate às Fake News

O tema de moderação das redes sociais pelo poder público é um assunto internacional. Diversos países tomaram a frente nesse tema e aprovaram leis que prevêm este tipo de moderação. Com diferentes formatos, cada experiência internacional pode nos auxiliar no debate brasileiro.

Em vistas do PL das Fake News, que tramita no Congresso Nacional há três anos, discutimos neste Acervo Temático de que maneira o tema está sendo tratado por outros países e organizações internacionais. Primeiro, verificamos o caso do Canadá, em seguida da Alemanha, depois da França e, por fim, da União Europeia.

CANADÁ

O caso da Canadá dialoga com a questão de remuneração da imprensa, que tratamos no Acervo Temático da semana passada. No caso brasileiro, está sendo discutido que as plataformas de redes sociais não poderão remover posts da imprensa, mesmo em caso de desinformação praticados pelos canais de informação. No art. 32, visa-se a valorização do jornalismo profissional nacional, definindo-se que os conteúdos jornalísticos ensejarão remuneração por parte dos provedores. Na prática, a imprensa poderá monetizar seus conteúdos mais facilmente.

O Canadá tomou uma iniciativa similar em 2022. No caso canadense, as empresas de redes sociais tinham que dar uma remuneração a cada click nos links jornalísticos. Ainda que o projeto precise passar pelo Senado do país, as empresas de big tech já responderam à iniciativa.

O Google fez um teste de limitar, por cinco semanas, o acesso a notícias a 3,3% dos usuários da plataforma. Isso significa, como apontou a BBC, que mais de 1 milhão de pessoas pararam de receber como resultado de busca conteúdos jornalísticos. Ou seja, a própria plataforma, testando uma forma de evitar esta monetização, limitou os resultados de buscas, evitando que conteúdos jornalísticos aparecessem como resultado de buscas para uma parcela significativa da população canadense.

A empresa prontamente se posicionou, entretanto, afirmando que se tratava de um estudo de novos mercados.

O CASO DA ALEMANHA

A Alemanha foi pioneira em responsabilizar as redes sociais pelo conteúdo que são nelas divulgados. Servindo como base para a legislação brasileira, Network Enforcement Act (NetzDG, lei de aplicação de rede, em português) é uma espécie de moderação das redes sociais. A lógica por trás da legislação é a de que os provedores não são responsáveis pelo que é postado, mas devem ser responsáveis em retirar o conteúdo postado caso ele infrinja as leis.

Há um debate amplo sobre essa responsabilização, sobretudo devido ao tamanho dos provedores. Isso implica que, para um maior controle e para não incorrer em sanções, os provedores automatizam a moderação das redes sociais, gerando erros – conteúdo é retirado mesmo sem ter incorrido em crime ou, pior, conteúdo é mantido mesmo incorrendo em crime. No caso alemão, desde 2017, a lei regula os provedores que possuem uma média mensal de mais de 2 milhões de acessos.

Nesse sentido, a lei alemã é mais “dura” por abranger ainda mais provedores. Obviamente, devemos fazer ressalvas ao contingente populacional – isto é, o público em potencial – dos países. O Brasil é imensamente mais populoso que a Alemanha, portanto, faz sentido que o número base de acesso por mês seja maior por aqui.

Algumas alterações estão em vistas na legislação alemã. São elas:

  • os operadores deverão fornecer justificativa para a retirada do conteúdo;
  • será possível recorrer da decisão de retirada do conteúdo, solicitando seu reexame;
  • instituição de paneis de resolução de conflitos.

A POLÊMICA FRANCESA

Em 2018, na esteira da aprovação da lei na Alemanha, o Parlamento Francês aprovou uma lei de combate às notícias falsas. A decisão visava o período eleitoral, buscando evitar que a propagação de notícias falsas influenciasse o pleito.

Com apoio do presidente Emmanuel Macron, a lei permite que candidatos ajuízem processos para remover notícias. Além disso, força o Facebook – hoje, a Meta – a divulgar a fonte de financiamento de publicações nas redes sociais.

Vemos, nesse sentido, que a lei francesa difere substancialmente da brasileira, pois se dedica a um período específico; isto é, aos anos eleitorais.

O DEBATE ATUAL NA UNIÃO EUROPEIA

Há no momento duas inciativas da União Europeia: o Digital Services Act (DAS; lei de serviços digitais, em português) e o Digital Markets Act (DMA; lei dos mercados digitais, em português).

A discussão recente é que o DAS, que visa regular os serviços de rede sociais, não possui um mecanismo de resolução de conflitos. Isso significa que uma vez que o conteúdo for removido, não é possível contestar. Especialistas apontam que isso poderá acarretar problemas constitucionais da UE.

A questão do risco sistêmico é presente no DAS, assim como no Brasil. Um movimento bastante ousado do DAS é determinar que a redes sociais abram seus algoritmos que definem aquilo que fica no topo do feed, ou seja, aquilo que terá maior alcance.

COMENTÁRIOS GERAIS

Existe um movimento internacional de regulação das redes sociais. De um lado, o movimento é bem-visto para combater a desinformação e a propagação de notícias falsas por meio da moderação das redes sociais. De outro, afirmam que o PL das fake news é um tipo de censura, o que levou a oposição a apelidar o projeto de PL da Censura.

Nos parece que a legislação brasileira é muito baseada no que foi feito na Alemanha e o que está sendo debatido na União Europeia, aplicando algumas das especificidades do país – como, por exemplo, o contingente populacional.

Há algumas medidas interessantes com o fim de trazer mais transparência para o espaço virtual. Ao mesmo tempo, instigou o debate sobre arena pública e ganhos privados praticados pelos provedores.

Nos parece, entretanto, que um sistema de resolução de conflitos poderia deixar a legislação mais robusta e evitar a extrema judicialização de casos. Além disso, deveria haver medidas para que a moderação fosse feita de forma humana, aumentando o pessoal voltado para este controle. Deixar a mercê de que os provedores façam a moderação de forma robotizada incorrerá em diversos erros por meio da plataforma que poderão, aí sim, impactar na liberdade de expressão. De qualquer maneira, o debate é complexo e merece toda atenção.

 

Observação: Esse conteúdo não representa, necessariamente, a opinião da Fundação Podemos.

Compartilhe:
como citar
Últimas publicações
Acompanhe nosso conteúdo
plugins premium WordPress