Quanto tempo deve demorar uma rede social a eliminar conteúdo extremista? Uma hora
A “regra de uma hora” é uma proposta de Bruxelas com ameaça nada velada: se as tecnológicas não mostrarem resultados nos próximos três meses, pode vir a a ser lei à escala europeia.
A Comissão Europeia quer que as plataformas sociais – como o Facebook, o Twitter e o YouTube – removam conteúdo extremista dos seus sites uma hora depois de ser detectado pela Europol ou por outra entidade competente. A proposta faz parte de um conjunto de recomendações publicadas, esta quinta-feira, sobre “conteúdo ilegal online”: isto inclui pornografia infantil, promoção de produtos perigosos, discurso de ódio, e material a promover o terrorismo.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
A Comissão Europeia quer que as plataformas sociais – como o Facebook, o Twitter e o YouTube – removam conteúdo extremista dos seus sites uma hora depois de ser detectado pela Europol ou por outra entidade competente. A proposta faz parte de um conjunto de recomendações publicadas, esta quinta-feira, sobre “conteúdo ilegal online”: isto inclui pornografia infantil, promoção de produtos perigosos, discurso de ódio, e material a promover o terrorismo.
“Aquilo que é ilegal offline também é ilegal online”, frisa Andrus Ansip, o vice-presidente da Comissão Europeia com o pelouro do Mercado Único Digital, em comunicado. “Embora várias plataformas estejam a remover mais conteúdo ilegal do que nunca – mostrando que a auto-regulação pode funcionar – precisamos de reagir mais depressa.”
Em 2017, por exemplo, YouTube removeu perto de 50 mil vídeos do radical islâmico Anwar al-Awlaki – mas isso só aconteceu seis anos após a sua morte. A Comissão Europeia quer facilitar as denúncias de conteúdo ilegal, mais cooperação da parte das plataformas online com as autoridades, e relatórios trimestrais das empresas com os resultados e o nível de sucesso que estão a obter. Para já, porém, são apenas recomendações.
“A Comissão vai monitorizar a resposta dada e determinar se são necessários passos adicionais, incluindo legislação”, lê-se no documento divulgado esta quinta-feira. O objectivo é motivar as empresas a mudar, voluntariamente, sem de ter de impor novas leis. É uma abordagem diferente à da Alemanha que, em Julho, aprovou multas de até 50 milhões de euros para a permanência, 24 horas após ser detectado, de discurso de ódio e notícias falsas nas redes sociais.
Para garantir uma avaliação correcta dos resultados, os Estados-membros e as empresas tecnológicas vão ter de apresentar relatórios a mostrar que as recomendações estão a ser seguidas, e que o conteúdo terrorista e ilegal está a ser erradicado da Internet. Os primeiros relatórios – exclusivo a conteúdo terrorista – têm de ser apresentados daqui a três meses.
Há quem veja a atitude recente da Comissão Europeia como um ataque à liberdade de expressão. "Isto é puxar censura 'voluntária' para as mãos de gigantes da Internet para evitar legislação que seria alvo de escrutínio democrático e desafios judiciais", critica o presidente executivo do EDR (European Digital Rights), Joe McNamee, em comunicado. Para a organização não-governamental com sede em Bruxelas, "as recomendações de hoje institucionalizam o papel do Facebook e do Google na regulação da liberdade de expressão dos europeus".