Facebook removeu mais de dois mil milhões de contas falsas no começo de 2019
“O nosso orçamento para sistemas de segurança ultrapassou a receita anual do Twitter este ano”, comentou Mark Zuckerberg.
Nos primeiros três meses de 2019, o Facebook removeu mais de 2190 milhões de contas falsas da rede social – são mais 990 milhões do que aquelas que foram detectadas entre Outubro e Novembro de 2018.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
Nos primeiros três meses de 2019, o Facebook removeu mais de 2190 milhões de contas falsas da rede social – são mais 990 milhões do que aquelas que foram detectadas entre Outubro e Novembro de 2018.
Este é o tipo de conteúdo abusivo mais frequente na rede social e uma forma cada vez mais popular de atrair cliques. Seguem-se publicações com conteúdo gráfico ou violento (foram removidas 33,6 milhões de publicações entre Janeiro e Março de 2019), publicações com nudez ou conteúdo sexual de adultos, e publicações com propaganda terrorista.
A informação foi partilhada esta quinta-feira, no lançamento do mais recente Relatório de Aplicação dos Padrões da Comunidade, que inclui dados sobre a detecção de conteúdo proibido na rede social (não inclui informação sobre notícias falsas ou desinformação).
“O número de contas falsas que permanecem no site corresponde a cerca de 5% dos utilizadores mensais activos”, admitiu Mark Zuckerberg numa conferência de imprensa por telefone com jornalistas (em que o PÚBLICO participou), na qual falou sobre os desafios em monitorizar e regular a forma como as pessoas comunicam no Facebook.
“Já disse que sou a favor da regulação. Não acredito que as empresas tenham o poder de fazer todas as decisões sobre o discurso e a liberdade de expressão na Internet. A questão é o tipo de regulação”, disse Zuckerberg. E acrescentou: “Não acredito que dividir uma empresa resolva estes problemas” – foi uma referência à proposta recente de Chris Hughes, um dos co-fundadores do Facebook, de que a empresa deve ser dividida e regulada pelo Governo norte-americano.
Aos olhos de Zuckerberg é o tamanho da empresa que permite dedicar uma porção tão grande do orçamento a problemas de segurança e à criação de sistemas de monitorização inteligentes, e outras ferramentas para promover a segurança dos utilizadores. “O nosso orçamento para sistemas de segurança ultrapassou a receita anual do Twitter este ano”, comentou.
Os sistemas de monitorização inteligentes da rede social, porém, estão longe de perfeitos. Em 2016, a rede social teve de alterar as políticas de partilhas de imagens depois de fotografias como a de Kin-Phuc, a criança a correr nua para fugir de uma bomba de napalm, durante a guerra do Vietname, terem sido censuradas. Recentemente a rede social foi criticada por não conseguir travar a circulação na Internet das imagens do ataque de Março a duas mesquitas na cidade de Christchurch, na Nova Zelândia. Horas depois, imagens detalhadas continuavam a circular nas redes sociais.
Remoção automática
Actualmente, mais de 90% do conteúdo que é removido pelo Facebook é detectado por sistemas de inteligência artificial. A excepção é nas áreas como o bullying e discurso de ódio, em que o contexto ainda é muito importante. É a razão pela qual a empresa trabalha com 15 mil revisores humanos em todo o mundo.
“Por vezes um insulto acompanhado de uma imagem torna-se uma piada”, notou o vice-presidente de operações globais, Justin Osofsky.
No relatório a rede social clarifica que considera discurso de ódio uma expressão que quer excluir ou segregar um grupo com base em características protegidas (por exemplo, etnia, género, identidade de género, religião e orientação sexual). “Quando a intenção é clara, permitimos às pessoas partilhar o discurso de ódio de outra pessoa para alertar ou educar os outros, ou a usar calão para se referirem a si próprios.”
É por isso que a empresa trabalha com uma equipa de 15 mil revisores humanos. Na apresentação do relatório, a equipa do Facebook nota ainda que nem sempre é fácil determinar o impacto negativo de conteúdo proibido e que por vezes é preciso dar prioridades. “Alguém que publica uma imagem de um nu no Facebook. É contra a nossa política e teríamos de a remover”, escreve Alex Schultz, vice-presidente do Facebook numa publicação online a acompanhar o relatório. “Mas imaginem que essa imagem foi publicada por um homem que terminou uma relação amorosa com uma mulher e quer vingança? Teríamos de escalar a publicação na lista de revisão – algo como uma triagem num hospital. Todos os pacientes importam. Mas os casos críticos são atendidos primeiro.”
Este ano, a empresa também incluiu dados sobre a quantidade de conteúdo que é removido por engano e posteriormente restaurado. Nos últimos três meses a empresa restaurou cerca de 109 contas depois de queixas dos utilizadores visados.