Facebook culpa covid-19 por dificuldades em controlar conteúdos de suícidio e nudez infantil
Entre Abril e Junho, o Facebook e o Instagram tiveram menos moderadores humanos a rever conteúdo. Algoritmos autónomos usados ainda apresentam problemas.
O Facebook teve mais dificuldades em controlar, medir e perceber o que era publicado nas suas plataformas entre Abril e Junho de 2020 – em particular, conteúdo relacionado com suicídio, automutilação, imagens sexuais explicitas e nudez infantil. Em causa está o facto de a empresa ter de enviar pelo menos 15 mil dos seus moderadores para casa em Março devido à pandemia de covid-19 e considerar que as tarefas dos prestadores de serviços não seriam compatíveis com o trabalho remoto.
Os desafios com a moderação de conteúdo foram divulgados pela própria empresa na sexta edição do Relatório de Aplicação dos Padrões da Comunidade, publicado esta terça-feira.
“O Facebook depende muito de pessoas para analisar conteúdo de suicídio, automutilação e exploração infantil, e para ajudar a melhorar a tecnologia que encontra e remove proactivamente conteúdo idêntico”, explica a equipa em comunicado, notando que “não foi possível calcular a prevalência de conteúdo violento e explícito, nudez e actividade sexual adulta” entre Abril e Junho.
O problema é que os algoritmos autónomos ainda têm dificuldade em perceber o contexto em que algumas publicações são feitas, distinguir arte de conteúdo impróprio e detectar figuras de estilo como a ironia e o sarcasmo. Entre as falhas mais notórias dos algoritmos da rede social está a eliminação da fotografia de Kin-Phuc (uma criança a correr nua para fugir de uma bomba de napalm durante a guerra do Vietname) e o bloqueio da conta pessoal de um professor de francês que publicou uma imagem da obra A Origem do Mundo, de Gustave Coubert (que mostra uma vulva).
Para evitar que conteúdo impróprio proliferasse nas redes sociais Instagram e Facebook durante o isolamento social, a empresa de Mark Zuckerberg diz que optou por medidas mais rígidas, o que pode ter levado publicações que não desrespeitavam as regras temporariamente barradas.
Os utilizadores afectados continuaram a poder recorrer da decisão do Facebook, só que a empresa também admite que demorou mais a rever essas queixas. “Mas o Facebook nunca escondeu isso”, defende a rede social.
Máquinas estão melhores a remover discurso de ódio
Apesar das falhas dos algoritmos a rever conteúdo sexual ou associado ao suicídio, a rede social garante que a capacidade de os algoritmos detectarem “discurso de ódio” melhorou. Para a empresa, discurso de ódio inclui todas as publicações que incentivem ataques a alguém com base em características protegidas como a raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, género, identidade de género, doença ou deficiência grave.
Enquanto entre Janeiro e Março a rede social apenas detectou automaticamente 9,6 milhões de publicações com conteúdo de ódio, entre Abril e Junho foram eliminados 22,5 milhões de publicações problemáticas. O relatório da rede social não esclarece, porém, se o aumento se deveu a um aumento na prevalência deste tipo de conteúdo.
“A taxa de detecção proactiva de discurso de ódio no Facebook aumentou 6 pontos, de 89% para 95%”, destaca a rede social. No Instagram, a taxa de detecção proactiva de discurso de ódio aumentou 39 pontos percentuais, de 45% para 84% — com a empresa a detectar, automaticamente, 3,3 milhões de publicações com discurso de ódio.
Mesmo com os progressos, a empresa admite que “ainda há trabalho a fazer para garantir que toda a gente se sente confortável” com os serviços do Facebook. Uma das medidas para melhorar os esforços de moderação do Facebook é a criação de um comité de moderação independente. Além de influenciar novas políticas da rede social, o grupo – que foi inicialmente anunciado em 2018 e conta com cerca de 40 trabalhadores externos de todo o mundo – terá o poder de alterar decisões feitas pelo Facebook.
“O comité é composto por pessoas com diferentes histórias, trajectórias e visões. As decisões nunca serão individuais, mas sim feitas por meio de painéis”, explica ao PÚBLICO Ronaldo Lemos, um advogado brasileiro especializado em propriedade intelectual e que integra o grupo composto por antigos políticos, jornalistas, activistas, advogados e professores universitários de todo o mundo.
A empresa também clarifica que os relatórios trimestrais vão começar a ser revistos por auditores independentes a partir de 2021. “O Facebook pretende que as pessoas tenham confiança de que os dados divulgados sobre conteúdo prejudicial”, justifica a plataforma.