Como as gigantes online lidam com o discurso de ódio
Nas últimas semanas, o YouTube, Reddit e Facebook baniram vários canais e páginas que promovem discurso de ódio, mas o trabalho não está terminado.
Gigantes online como o Facebook, YouTube, Twitter e Reddit estão cada vez mais sob pressão para reprimir o “discurso de ódio” e tentar mostrar que estão atentas ao problema que permite que estas plataformas sejam usadas para atacar minorias, justificar violência e promover estereótipos.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
Gigantes online como o Facebook, YouTube, Twitter e Reddit estão cada vez mais sob pressão para reprimir o “discurso de ódio” e tentar mostrar que estão atentas ao problema que permite que estas plataformas sejam usadas para atacar minorias, justificar violência e promover estereótipos.
Desde Junho, o YouTube (da Google) baniu seis canais de supremacistas brancos e retirou a monetização do canal do popular comediante norte-americano Shane Dawson (que chegou a ter 23,1 milhões de subscritores), depois de perceber que o youtuber, na plataforma há mais de uma década, tinha usado humor com conotações racistas em vídeos antigos. Já o Reddit fechou o fórum r/The_Donald, um espaço utilizado para apoiar Donald Trump ao partilhar conteúdo falso, racista e sexista, e acrescentou “discurso de ódio” à lista de conteúdo proibido na plataforma, algo que antes a empresa dizia estar “implícito”.
O Facebook, que tem acumulado grande parte das críticas nos últimos meses, também eliminou dezenas de contas e páginas de notícias falsas que promoviam o “discurso de ódio” no Brasil e nos EUA e retirou vários anúncios políticos do Presidente dos EUA, Donald Trump, que criticavam a extrema-esquerda e exibiam símbolos utilizados pelos nazis.
Ainda assim, não é fácil erradicar todos os exemplos de ódio. Mesmo com o YouTube, Facebook e Instagram a utilizar algoritmos para detectar automaticamente conteúdo proibido (através de palavras e expressões chave), os sistemas nem sempre conseguem distinguir publicações ofensivas, destinadas a atacar determinados grupos e indivíduos, de publicações que chamam a atenção para os problemas. Em 2019, o YouTube chegou a eliminar vários vídeos de professores de história que incluíam imagens de Hitler. O Facebook, por sua vez, apagou acidentalmente publicações de grupos de activistas que documentam atrocidades contra os rohingya, uma comunidade de muçulmanos na Birmânia que é alvo de perseguição há anos devido às suas crenças.
“A ausência de um padrão legal claro em que as empresas possam basear as suas políticas, bem como a importância do contexto para determinar se uma publicação constitui ou não discurso de ódio, dificultam a descoberta de soluções técnicas”, escreve Adriana Stephan, uma investigadora de ciências sociais da Universidade de Stanford, nos EUA, que monitoriza as políticas das grandes empresas tecnológicas.
Falta uma definição global para “discurso de ódio”. O Facebook e o Twitter, por exemplo, descrevem-no como “um ataque directo” a pessoas com base em “características protegidas”. Isto inclui ofensas relacionadas com a etnia, nacionalidade, religião, orientação sexual, sexo, género, identidade de género, doença ou deficiência grave. O YouTube e o Reddit acrescentam “vítimas de um grande evento violento” à lista. E plataformas de mensagens como o Telegram e o WhatsApp (do Facebook) ainda não têm políticas definidas.
“Abordagem minimalista”
“As plataformas tendem a optar por uma abordagem minimalista na resolução dos problemas. E só fazem algo quando os problemas afectam a reputação”, critica, no entanto, o investigador Bharath Ganesh, da Universidade de Groningen, nos Países Baixos, cujo trabalho recente se foca nas estratégias de moderação de conteúdo das redes sociais.
Regra geral, a estratégia de moderação das empresas divide-se entre tentar retirar conteúdos considerados problemáticos, ou introduzir conteúdos que questionem as perspectivas extremistas nas plataformas.
“O que concluímos é que não é possível perceber até que ponto é que as soluções encontradas pelas redes sociais resolvem o problema”, explica o investigador ao PÚBLICO. “Comunicações estratégicas, em que se acrescenta informação sobre um determinado tema, não são uma resposta directa. Mas também há desvantagem em apagar publicações porque cria a ideia de que existe censura.”
O equilíbrio entre a liberdade de expressão e o impedir da promoção do discurso de ódio é um dos grandes desafios do Facebook. Uma auditoria recente à rede social, realizada pelo escritório de advogados Relman Colfax, criticou a empresa de Mark Zuckerberg por não remover nem esconder uma publicação de Donald Trump em que o Presidente escreve “começa a violência, começam os tiros” (uma referência a uma frase usada por supremacistas brancos nos anos 1960). O argumento inicial do Facebook é que os utilizadores tinham o direito de ler a publicação para formar as suas próprias opiniões sobre o Presidente.
Depois de críticas severas, incluindo a perda do apoio de grandes marcas e anunciantes como a Starbucks ou a Coca-Cola, o Facebook admite que está a trabalhar para contratar “mais peritos em liberdades sociais”.
“As políticas das redes sociais estão sempre a mudar”, alerta Bharath Ganesh. “Não nos podemos esquecer que a arquitectura destas plataformas se foca em prender a atenção das pessoas. E muitas vezes isso acontece através de publicações que despertam emoções fortes como raiva, ódio e indignação.”