Algoritmo detecta bullies nas redes sociais com 90% de eficácia
Académicos descobriram que agressores online tendem a abordar assuntos sensíveis como feminismo, religião e política.
Uma equipa de investigadores internacionais desenvolveu um conjunto de algoritmos capaz de distinguir utilizadores normais de utilizadores com uma linguagem agressiva e bullies (utilizadores com o intuito de assediar outros) no Twitter, com base no histórico de mensagens e perfil de cada utilizador. Os programas – desenvolvidos com base em dez mil mensagens publicadas ao longo de três meses – conseguiram uma precisão de 90% na identificação de agressores virtuais, nomeadamente, autores de ameaças de morte ou publicações que apelem ao racismo e à xenofobia.
“Criamos crawlers – programas que recolhem dados do Twitter através de vários mecanismos – para reunir publicações de utilizadores, dos seus perfis e outros elementos sociais como quem os segue e quem é que seguem”, explicou Jeremy Blackburn, um cientista computacional da Universidade de Binghamton, Nova Iorque. Os resultados foram divulgados recentemente na revista científica Transactions of the Web.
Em todo o mundo, mais 70% de jovens a usar a Internet são alvo regular de violência verbal online, e um em cada três pais admitem conhecer uma criança que recebe insultos via Internet – os dados fazem parte de estudos recentes divulgados pela UNICEF e pela analista francesa Ipsos. Faltam, no entanto, ferramentas eficazes para detectar este tipo de acções online. Em 2018, a Amnistia Internacional descreveu o Twitter como “um local tóxico para mulheres”, com profissionais na área da politica ou do jornalismo a receber ameaças de morte ou insultos com base no género, orientação sexual e etnia.
A motivação da equipa – que inclui académicos das universidades de Boston, nos EUA, da Universidade Aristóteles de Salónica e do Centro de Investigação e Tecnologia de Hellas, na Grécia, e de investigadores da secção de inteligência artificial da Samsung e da empresa de comunicações Telefónica – era encontrar formas de identificar e isolar agressões online, que acreditam serem mais desgastantes do que na vida real. “Enquanto o bullying frente-a-frente está limitado a locais específicos ou a uma hora do dia, a versão digital pode ocorrer a qualquer altura e em qualquer lugar”, lê-se no relatório.
Os novos algoritmos aprenderam com base em milhares de publicações que foram divididas em quatro categorias distintas: utilizador normal, agressor (alguém que publica ocasionalmente um comentário negativo com o objectivo de magoar ou insultar outro utilizador), bully (alguém que publica múltiplas publicações ou partilha várias publicações sobre um mesmo tema com o objectivo de magoar outros utilizadores) e spammers (utilizadores que tentam vender produtos para adultos ou enganar utilizadores a pagar para serviços falsos, partilhar palavras-passe ou a descarregar vírus). A equipa contou com o apoio de 834 colaboradores para analisar dez mil publicações, retiradas de uma amostra inicial de 2,1 milhões de mensagens.
Palavras-chave do ódio
“O primeiro passo foi seleccionar manualmente uma ou mais palavras-chave ‘base’, relacionadas com a ocorrência de incidentes abusivos”, explica o artigo. Algumas das palavras-chaves populares – as chamadas hashtags – utilizadas foram #GamerGate (uma campanha de difamação e perseguição online de mulheres na indústria dos videojogos), #BlackLivesMatter (um movimento que começou nos EUA e denuncia a violência policial contra afro-americanos), #PizzaGate (uma teoria de conspiração que unia políticos e cadeias de restauração a redes de tráfico humano) e #Brexit. “Essencialmente, os algoritmos ‘aprendem’ a distinguir entre bullies e utilizadores típicos à medida que têm mais exemplos”, explica Blackburn em comunicado.
“Descobrimos que os utilizadores tipo bully organizam ataques a assuntos sensíveis como feminismo, religião e política, utilizando linguagem agressiva e muitas vezes insultuosas”, lê-se nas conclusões. “Os utilizadores agressivos têm mais tendência a exprimir opiniões negativas sobre assuntos como o Brexit e o MAGA (sigla inglesa do lema da campanha do presidente norte-americano Donald Trump, Make America Great Again)”. A equipa também descobriu que os bullies do Twitter tinham por hábito criar publicações com mais adjectivos que os utilizadores normais.
De entre as quatro categorias analisadas, os algoritmos testados tiveram mais dificuldade em detectar utilizadores com uma linguagem agressiva do que bullies. “O problema é que por vezes estes utilizadores comportam-se como bullies, e outras vezes como utilizadores normais”, explica a equipa.
Embora os utilizadores com um comportamento típico de bully sejam menos populares que os utilizadores regulares – têm menos seguidores e participam em menos comunidades –, os autores explicam que têm uma “reciprocidade maior na rede”, ou seja, tendem a seguir de volta todos os utilizadores que os seguem.
A equipa quer repetir a experiência com outros sites populares como o Facebook e o YouTube, e incluir a consideração de figuras de estilo como o sarcasmo na categorização das publicações.
Nos últimos anos, várias redes sociais têm desenvolvido estratégias no combate ao assédio virtual nas suas plataformas. O Twitter, por exemplo, impede utilizadores que são banidos recorrentemente de criar novas contas num dado computador ou com um dado email, e tem centrado os seus esforços na identificação de contas falsas, que são muito comuns na rede social, dada a relativa facilidade com que podem ser criadas. Já o Instagram apresentou um sistema de moderação de comentários (chamado rethink, inglês para “reconsidera”) que usa inteligência artificial para alertar os utilizadores sobre publicações com linguagem problemática.
Para os autores do estudo recente, porém, é preciso muito mais. “Mesmo o nosso sistema é apenas reactivo. Não previne inerentemente o assédio, apenas o identifica quando realizado em massa”, frisou Jeremy Blackburn. “Mesmo se as contas de atacantes foram eliminadas, e os ataques anteriores forem apagados, as vítimas já foram atingidas.”