Tudo o que sabemos sobre “shadowbans” nas redes sociais

As empresas de redes sociais não explicam que temas levam à supressão das publicações de uma pessoa. Utilizadores garantem que os algoritmos escondem publicações sobre Palestina e eleições.

Foto
A forma como os algoritmos tomam decisões é, em grande parte, uma caixa negra Getty Images
Ouça este artigo
00:00
07:32

Já alguma vez tiveste uma publicação sem sucesso — zero gostos, zero comentários e te perguntaste se algum algoritmo que vê tudo das redes sociais te estava a castigar?

Recorremos a estas aplicações para ver notícias, discussões políticas e informações actualizadas, mas muito do que vemos é decidido por conjuntos de algoritmos que tentam dar prioridade ao conteúdo de que gostamos, mostrando-nos anúncios em intervalos regulares.

A forma como esses algoritmos tomam decisões é, em grande parte, uma caixa negra, e há muito que os críticos apelam às empresas de redes sociais para que sejam mais transparentes. Grandes figuras políticas acusaram as empresas de utilizar algoritmos para censurar o discurso e os utilizadores habituais receiam que as suas publicações sejam censuradas com base em critérios tendenciosos.

Pedimos aos nossos leitores que partilhassem as suas histórias sobre “shadowbans” (a supressão real ou aparente das publicações de uma pessoa) e muitos disseram suspeitar que as suas publicações estavam a ser visualizadas por amigos, mas escondidas nos feeds. No entanto, poucos tinham provas de que isso estava a acontecer.

“Parece um jogo de azar”, disse Leah Carey, educadora sexual de 50 anos que disse estar constantemente a tentar inferir o que pode fazer explicar que as suas publicações sejam expulsas do feed principal do Instagram e do separador Explorar. “Em qualquer dia, o que fizeste na semana passada pode já não funcionar.”

Eis o que precisas de saber sobre ​shadowbanning.

O que é o “shadowbanning” ou “supressão algorítmica”?

O termo “shadowban” ganhou popularidade por volta de 2017 para descrever o que os utilizadores alegavam ser uma actividade dissimulada das empresas de redes sociais para ocultar conteúdos ou opiniões. As empresas tendem a preferir o termo “orientações de recomendação”, enquanto alguns críticos tecnológicos utilizam a expressão “supressão algorítmica” para explicar o mesmo fenómeno.

Como os algoritmos são máquinas de decisão, mostrar uma publicação significa não mostrar outra. Mas as empresas afirmam que também limitam os conteúdos por razões de segurança e sensibilidade dos utilizadores.

O TikTok, o Instagram, o YouTube, o Snapchat e o Twitch, por exemplo, limitam o alcance de conteúdos que consideram inadequados para crianças. Algumas dessas regras são claras: não mostrar armas de fogo ou substâncias ilegais.

Outras são confusas: no TikTok, por exemplo, pessoas de qualquer idade podem usar o “modo restrito”, que limita os vídeos que mostram “imagens ameaçadoras” ou “temas complexos”. A empresa não respondeu às perguntas do The Post sobre o que se enquadra nessas categorias.

O TikTok também permite que os utilizadores de qualquer idade reduzam a selecção de “assuntos actuais” nos algoritmos da página Para ti. A empresa não respondeu às perguntas do The Post sobre se a guerra na Faixa de Gaza, a proibição de cuidados de afirmação de género no Mississippi, a espionagem da China a organizações sensíveis dos EUA ou uma história pessoal sobre o aborto se enquadrariam nos “assuntos actuais”.

Porque é que as empresas limitam conteúdos?

As aplicações sociais tentam geralmente limitar qualquer conteúdo que possa causar problemas aos utilizadores ou aos anunciantes.

Por exemplo, após relatos de que as recomendações do YouTube estavam a levar os espectadores a ver vídeos cada vez mais xenófobos e racistas, a aplicação começou a bloquear vídeos neonazis. (Uma porta-voz do YouTube afirmou que recentemente foi investigado se as recomendações da aplicação favorecem realmente conteúdos mais extremistas).

Normalmente, as empresas de redes sociais rejeitam as alegações de que estão a censurar o discurso político. Mas, este ano, a Meta disse explicitamente que vai limitar o conteúdo político nas suas aplicações. O que não quis dizer é exactamente que palavras e ideias são consideradas políticas.

“Como temos vindo a dizer há anos, as pessoas têm-nos dito que querem ver menos política em geral, mas que podem continuar a envolver-se com conteúdos políticos nas nossas plataformas, se assim o desejarem e é isso que temos vindo a fazer”, afirmou o porta-voz da Meta, Corey Chambliss, num comunicado.

Que tipos de conteúdo são limitados?

Os tipos de conteúdo que se enquadram na categoria “permitidos mas não promovíveis” dependem da aplicação.

O YouTube diz que se um vídeo não violar as directrizes da comunidade da aplicação, mas “estiver perto” de o fazer, pode não ser elegível para recomendação algorítmica. Por isso, se um vídeo sobre assuntos actuais estiver perto de ser desinformação, mas não ultrapassar os limites, pode ser considerado um erro, disse uma porta-voz do YouTube. No entanto, recusou-se a dar um exemplo de uma declaração que se aproxima da desinformação.

A Meta, que diz estar a trabalhar para limitar o conteúdo político no Facebook, Instagram e Threads, não respondeu às perguntas sobre palavras-chave específicas, incluindo “aborto” e “voto”. (Embora uma análise do meu colega Geoffrey Fowler tenha descoberto que o tamanho da audiência de uma criadora de conteúdo caía quando ela usava a palavra “voto” na legenda das suas publicações. A Meta disse que os utilizadores simplesmente não gostam de conteúdo político).

O TikTok foi a única plataforma a confirmar que as pessoas podem usar a palavra “voto” sem serem suprimidas. O YouTube disse que o conteúdo eleitoral é aceitável, a menos que “chegue perto de violar” uma política, mas recusou-se a dar exemplos. O Snapchat disse que apenas os criadores pré-aprovados podem discutir “conteúdo político”, incluindo eleições ou defesa de causas na secção de vídeos curtos da aplicação Spotlight, mas qualquer pessoa pode discutir eleições e ser recomendada no separador Discover. O X e o Twitch não se pronunciaram directamente.

Como posso saber se o meu conteúdo está a ser restringido?

O TikTok e o Snap alertam os criadores se uma publicação não for elegível para recomendação, enquanto a popular aplicação de streaming Twitch avisa os criadores se não marcarem correctamente um vídeo que seja potencialmente inadequado para espectadores mais jovens.

No Instagram, Facebook, YouTube ou X, no entanto, o alcance de uma publicação pode ser limitado sem que o autor saiba porquê (ou mesmo que isso está a acontecer).

Isto é censura, moderação de conteúdos ou outra coisa qualquer?

Está a ser debatido se as empresas de redes sociais devem limitar o alcance de determinados conteúdos. Elon Musk, proprietário da X, afirmou que, no interesse da liberdade de expressão, a aplicação não censura opiniões políticas. No entanto, a aplicação tem cumprido mais ordens governamentais do que antes de ser propriedade de Musk, e os críticos têm dito que Musk e a sua equipa tomam decisões de moderação de conteúdos desequilibradas com base em lealdades pessoais. Contactada pelo Washington Post, a X não respondeu.

Entretanto, a Electronic Frontier Foundation, uma organização sem fins lucrativos focada na privacidade, criticou aquilo a que chama “regulamentação sombra”: quando as empresas tomam decisões fora do sistema judicial relativamente ao tipo de discurso que é permitido online.

Algumas organizações de defesa das crianças apelam a limitações mais rigorosas para proteger as crianças de encontrarem conteúdos adultos demasiado cedo.

As plataformas sociais penalizam as contas se um conteúdo for limitado?

O TikTok e o Twitch disseram que os criadores podem ter contas inteiras penalizadas se as publicações violarem repetidamente as regras de conteúdo recomendado. O YouTube e o Snap disseram que as publicações omitidas não afectam a conta como um todo. Meta e X não responderam directamente.

Alguns criadores de conteúdo disseram ao The Post que ter uma publicação restrita parece causar uma queda no público em geral. A escritora e educadora August McLaughlin disse que as visualizações em vídeos no TikTok caíram depois de um dos seus posts — sobre escrever sobre as suas fantasias românticas — ser sinalizado como “conteúdo sexual”.

“Há muito conteúdo sexual voltado para homens heterossexuais que não recebe o mesmo tipo de resistência”, defende.


Exclusivo PÚBLICO/ The Washington Post

Sugerir correcção
Comentar