“É preciso falar sobre os algoritmos que nos oprimem”
Safiya Noble passou os últimos sete anos a pesquisar situações de injustiça e preconceito criadas por algoritmos. Acabou a publicar um livro.
Foi em 2011 que Safiya Umoja Noble percebeu que não podia confiar no Google para procurar informação sobre mulheres negras sem ser bombardeada por imagens obscenas e estereótipos. Pior, eram resultados que a filha e as sobrinhas podiam encontrar. “Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, recorda Noble ao PÚBLICO.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
Foi em 2011 que Safiya Umoja Noble percebeu que não podia confiar no Google para procurar informação sobre mulheres negras sem ser bombardeada por imagens obscenas e estereótipos. Pior, eram resultados que a filha e as sobrinhas podiam encontrar. “Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, recorda Noble ao PÚBLICO.
Numa manhã, farta de ver as jovens distraídas com a televisão e a deslizar os dedos pelos telemóveis, decidiu interromper a investigação para o doutoramento na área de Ciências da Informação e fazer uma busca sobre actividades e debates para raparigas negras. Noble esperava encontrar histórias sobre mulheres importantes para o movimento da emancipação e liberdade civil nos EUA e no mundo. Em vez disso, encontrou páginas dedicadas a fetiches de homens com mulheres negras e imagens e linguagem explícita. Tudo na primeira página.
O problema era o mesmo para “meninas”, “mulheres” e “raparigas”, fossem da América Latina ou da Ásia. Na altura, o Google responsabilizou os algoritmos, uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas. Mais tarde, no final de 2012, a empresa actualizou manualmente o algoritmo para dar menos foco à pornografia, mas Noble já tinha percebido que o problema não era um caso isolado.
A professora em Estudos Sociais, Étnicos e de Género passou os últimos sete anos a recolher exemplos de como os algoritmos podem oprimir grupos de pessoas. O resultado é o livro Algorithms of Opression (Algoritmos de Opressão, não disponível em português), publicado recentemente.
“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objectivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explica Noble, que lecciona sobre o tema na Universidade de Annenberg, na Califórnia. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, porque é que dependemos dele?”
O livro dá vários exemplos. Nos EUA, pesquisar “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais que mostram que, estatisticamente, a maioria dos crimes contra brancos nos EUA é cometida por brancos. Pesquisar “gorilas” já foi sinónimo de pesquisar negros, mas pesquisar “estilo académico” mostra maioritariamente homens brancos de fato.
Apesar de alguns motores de busca esconderem resultados relacionados com “pornografia” e “sexo explícito”, este tipo de resultados podem surgir – mesmo quando a pessoa não o quer. Uma directora de uma escola secundária em Queens, nos EUA, foi despedida quando o ex-marido publicou fotografias privadas da sua vida sexual e o Google não as conseguiu filtrar, retirar ou esconder do topo. “Preocupo-me que mulheres sejam automaticamente consideradas ‘raparigas’ e que a identidade seja tão facilmente confundida com pornografia na Internet”, escreve Safiya a certa altura. “A indústria pornográfica é poderosa e tem o capital para comprar as palavras-chave – e identidades – que quiser.”
Os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”, frisa a autora. Nesta tentativa de ver todas as pessoas como iguais, o Yelp (uma plataforma que permite encontrar restaurantes e serviços) dificultou o trabalho de uma cabeleireira negra em Nova Iorque que tentava promover o seu serviço junto de outras mulheres negras. “Como é que algoritmos sabem as necessidades das minorias?”, lê-se no capítulo dedicado a este episódio. “Não nos chamamos uns aos outros afro-americanos; a sociedade é que nos chama assim. Nós somos negros.”
São histórias como esta que preenchem as páginas do livro de Noble. Apesar de muitas se centrarem no Google, Noble diz que não vê o serviço como o mau da fita. “Precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante. Eu também uso o Google… Quando quero encontrar o café ou pastelaria mais próxima, é excelente”, diz Noble. “Mas não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura. Como professora, vejo cada vez mais alunos a depender das primeiras páginas do motor de busca para formar opiniões.”
Algoritmo misterioso
Parte do problema, diz Noble, é que se sabe pouco sobre a lógica do algoritmo do motor de busca. De acordo com o site de marketing Moz, que regista mudanças no algoritmo, a fórmula é alterada entre 500 e 600 vezes por ano. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem, já que o assunto não está sujeito a discussão, excepto quando o criticamos”, diz a autora. “E é preciso falar sobre os algoritmos que nos oprimem.”
Mudar o paradigma é difícil. “É muito fácil dizer que tudo se resolve em Silicon Valley ao contratar indivíduos com características físicas e sociais específicas, mas isso é injusto”, diz Noble sobre a preocupação em pôr mais mulheres e minorias a trabalhar em tecnologia. “Muitas pessoas negras com quem falei em Silicon Valley queixam-se de que são vistas como a solução para os problemas da diversidade.”
Uma das soluções que idealiza é “tirar o poder aos algoritmos” com um motor de busca em que as pessoas podem escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou, pelo contrário, se querem ver tudo. “Dá-se a escolha às pessoas”, defende Noble. “Que tal um modelo de busca supertransparente, em vez do esquema totalmente opaco que o Google usa para temas relacionados com cultura e sociedade?”
Para Noble, é altura de voltar a colocar o poder nas mãos de verdadeiras bibliotecas digitais. No futuro, quer explorar formas de a inteligência artificial começar a fazer o mesmo. “Desde que comecei a escrever o livro, a empresa-mãe do Google, a Alphabet, entrou na tecnologia de drones, robôs militares e tecnologias de videovigilância. [Vendeu entretanto a empresa de robótica militar.] É um perigo para a democracia se continuarmos a deixar sistemas de decisão autónoma, que são injustos e preconceituosos, controlarem as máquinas.”