Facebook quer mais humanos na equipa depois de algoritmos permitirem publicidade preconceituosa
Rede social pede desculpa por publicidade para anti-semitas.
O Facebook vai aumentar o controlo humano das ferramentas de publicidade segmentada depois de uma investigação ter mostrado que era possível criar automaticamente anúncios destinados a utilizadores assumidamente anti-semitas. A informação surge num comunicado publicado esta semana pela directora de operações do Facebook, Sheryl Sandberg, em que reconhece a responsabilidade da empresa.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
O Facebook vai aumentar o controlo humano das ferramentas de publicidade segmentada depois de uma investigação ter mostrado que era possível criar automaticamente anúncios destinados a utilizadores assumidamente anti-semitas. A informação surge num comunicado publicado esta semana pela directora de operações do Facebook, Sheryl Sandberg, em que reconhece a responsabilidade da empresa.
“O facto de expressões preconceituosas e de ódio surgirem como opções [no Facebook] é completamente inapropriado e uma falha da nossa parte”, diz Sandberg, depois de admitir que ver categorias como “ódio a judeus” nas sugestões de grupos a quem enviar publicidade a deixou desiludida com o sistema usado pela rede social.
A situação foi exposta num relatório publicado pela ProPublica, uma organização norte-americana de jornalismo de investigação, na semana passada. Termos ofensivos (por exemplo, “como queimar judeus”) apareciam como sugestões no sistema de publicidade segmentada do Facebook, porque a rede social utilizava um algoritmo para gerar opções a partir da informação no perfil dos utilizadores. Muitos incluíam as expressões preconceituosas nos campos sobre a sua educação ou emprego. “Nunca quisemos ou antecipámos que esta funcionalidade fosse usada desta forma – somos culpados disso. E também não descobrimos [o problema] – também somos culpados disso”, acrescenta Sandberg.
A solução é trazer mais pessoas para a secção de publicidade. “Estamos a adicionar mais revisão e supervisão humana aos nossos processos automáticos”, diz Sandberg. Foram os algoritmos da rede social que permitiram que grupos de pessoas que acreditam que o “o Hitler não fez nada de mal” fossem criados.
Já esta quinta-feira, os algoritmos permitiram que uma imagem com o texto "vou-te violar antes de te matar" fosse utilizada para promover o serviço do Instagram no Facebook. A imagem era uma mensagem de uma ameaça de um leitor partilhada pela jornalista do Guardian, Olivia Solomon, depois de a receber no ano passado. Tornou-se uma publicidade para a sua conta de Instagram porque era uma das publicações com mais gostos e comentários.
Agora, a rede social espera que o aumento da supervisão humana impeça futuros abusos. “Temos uma política firme contra o ódio e a nossa comunidade merece que implementemos estas políticas com muito cuidado e atenção”, frisa Sheryl Sandberg.
Todas as categorias de pessoas a quem se pode enviar publicidade segmentada também foram revistas manualmente para garantir que nenhum conteúdo podia ser direccionado a grupos que estão contra uma determinada raça, etnia, religião, nacionalidade, orientação sexual, género, identidade de género, ou capacidade física. Sobraram cinco mil dos termos mais utilizados originalmente, que incluem profissões como específicas como “enfermeira” e “professor”, ou áreas como “odontologia”.
A última vez que o Facebook alterou a sua política de publicidade foi em Fevereiro, quando se descobriu que os publicitários a enviar anúncios de emprego ou imobiliário podiam excluir utilizadores com base na sua “afinidade étnica”.
O pedido de desculpas do Facebook surge numa altura em que a secção de publicidade da rede social suscitou atenção mundial pelos piores motivos. No início de Setembro – antes da publicação do relatório da ProPublica – a plataforma admitiu que foram gastos cerca 84 mil euros em milhares de anúncios que divulgavam informação falsa sobre temas como a imigração ou os direitos humanos, entre Junho de 2015 e Maio de 2017.