Mudar a cara para enganar algoritmos
Há investigadores a criar algoritmos para fugir de sistemas de reconhecimento facial a aprender com fotografias publicadas online.
O Fawkes é uma ferramenta gratuita, desenvolvida por investigadores nos EUA, que usa algoritmos para alterar ligeiramente uma fotografia e impedir outros algoritmos de saber quem aparece na imagem. A missão é não deixar que as pessoas com fotografias online sejam identificadas, sem autorização, através de sistemas de inteligência artificial. A proposta foi discutida esta semana durante a Conferência Internacional de Representações da Aprendizagem (ICLR, na sigla inglesa), um evento anual para falar sobre inteligência artificial.
“No essencial, o Fawkes adiciona pequenas mudanças a fotografias para que não sejam úteis para ensinar modelos [de inteligência artificial]”, resume ao PÚBLICO Shawn Shan, um estudante de doutoramento do laboratório de segurança, algoritmos, redes e dados da Universidade de Chicago, que ajudou a desenvolver o Fawkes. O nome é uma homenagem à máscara de Guy Fawkes, um católico britânico levado à forca pela traição cujo rosto inspirou uma máscara usada para proteger a identidade de manifestantes em todo o mundo.
“Para agências governamentais, é muito fácil aceder a sistemas de reconhecimento facial, uma vez que empresas como a Clearview estão a colaborar com autoridades”, alerta Shan.
Em Abril, uma investigação do Buzzfeed News publicou uma base de dados com mais de 1800 entidades norte-americanas — incluindo escolas públicas, agências de segurança e serviços de saúde — a usarem serviços de inteligência artificial da empresa Clearview treinados com imagens deste tipo.
Na União Europeia, os reguladores estão a explorar formas de limitar a forma como estas ferramentas são utilizadas. A proposta mais recente, apresentada em Abril, inclui multas que podem ir até 6% da facturação anual de uma empresa.
As ferramentas desenvolvidas pela equipa de Shawn Shan garantem que as fotografias que alguém publica na Internet são imunes a ferramentas de inteligência artificial. O sistema já consegue enganar os algoritmos do Facebook, da Microsoft, da Amazon e da tecnológica chinesa Megvii. Isto quer dizer, por exemplo, que o Facebook não consegue identificar, automaticamente, os utilizadores que aparecem com fotografias editadas pelo Fawkes.
No entanto, apesar de a equipa do Fawkes dizer que as mudanças são “imperceptíveis ao olho humano”, por vezes as imagens editadas incluem olhos a preto ou pelo facial em mulheres. Isto acontece porque o sistema combina a fotografia de alguém com uma figura pública parecida (por vezes, é alguém do sexo oposto). É um problema que está a ser corrigido.
A prioridade, porém, é desenvolver uma forma de proteger utilizadores que já têm muitas imagens online.
Os investigadores esperam que, no futuro, programas como o Fawkes se tornem mais populares. Se toda a gente “disfarçar” as imagens que publica online, empresas como a Clearview deixam de poder utilizar as imagens disponíveis online para treinar modelos de inteligência artificial.