Investigadores propõem usar técnicas das ciências sociais para estudar máquinas inteligentes
Um grupo de académicos sugere estudar sistemas artificiais com as mesmas técnicas usadas para estudar as decisões feitas por pessoas.
O que está por detrás das escolhas feitas por algoritmos na base de sistemas de inteligência artificial? Há muitos investigadores interessados, mas é difícil descobrir o que influencia as máquinas capazes de decidir quando estas analisam centenas de milhares de dados para chegar às suas conclusões. É impossível acompanhar em detalhe o processo de decisão.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
O que está por detrás das escolhas feitas por algoritmos na base de sistemas de inteligência artificial? Há muitos investigadores interessados, mas é difícil descobrir o que influencia as máquinas capazes de decidir quando estas analisam centenas de milhares de dados para chegar às suas conclusões. É impossível acompanhar em detalhe o processo de decisão.
Um grupo de investigadores dos EUA, Canadá e Europa, de reputadas instituições como o Massachusetts Institute of Technology (MIT) e a Universidade de Harvard, nos EUA, e o Instituto Max Planck para o Desenvolvimento Humano, na Alemanha, argumenta que o foco tem de deixar de ser o código por detrás dos algoritmos. É preciso arranjar formas alternativas para os perceber. E a solução não está – apenas – nas mãos de engenheiros.
“Actualmente, os cientistas que mais frequentemente estudam o comportamento de máquinas são os cientistas computacionais, especialistas da robótica e os próprios engenheiros que criaram as máquinas. Podem ser peritos em matemática e engenharia, porém, não são especialistas em comportamento”, justifica o grupo num estudo académico publicado este mês na revista académica Nature. Contou com a colaboração de profissionais de empresas como o Google, o Facebook e a Microsoft, que investem cada vez mais na área de inteligência artificial.
A proposta é uma nova área de investigação interdisciplinar: Análise Comportamental das Máquinas, ou Machine Behaviour, no inglês. O objectivo é estudar sistemas de inteligência artificial com as mesmas técnicas usadas em ciências sociais para analisar o comportamento de seres humanos. Isto inclui olhar para a história, evolução, e influências externas ao comportamento das máquinas, e pedir ajuda a profissionais de áreas como psicologia e economia.
Os autores propõem, por exemplo, mais estudos baseados na observação directa dos resultados dos algoritmos, o impacto que têm na sociedade. ("Em sites de namoro, os algoritmos promovem apenas relações entre pessoas com contextos e interesses semelhantes?”, é uma das questões dadas como exemplo para a área do Machine Behaviour).
Algoritmos misteriosos
“Compreender o comportamento dos sistemas de inteligência artificial é essencial para a nossa capacidade de controlar suas acções, colher benefícios e minimizar danos”, justifica o grupo.
Todos os membros – com vários anos de experiência na área da inteligência artificial – já presenciaram problemas com máquinas que não podem explicar os seus resultados. “As máquinas inteligentes já são capazes de alterar o comportamento humano, e os seres humanos também criam, informam e moldam os comportamentos das máquinas inteligentes”, frisam os autores.
Alan Mislove, um dos investigadores da Universidade de Northeastern, em Boston, nos EUA, a participar no estudo, faz parte de um grupo de académicos a lutar pelo direito de investigar algoritmos de empresas para perceber se os resultados discriminam em áreas como a habitação e anúncios empregos. Recentemente, conclusões preliminares de um estudo para o qual contribuiu mostram que o algoritmo por detrás dos anúncios de emprego no Facebook aprendeu, sozinho, a mostrar mais vagas para lojistas a mulheres e mais anúncios a procurar lenhadores a homens.
“Embora o código e a arquitectura para treinar um modelo possa ser simples, os resultados podem ser muito complexos, dando origem a ‘caixas negras’. Os algoritmos recebem dados e produzem resultados, mas o processo que permite gerar esses resultados é difícil de interpretar”, escrevem os autores. E acrescentam: “E embora a perspectiva de desenvolver armas autónomas ainda seja controversa, se estas armas acabarem por ser criadas, são máquinas que vão poder determinar quem vive e quem morre em conflitos armados.”
Hoje, muitos algoritmos já condicionam comportamentos: há os que sugerem o próximo livro a ler ou filme a ver, os que avaliam as notícias que primeiro aparecem nas redes sociais (e tentam filtrar notícias falsas e boatos), os que ajudam os carros autónomos a conduzir, e os que escolhem sugestões de parceiros românticos em sites de namoro.
Por vezes, os resultados são preconceituosos: além do caso com os anúncios do Facebook, o algoritmo do Google, por exemplo, já chegou a confundir pessoas negras com gorilas. E em 2016, por engano, uma assistente digital criada pela Microsoft aprendeu a repetir informação preconceituosa, racista e homofóbica com base em comentários de utilizadores nas redes sociais.
Sem vontade própria
O grupo clarifica que o objectivo de estudar máquinas com algumas técnicas das ciências sociais não é o mesmo que estudar as máquinas como se tivessem vontade própria. A ideia é apenas parar de tentar dissecar a mecânica por detrás das decisões das máquinas como se fossem máquinas passivas. Em vez disso, deve-se ver um agente artificial como um agente activo que é influenciado pelo seu contexto, e pela relação com seres humanos e com outros agentes artificiais.
Iyad Rawan, investigador do MIT e líder da equipa responsável pelo estudo nota que, acima de tudo, o objectivo do trabalho publicado na Nature é começar a chamar a atenção para a área ao dar-lhe um nome. “Começamos a ver a ascensão de máquinas com capacidade de agência, máquinas que são actores capazes de decidir e decidir autonomamente”, alerta Iyad num comunicado sobre o trabalho. Para Rawan é fundamental ter “uma nova área de investigação que olha para os algoritmos como mais do que produtos da engenharia e ciência da computação”.