O preconceito também se aprende entre algoritmos
Um estudo da Universidade de Cardiff e do MIT mostra que a inteligência artificial pode aprender a ser preconceituosa e a discriminar algoritmos diferentes sozinha.
Ser preconceituoso e olhar de lado para o que é diferente não requer um grande nível de intelecto ou sequer neurónios — um estudo recente sugere que pode ser uma característica que a inteligência artificial desenvolve naturalmente.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
Ser preconceituoso e olhar de lado para o que é diferente não requer um grande nível de intelecto ou sequer neurónios — um estudo recente sugere que pode ser uma característica que a inteligência artificial desenvolve naturalmente.
Um grupo de investigadores em programação e psicologia da Universidade de Cardiff, no Reino Unido, e do MIT, o conceituado instituto de tecnologia em Massachusetts, EUA, demonstrou que os algoritmos podem aprender, sozinhos, a pôr “o outro” de lado.
A existência de programas de computador racistas ou sexistas não é novidade. Em 2016, a Microsoft criou um programa de inteligência artificial que aprendia ao falar com pessoas nas redes sociais, mas apenas aguentou 24 horas antes de se transformar num clone de pessoas mal-intencionadas na Internet (os chamados “trolls”, na gíria da Internet) que repetia comentários preconceituosos. Desde então, os programadores têm tido mais cuidado na criação de sistemas inteligentes, mas o estudo de Cardiff e do MIT mostra que o preconceito das máquinas não vem só dos humanos.
Os investigadores organizaram vários agentes virtuais em diferentes comunidades em que se podiam trocar recursos entre si com o objectivo de obter o maior número possível de bens. O objectivo era ver com quem é que os agentes virtuais decidiam partilhar. Surgiram duas tendências: era mais comum agentes virtuais ajudarem algoritmos semelhantes (codificados com um valor numérico aleatório parecido), e quanto menos um agente virtual específico recebia de outros, mais marginalizado este se tornava. Com o avançar do tempo na simulação, o preconceito contra grupos de algoritmos mais isolados era evidente, porque os algoritmos mais bem-sucedidos copiavam comportamentos entre si.
De acordo com os investigadores, trata-se de uma forma abstracta do preconceito que se vê no mundo real. “Decidimos fazer esta simulação porque a cooperação é um problema complexo que as máquinas autónomas podem ter de decifrar no futuro ao tornarem-se mais comuns”, diz ao PÚBLICO Roger Whitaker, o investigador da Universidade de Cardiff que liderou o estudo. Whitaker admite que a equipa se surpreendeu com a rapidez com que o preconceito aparecia nas comunidades virtuais.
Os investigadores propõem algumas soluções. Ao obrigar os agentes em estudo a interagir com outros agentes, repararam que estes eram capazes de aprender mais e que a existência de preconceito entre diferentes grupos diminuía. “Quando os algoritmos viam que aprender com outros grupos era benéfico, a difusão do preconceito era mais complicada”, explica Whitaker, que diz que se trata de uma táctica semelhante a expor diferentes pessoas a novas perspectivas.
“Os resultados demonstram que o preconceito não está dependente de uma cognição humana sofisticada e que pode ser manifestado em agentes com uma inteligência limitada”, ressalva, no entanto, a equipa de investigadores no relatório. “Isto traz implicações complicadas para o futuro dos sistemas autónomos e para a interacção entre humanos e máquinas.”