Google quer inteligência artificial a melhorar a vida "milhares de vezes por dia"
Para conseguir ajudar toda a gente, a inteligência artificial tem de aprender com todo o tipo de pessoas e opiniões. Caso contrário podem existir "redes inteligentes injustas", diz responsável da empresa.
Em 2017, a inteligência artificial é a prioridade do Google, mas um futuro com máquinas capazes de criar laços genuínos, partilhar piadas e sentir empatia com outros seres humanos ainda pertence ao mundo da ficção científica. Pelo menos para o responsável de inteligência artificial no principal centro de engenharia do Google na Europa. Para a equipa de Jeremiah Harmsen, em Zurique, há outras prioridades.
“Os problemas de redes inteligentes injustas – com preconceitos ou visões enviesadas do mundo – são as questões reais que queremos resolver agora, e muito mais relevantes que cenários apocalípticos do fim do mundo”, disse ao PÚBLICO Jeremiah Harmsen, após uma apresentação do Google em Lisboa sobre o tema. “Como muitos algoritmos aprendem através de exemplos dados por humanos, os exemplos que têm influenciam como vêem o mundo.”
Nos últimos meses, a empresa tem organizado pequenos eventos para desmistificar o conceito de inteligência artificial, e falar sobre o que consegue fazer com a tecnologia. O mais recente “Magic in the machine” [A magia na máquina] realizou-se esta terça-feira na sede da Beta-i, um acelerador de startups em Lisboa.
Um dos mitos a erradicar é que inteligência artificial equivale a "robôs todo-poderosos" com aspecto humanóide. Muitas vezes são apenas programas de computador criados para facilitar a vida das pessoas. “Um bom exemplo é o nosso sistema de email capaz de ler e compreender emails e sugerir respostas simples,” disse Harmsen. “Se alguém pergunta sobre as nossas férias já podemos responder que ‘ainda não sabemos’ ou ‘enviamos mais tarde’ só com um clique.”
Outros são os sistemas de reconhecimento de imagens para organizar fotografias por tema, e o desenvolvimento da compreensão sintáctica para traduzir textos com o contexto certo. A meta é levar a inteligência artificial a todos os produtos do Google.
Porém, se as máquinas não aprenderem a partir dos dados certos – vastos, que considerem diferentes populações (em termos de idade, género, etnia, nacionalidade, sexualidade) e opiniões – podem existir problemas. No limite, isso pode significar classificar imagens de jovens negros como gorilas, traduzir a palavra "gay" como "fadinha", ou dar conotação negativa a palavras como “homossexual” ou "judeu". São exemplos que já afectaram produtos do Google.
“Estes casos chocantes têm de estar na cabeça da equipa do Google”, admitiu Harmsen. Além de pedir desculpa, e corrigir os erros, o Google quer impedir que se voltem a repetir. “Se as máquinas dependem dos exemplos que têm, temos de saber de onde vêm esses exemplos para poder identificar potenciais preconceitos. Embora a minha equipa não trabalhe directamente com os produtos, o caso das fotografias é um bom exemplo de um problema que é facilmente resolvido com novos dados", disse Harmsen.
Para conseguir ajudar toda a gente – e não apenas parte da população – Harmsen observou que a inteligência artificial tem de aprender com todo o tipo de dados (sejam opiniões, desenhos, ou informação genética). Um dos projectos recentes “com enorme potencial” destacado pelo engenheiro do Google é a “inteligência especializada aumentada” (em vez de meramente artificial) que deve expandir as competências de profissionais em áreas como a medicina e outras ciências.
“Vamos começar a ver isto ao nível do diagnóstico. Por exemplo, quando os médicos estão a avaliar raios X”, explica Harmsen. “A máquina não vai fazer o diagnóstico ao dizer ‘isto é um cancro do pulmão’, mas indicar elementos da imagem que são preocupantes e que o médico deve investigar.”
Harmsen disse que o objectivo não é substituir os médicos, mas redireccionar o trabalho destes profissionais: “Vai libertá-los para coisas mais importantes – passar menos tempo a olhar para raios X e passar mais tempo a falar e aconselhar os pacientes.”
O Google tem várias estratégias. Uma delas é é criar ferramentas para ensinar sistemas de inteligência artificial que possam ser utilizados por qualquer pessoa com acesso a um browser (independentemente do conhecimento que tenham). Um exemplo é o Quick Draw, um jogo online para ensinar a inteligência artificial do Google a reconhecer a forma como os seres humanos representam o mundo. O programa sugere um objecto, o humano desenha, e o Google tem 20 segundos para adivinhar. Mais de 15 milhões de pessoas já contribuiram. O objectivo do projecto é que o Google saiba sempre reconhecer o objecto que está a ser desenhado independentemente de quem o desenha.
A grande missão, diz Harmsen, é utilizar inteligência artificial para “continuar a melhorar a vida dos seres humanos de milhares de pequenas maneiras, milhares de vezes por dia”. Quando questionado sobre os limites da inteligência artificial, Harmsen foi rápido a responder: "O humor. Acho que é difícil uma máquina compreender um humano o suficiente para o conseguir fazer rir, genuinamente. Compreender o que motiva os humanos, o que nos assusta e o que nos entusiasma. A máquina não é um humano."