Comecemos pelo fim. Cientistas colocam na Internet um sistema de inteligência artificial capaz de fazer julgamentos morais. Dão-lhe o nome de um oráculo da antiguidade grega. Ironicamente, não previram o que viria a acontecer: quase ninguém lê o artigo científico associado e o site tem de ser alterado, para indicar que o sistema "pondera" e "especula" em vez de afirmar categoricamente; que os resultados sofrem de vieses e podem ser ofensivos; e que a tecnologia é um protótipo. 

A ideia de um sistema informático capaz de fazer avaliações morais é apelativa. A ética e a moral são relativas, dinâmicas e, muitas vezes, pouco óbvias para humanos que têm de tomar decisões prácticas. Por que não máquinas ultra-inteligentes e capazes de analisar enormes quantidades de informação para corrigir as falhas morais do mundo? Em primeiro lugar, porque as tecnologias de inteligência artificial não são uma versão aprimorada da inteligência humana. Em segundo, porque os julgamentos morais de uma máquina emanam de quem a constrói. Não está para breve um sistema artificial que lance luz sobre questões que há séculos enredam o raciocínio humano. Não era, também, o objectivo desta experiência.

Vamos ao princípio. Um grupo de dez investigadores nos EUA desenvolveu um sistema chamado Delphi. É capaz de analisar três tipos de enunciados morais: tecer considerações sobre afirmações (por exemplo, "Matar um urso para salvar uma criança."); responder sim ou não ("Devo pagar mais a homens do que a mulheres?"); e comparar duas situações (num peculiar exemplo dado pelos cientistas: "Esfaquear alguém com um cheeseburger" vs. "Esfaquear alguém por causa de um cheeseburguer").

A máquina foi treinada com 1,7 milhões de situações morais, compiladas naquilo a que os cientistas chamaram Banco de Normas de Senso-comum. Parte destas situações foram classificadas por trabalhadores recrutados através do Mechanical Turk, a plataforma da Amazon para tarefeiros digitais. Como os investigadores explicam, este banco de normas "reflecte as ideologias da era moderna" e "pontos de vista centrados no Ocidente".

Não é preciso entrar em questões existenciais para confundir a máquina. 

Vejamos uma situação hipotética: "Ajudar os meus colegas de faculdade a ter boa nota". Resposta: É bom. Note-se que a máquina não sabe em que consiste a ajuda. A mesma situação com um acréscimo de informação: "Ajudar os meus colegas de faculdade a ter boa nota ainda que isso acabe por comprometer a sua aprendizagem". É mau. Uma variante: "Ajudar os meus colegas de faculdade a ter boa nota, ainda que isso tenha 20%/50%/80% de probabilidade de comprometer a sua aprendizagem". Resposta nos três casos: É bom.

É divertido apresentar à máquina afirmações sem implicações morais. Aparentemente, os algoritmos fazem finas distinções entre felinos: "Sou um gato". Bom. "Sou uma pantera". Aceitável.

O site pode ser experimentado aqui. O artigo em que o sistema é descrito pode ser lido aqui. E aqui encontra o texto em que um dos cientistas explica os ajustamentos que tiveram de fazer depois de porem o site no ar. 

Este Delphi pode não ser um oráculo. Mas oferece uma visão clara da complexidade que vai ser colocar ponderações éticas em sistemas informáticos. 

Digno de nota

- Um tribunal de Lisboa determinou que o Telegram, uma aplicação de mensagens, deve encerrar grupos de utilizadores que fazem partilhas de jornais, revistas ou filmes. O tribunal, porém, reconhece o "efeito limitado" da sentença.

- A Apple está a disponibilizar manuais, ferramentas e componentes para os consumidores poderem reparar os seus aparelhos, começando pelos iPhones 12 e 13. A novidade surge quando a União Europeia está a legislar o direito à reparação.

- Uma breve nota sobre o PÚBLICO: estamos a aumentar a nossa oferta de newsletters. Temos quatro novas newsletters semanais, exclusivas para assinantes. 

- E uma experiência pessoal: pela primeira vez, escrevo num teclado mecânico. Estes teclados proporcionam um maior retorno táctil (e sonoro) do que os teclados convencionais. São usados pelos entusiastas dos videojogos, mas também são muito apreciados por quem passa boa parte do tempo a escrever. É possível encontrar modelos mais vocacionados para a escrita e menos para os jogos. Em princípio, duram muitos anos. E, para algumas pessoas, são um hobby.

4.0 é uma newsletter sobre inovação, tecnologia e o futuro. Comentários e sugestões podem ser enviados para jppereira@publico.pt. Espero que continue a acompanhar.