Lembra-se de quando discutíamos a relação entre o Facebook e acontecimentos políticos como o Brexit e a eleição de Donald Trump? De quando ainda questionávamos se era possível combater as notícias falsas na Internet? De quando olhávamos com alguma surpresa para o facto de países como a Rússia e o Irão terem comprado anúncios nas redes sociais para tentar polarizar opiniões, minar processos democráticos ou genericamente contribuir para o caos? 

A maioria destes problemas foram assimilados: estão por resolver, mas, talvez numa postura de realismo, há hoje um encolher de ombros quase generalizado ante a presença de desinformação no espaço público. 

É altura de nos inquietarmos com outros usos da tecnologia na vida política das democracias. 

 
           
          Conteúdo patrocinado          
          A sustentabilidade das empresas passa por um ecossistema específico

O Insure.hub da Universidade Católica está a mudar a forma como inovação e empreendedorismo se cruzam no caminho para a sustentabilidade dos negócios.

         
           
 

Miguel Esteves Cardoso escreveu há dias aqui no PÚBLICO que "a tecnologia não tem culpa" e que o ser humano não é " um nabo indefeso incapaz de controlar o que lhe põem nas mãos". Tem razão. Mas a questão nunca está nos eventuais nabos. Está, como sempre, nos muito inteligentes e sofisticados.

É este o caso daqueles que nos EUA estão a recrutar pessoas online, a usar ferramentas de análise de dados para seleccionar os que sejam ideologicamente desejáveis, e a construir uma enorme base de dados de potenciais funcionários públicos. O plano é que, caso Trump seja eleito, estes substituam muitos dos funcionários actuais, permitindo aos republicanos de Trump controlar o aparelho estatal de uma forma inédita. 

Os contornos políticos do caso, que tem vindo a ser narrado na imprensa americana, não dizem respeito a esta newsletter. Mas vale a pena resumir a operação.

Uma fundação chamada Fundação Heritage, com um longo historial de indicação de pessoas para as administrações republicanas, criou um site para receber candidaturas de quem queira trabalhar em funções públicas. Estes candidatos respondem a questionários que têm mais a ver com posições políticas e ideológicas do que com as competências para que um recrutador normalmente olharia.

No caso dos candidatos que possam vir a ocupar cargos importantes, a actividade em redes sociais é analisada em detalhe. São excluídos, por exemplo, aqueles que online se tenham manifestado a favor de limites aos poderes de uma presidência de Trump. 

Tipicamente, um recém-eleito Presidente americano nomeia cerca de quatro mil pessoas para cargos de topo. Porém, a ideia da Heritage é ter uma base de dados com 20 mil a 50 mil pessoas ideologicamente alinhadas que possam também ocupar cargos menores.

Teoricamente, o rol de candidatos ficará à disposição de qualquer presidente do Partido Republicano. Mas a selecção está a ser feita para coincidir com a agenda de Trump. O projecto está a ser construído, em parte, com tecnologia da multinacional americana Oracle.

Dizer que isto é uma espécie de LinkedIn feito à medida de um segundo mandato de Donald Trump é, em rigor, uma comparação benigna. Uma base de dados com dezenas de milhares de potenciais funcionários filtrados ideologicamente e prontos a infiltrarem-se no aparelho estatal americano é uma distopia a ser montada à vista de todos. E é algo cuja escala a tecnologia só há pouco tempo tornou viável. 

IA, a natureza da verdade e a amplificação humana
A minha colega Karla Pequenino fez uma entrevista a Fernando Pereira, o vice-presidente da Deep Mind, a empresa de inteligência artificial da Google. Pereira tanto fala sobre os benefícios e as promessas da tecnologia, como aborda os riscos e desafios para os quais a solução não é óbvia. São, diz com graça, questões que o mantêm acordado durante o dia, pelo entusiasmo, e durante a noite, pela preocupação.

Dois excertos:

"Qual tem sido o maior desafio até agora? O que o mantém acordado durante a noite?
A questão da alucinação dos modelos [de IA] generativos. Isto acontece quando um modelo comprime e condensa a informação com que foi treinado e produz uma resposta que é plausível, mas falsa. É importante avaliar isto quando pensamos em introduzir modelos de IA generativa em produtos. Como jornalista, como é que se determina que aquilo que alguém diz é verdade? Por vezes, pode ser preciso fazer investigação adicional. Por exemplo, consultar diferentes fontes ou entrevistar outras pessoas. Da mesma maneira, como é que um sistema de IA pode fazer esse processo de verificação?

Decidir como se treina a IA para ter um certo cepticismo e verificar aquilo que diz é uma questão prática e filosófica. Qual é a natureza da verdade? O que é suficiente?"

"Quer explicar melhor esta ideia de próteses cognitivas?
São próteses porque há uma amplificação das capacidades do ser humano. Não preciso de óculos para ver, mas os óculos ampliam o que sou capaz de ver. Um motor de busca amplia a minha capacidade de encontrar informação. Estas tecnologias permitem explorar o espaço de possibilidades de uma forma que nunca existiu antes.

Vejo isto com a minha neta de 13 anos. Ela é uma boa artista, mas esta tecnologia permite-lhe explorar padrões, cores, formas e estilos com uma velocidade muito para além do que uma outra criança de 13 anos poderia fazer há 50 anos."

Vale a pena ler na íntegra.