Inteligência artificial (de)generativa?
A desvalorização dos impactos deste tipo de software na produção de informação falsa pode ser tão nefasta quanto a sua demonização.
Os signatários da carta aberta sobre os múltiplos perigos associados ao desenvolvimento da inteligência artificial generativa (como o ChatGPT) apontam o aumento da desinformação como um dos malefícios temidos. Por sua vez, os não subscritores da missiva desvalorizam esta questão, argumentando que o incremento de fake news não introduz alterações significativas no regime de propaganda automatizada em que já vivemos. Vejamos: é verdade que a carta é alarmista, ou até mesmo catastrofista; todavia, a desvalorização dos impactos deste tipo de software na produção de informação falsa pode ser tão nefasta quanto a sua demonização.
Não estamos simplesmente perante “mais do mesmo”, e por várias razões: em primeiro lugar, a aceleração da produção de desinformação aumenta a velocidade da distribuição e a rapidez da substituição de uma fake news por outra. Neste cenário, a triagem dos factos é uma tarefa crescentemente inglória, a atenção é disputada por uma sucessão de invenções. Mas onde o pensamento não age actuam as emoções, em particular as negativas, que são o móbil da maioria da desinformação estrategicamente produzida.
No entanto, existem outras modalidades de desinformação impulsionadas pela inteligência artificial generativa que merecem escrutínio público. Estes chatbots conseguem gerar texto novo, mas não foram programados para serem exactos. Isto é especialmente problemático, porque a “autoria” segue protocolos de credibilidade: eles criam texto original, citam media de qualidade e incluem referências bibliográficas. Não plagiam, mas não distinguem factos de ficção: criam informação, erram nos dados e inventam fontes. Citam o The Washington Post ou o The Guardian, mas podem estar a falar de artigos inexistentes – o mesmo sucedendo, aliás, com projectos de investigação, artigos científicos ou livros publicados em editoras de renome internacional incorporadas nas suas respostas.
A tudo isto os seus criadores chamam “alucinações”, episódios momentâneos de falha. Acontece que é preciso vários tipos de literacia para não embarcar nestas ilusões de verdade. Ao criarem provas onde não encontram factos, estas ferramentas demonstram ter mecanismos de autodefesa e uma orientação para a “preservação da espécie” que prejudica a produção de conhecimento.
Juntemos ainda a estas apreensões as imagens falsas de elevada qualidade que qualquer usuário desta tecnologia pode criar em minutos ou até segundos. O objectivo de quem as produz pode não ser convencer as pessoas de que um determinado evento aconteceu, mas simplesmente fazê-las acreditar que não podem confiar no que vêem. A dificuldade em discernir o verdadeiro do falso aumenta o cepticismo e institui a dúvida permanente. Imagine-se agora um software deste tipo integrado em campanhas eleitorais: notícias falsas e imagens falsas construídas e distribuídas cirurgicamente à medida de cada um a partir de múltiplos dados dos usuários!
No tempo em que vivemos nada disto é coisa pouca: na era dos múltiplos negacionismos (como o climático e o eleitoral, entre outros) e de ecossistemas comunicacionais polarizados, os vários “ChatGPT” podem tornar-se aceleradores da descrença generalizada. Para que “alucinações” artificialmente criadas não contribuam ainda mais para desvarios reais, mais do que atrasar o desenvolvimento da inteligência artificial generativa ou bani-la, é necessário agir rapidamente e em dois planos paralelos: por um lado, ensinar a usar e a pensar a inteligência artificial generativa; por outro, não a deixar entregue à auto-regulação.
Se os seus produtores mantiverem o controlo total do seu desenvolvimento, dificilmente o primado do negócio e a reputação do serviço não se sobreporão aos interesses das sociedades democráticas. De facto, se estas empresas continuarem a tomar decisões de modo unilateral, então é mesmo bem possível que alguns dos cenários assustadores pressagiados pelos autores da carta aberta se concretizem.