O “chat” do nosso futuro
Identificar um texto produzido artificialmente pode vir a ser uma técnica de autodefesa pessoal. Poderá um dos parágrafos deste texto ter sido produzido pelo ChatGPT?
“Talvez devêssemos todos parar por um momento…em benefício da Humanidade”
Stephen Hawking (em Lisboa, Web Summit de 2017)
No final de Março de 2023 uma “Carta Aberta” (CA) provoca a nível internacional uma agitação comunicacional fora do comum. A inteligência artificial (IA) generativa, um produto capaz de gerar conversas, textos criativos, imagens, poesia, programas de computador, fazer a revisão de textos e de obter algumas soluções de problemas científicos, passou a ser publicamente divulgada, discutida ou idolatrada. O ChatGPT é um algoritmo muito potente deste tipo e é, no presente, muito conhecido. A CA pede uma pausa de, pelo menos, seis meses na evolução deste produto e provocou, assim, um abalo. Em importantes canais ou plataformas dos media internacionais surgiram comentários e debates. Em Portugal também.
A CA teve o mérito de ter suscitado rapidamente um debate público à escala do planeta e já atraiu cerca de 30.000 assinaturas de apoio. Em comentário a esta iniciativa, especialistas de IA afirmam que o ChatGPT surge na sequência de um processo em curso que continuará a ser desenvolvido. Não é um produto que surgiu do nada, uma descontinuidade inesperada, mas ainda não é uma superinteligência. A assinatura do multifacetado e poderoso Elon Musk pode ter sido a causa, o motor, desta agitação extraordinária no mundo da comunicação.
Na verdade, o renomado cientista Stephen Hawking (1942-2018), na sua intervenção na Web Summit de Lisboa de 2017, foi muito mais incisivo relativamente aos eventuais perigos da IA e propôs também uma pausa, afirmando que o enfoque deveria ser o de melhorar a IA em benefício da humanidade. Parece que não teve grande impacto.
Numa página e meia, a CA de 2023 é mais moderada e interroga o leitor relativamente aos desenvolvimentos da IA em curso em particular no que respeita a falta de controlo da nossa civilização, a automatização de todos os empregos e os poderes de decisão não eleitos. Propõe a avaliação por especialistas independentes e, de um modo explícito, o texto afirma que não se pede uma pausa no processo de desenvolvimento geral da IA. Pedem-se, sim, sistemas mais “precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”. Aspectos que se enquadram nas muitas recomendações éticas e de regulação que têm sido elaboradas para a IA, em especial na UE.
Esta CA pode merecer críticas. Apresento duas: a proposta de pausa não é operacionalmente viável a nível global e parece ser só um desejo sem consequências práticas; e podem ser levantadas dúvidas, eventualmente injustas, sobre eventuais intuitos comerciais escondidos. A história da evolução das técnicas permite, contudo, prever que o processo de investigação e desenvolvimento em IA não deverá ficar comprometido, pois há interesses suficientemente fortes no desenvolvimento e nas aplicações. Há um pseudodeterminismo justificatório socialmente muito eficaz. O entusiasmo dos que estão associados a aplicações comerciais e industriais é bem patente e a futura adaptação dos humanos não surpreenderá.
Contudo, a reflexão sobre o ChatGPT é positiva. Uma lista recente incluía cerca 60 actividades profissionais que poderão ser afectadas. Os mais optimistas dizem que sempre desapareceram e se criaram actividades profissionais. O passado ensina-nos muito, mas não tudo sobre o futuro. Depois de os humanos terem sido ultrapassados na força e na energia, confrontam-se agora com uma superação nova: a capacidade intelectual de conhecimento e decisão. Esta superação será útil na resolução de problemas relevantes, mas pode ter potenciais efeitos negativos caso não seja um instrumento sob controlo humano adequado.
O ChatGPT e seus sucessores colocam um desafio sobre o que é autoria: pode esse algoritmo ser um autor como um humano é escritor ou pintor? Este é um dos aspectos relevantes. Será prudente uma subordinação ou submissão humana conducente a um desempoderamento intelectual progressivo, a uma perda de conhecimentos teóricos e a uma desqualificação no trabalho? Com ameaças éticas já conhecidas na privacidade e vigilância, possibilidade acrescida de fraude, confusão sobre a realidade, a responsabilidade e a verdade.
Invocar a vantagem do progresso técnico dos últimos 200 anos para colocar em causa uma regulação que poderia prejudicar o desenvolvimento destas novas tecnologias não nos parece acertado: os efeitos negativos do referido progresso nos ecossistemas, no clima e na segurança ambiental devem suscitar a nossa prudência e o controlo ético desse novo desenvolvimento para tentar evitar, desta vez, uma crise grave na sociedade humana.
Tentar identificar um texto produzido artificialmente poderá vir a ser uma técnica de autodefesa pessoal. Podemos desafiar os leitores: poderia um dos parágrafos deste texto ter sido produzido pelo ChatGPT? Se a resposta for afirmativa como é que tal se revelou? Se for negativa não fiquem por agora preocupados. Uma sugestão de leitura: o livro Inteligência Artificial 2041, de Kai-Fu Lee e Chen Qiufan, acabado de ser editado em Portugal.