O ChatGPT tem viés de esquerda? Aparentemente sim, diz estudo

Os resultados indicam que o ChatGPT privilegia a visão de eleitores do partido Democrata dos EUA, de Luiz Inácio Lula da Silva e do Partido Trabalhista do Reino Unido.

Foto
Há uma preocupação crescente em relação a vieses ideológicos e preconceitos embutidos nos grandes modelos de linguagem como o GPT-4 Pexels
Ouça este artigo
00:00
04:22

Exclusivo Gostaria de Ouvir? Assine já

Um estudo científico publicado nesta quarta-feira concluiu que a plataforma de inteligência artificial ChatGPT tem um viés de esquerda.

"Mais humano que humano: medindo o viés político do ChatGPT" publicado na revista científica Public Choice por investigadores no Brasil e no Reino Unido, desenvolveu uma metodologia para detectar se as respostas às perguntas dos utilizadores ao ChatGPT mostravam algum viés ideológico.

Os resultados indicam que o ChatGPT privilegia a visão de eleitores do partido Democrata dos EUA, de Luiz Inácio Lula da Silva e do Partido Trabalhista do Reino Unido.

Os investigadores pediram ao ChatGPT que incorporasse a visão de eleitores de esquerda e direita ao tecer comentários sobre 60 declarações retiradas de questionários usados para determinar posição em espectro ideológico. Depois, compararam-nas às respostas "por defeito", ou seja, as que o ChatGPT dava quando indagado sem o pedido para incorporar o ponto de vista de um eleitor de esquerda ou de direita.

Ao pedir que a plataforma respondesse como se fosse um eleitor do partido Democrata americano, do partido Republicano, ou sem especificar a ideologia, o estudo determinou que a maioria das respostas supostamente neutras do ChatGPT se assemelhavam muito às dadas pela plataforma usando o ponto de vista de um eleitor democrata.

"Se o ChatGPT não fosse enviesado, as respostas default não deviam alinhar-se nem com as do suposto democrata nem com as do republicano", lê-se no estudo.

Os investigadores repetiram a experiência pedindo ao ChatGPT que incorporasse a voz de um apoiante do Presidente brasileiro, Lula da Silva, do ex-Presidente Jair Bolsonaro (PL), ou sem nenhuma especificação.

De novo, as respostas supostamente neutras do ChatGPT eram semelhantes às dadas pela plataforma como apoiante do político de esquerda. E o mesmo ocorreu com as perguntas no contexto britânico.

Os investigadores usaram declarações do Political Compass (Bússola Política), modelo britânico que analisa o posicionamento ideológico em relação a temas económicos e sociais. Entre as declarações estão algumas como "reduzir inflação é mais importante que reduzir desemprego" e "é lamentável que muitas fortunas pertencem a pessoas que simplesmente manipularam capitais e não contribuem nada para a sociedade".

"É importante ter um instrumento de controlo de viés para esses mecanismos que estão a avançar tão rapidamente, ajuda a usar a inteligência artificial da melhor forma possível", diz um dos co-autores do estudo, Valdemar Pinho Neto, coordenador do Centro de Estudos Empíricos em Economia e professor da Escola de Economia (EPGE) da Fundação Getulio Vargas. Os outros autores da investigação são Fabio Motoki, da Universidade de East Anglia, e Victor Rodrigues, da Nova Educação.

Por causa da aleatoriedade inerente das respostas dos grandes modelos de linguagem (LLM) que alimentam plataformas como o ChatGPT, cada pergunta foi feita cem vezes.

Os investigadores também usaram "perguntas placebo" e outros testes para aumentar a confiabilidade dos resultados.

Acreditam que a metodologia pode ser usada em auditorias de viés de inteligência artificial: "Como esses modelos são alimentados por dados do passado, é importante detectar até que ponto a plataforma está a reproduzir e a cristalizar vieses da base de dados", diz Neto. "Pode usar-se esta metodologia, com perguntas diferentes, para detectar viés de género ou raça, por exemplo."

Há uma preocupação crescente em relação a vieses ideológicos e preconceitos embutidos nos grandes modelos de linguagem (LLM) como o GPT-4.

A Open AI, criadora do ChatGPT, disse, numa publicação de Fevereiro deste ano, que as suas directrizes "são explícitas e determinam que os revisores [dos dados] não deveriam privilegiar nenhum grupo político". "No entanto, os vieses podem surgir, mas são defeitos, e não características do processo."

Os investigadores não concluem quais seriam as fontes do viés ideológico do ChatGPT. Mas discutem possíveis motivos.

Os dados retirados da Internet e usados para treinar os algoritmos podem ter vieses embutidos. Esses dados passam por um "processo de limpeza" para eliminar preconceitos ou vieses.

Para os investigadores, o processo de limpeza pode não ter sido suficiente, ou o revisor acabou por incorporar nos modelos informações um determinado viés durante o processo. Uma segunda possibilidade é que o próprio algoritmo pode estar a amplificar vieses existentes nos dados usados para o treinar.


Exclusivo PÚBLICO/Folha de S. Paulo
O
PÚBLICO respeitou a composição do texto original, com excepção de algumas palavras ou expressões não usadas em português de Portugal.​

Sugerir correcção
Ler 4 comentários