Na luta contra a desinformação, Google vê a IA como vilã e heroína

A missão de Dave Vorhaus é evitar que ferramentas Google acelerem a partilha de desinformação, sobretudo em época de eleições. A IA ajuda e complica, admite líder de integridade eleitoral da Google.

Foto
Novas ferramentas de IA aceleram a partilha de conteúdo falso na Internet, incluindo pessoas a dizer o que nunca disseram Getty
Ouça este artigo
00:00
06:17

Exclusivo Gostaria de Ouvir? Assine já

"O Presidente francês foi obrigado a cancelar a sua visita à Ucrânia devido a uma tentativa de assassínio [da parte de Kiev]" — esta frase, que sai da boca do apresentador da France24 Julian Fanciulli em vídeos que circulam online desde Fevereiro, é um exemplo de conteúdo falso criado com inteligência artificial (IA). Na realidade, Fanciulli nunca disse tal coisa. O caso ilustra a forma como novas ferramentas de IA aceleram a partilha de desinformação na Internet, desde notícias que nunca foram escritas até vídeos onde se vêem figuras públicas a dizer coisas que nunca disseram.

É neste contexto que trabalha David (Dave) Vorhaus, o actual director de integridade eleitoral da Google. A missão da sua equipa é impedir que conteúdo falso circule sem contexto através de plataformas da Google (Pesquisa, YouTube, Play), particularmente num ano com dezenas de eleições em todo o mundo, incluindo para o Parlamento Europeu, de 6 a 9 de Junho. ​“Estamos à espera de ver narrativas em torno da guerra na Ucrânia, mas também a crise energética na região e problemas relacionados com a imigração”, avança o especialista da Google quando questionado sobre as eleições europeias, numa conversa com o PÚBLICO sobre os desafios da desinformação online e o papel da Google no ecossistema.

Embora seja comum recorrer a motores de busca para verificar informações online (por exemplo, para ver que fontes repetem uma determinada informação), um estudo divulgado em Dezembro na revista Nature indica que pesquisar termos-chave relacionados com notícias ou vídeos falsos pode levar as pessoas a cair em espirais de desinformação. Desde Maio de 2023, foram identificados mais de 802 sites de desinformação gerados por IA, de acordo com a NewsGuard, uma organização que monitoriza a desinformação em todo o mundo.

Só que ver a IA como vilã não é solução, alerta Vorhaus. “O conteúdo criado de forma sintética apresenta desafios, mas é importante perceber que, à medida que esta tecnologia se desenvolve, também se torna numa das nossas maiores ferramentas”, defende. “A luta não é contra um conteúdo específico e mágico de desinformação capaz de mudar a opinião de todos. O nosso desafio é lidar com o volume de desinformação e ajudar os utilizadores a identificar informação de qualidade.”

Foto
Dave Vorhaus (ao centro), director de Integridade eleitoral da Google, num fórum sobre IA em Capitol Hill Alex Wong/Getty

Em 2024, os grandes modelos de linguagem (LLM, na sigla inglesa), que são a base de chatbots como o ChatGPT, da OpenAI, e o Gemini, da Google, já são usados para identificar notícias falsas em larga escala. Uma das estratégias é treinar os LLM a reconhecer padrões de linguagem associados a desinformação (por exemplo, linguagem sensacionalista) e identificar narrativas e fontes frequentemente associadas a notícias falsas.

“Também podemos partilhar a nossa política quanto a determinados tópicos e conteúdos [com os modelos]”, completa Vorhaus. “Os LLM permitem-nos fazer isto a uma escala que não conseguimos antes ao dar-nos pistas sobre para onde devemos olhar.”

O contexto humano

Vorhaus salienta, no entanto, que o trabalho não pode apenas ser feito por algoritmos. Modelos treinados para analisar a estrutura da desinformação podem falhar a reconhecer a utilização de ironia numa frase, ou nuances culturais. O tema da desinformação muda de país para país. “Nos Estados Unidos, por exemplo, o foco da desinformação é em torno da legitimidade das eleições e dos padrões de votos. Mas se olharmos, por exemplo, para as eleições das Filipinas, a desinformação focava-se em torno do negacionismo histórico”, contextualiza Vorhaus.

Com a eleição de Ferdinand (Bongbong) Marcos como Presidente das Filipinas em 2022, notou-se uma tendência para minimizar aspectos negativos associados ao regime autoritário do seu pai, nos anos 1970, que foi marcado pela lei marcial, censura, corrupção e violação dos direitos humanos.

“Em geral, quem dissemina desinformação não se foca necessariamente em narrativas ou tácticas específicas. Identificam os tópicos que mais podem levar à discórdia [numa sociedade], e é isso que agarram”, justifica Vorhaus. “[A desinformação] é um conteúdo recorrente no ecossistema online”, acrescenta. A época eleitoral é apenas um ponto crítico em que estes vectores de abuso são mais agudos.”

Grande parte da desinformação é precisamente impulsionada por ganhos financeiros. Escolhem-se temas polémicos ou emocionais porque geram mais interacções online, como partilhas, gostos e comentários nas redes sociais. Isto alimenta o tráfego e, consequentemente, aumenta as receitas publicitárias nos sites de desinformação – é outro dos grandes desafios da Google.

O lucro da desinformação

Durante a conversa com o PÚBLICO, Vorhaus repete que “apoiar eleições livres e justas em todo o mundo” é uma das grandes prioridades da empresa. Ao mesmo tempo, o líder de integridade eleitoral da Google reconhece que a empresa tem vindo a ser criticada pelo papel da publicidade no financiamento de desinformação. Uma investigação de 2022 da ProPublica revela que a plataforma de publicidade da Google coloca publicidade em sites que divulgam informações falsas sobre temas sensíveis como vacinas, mudanças climáticas e eleições.

Vorhaus admite que impedir publicidade em sites de desinformação é um dos focos da tecnológica, mas monitorizar todas as páginas onde a Google exibe publicidade é uma tarefa complexa. “O trabalho de monetização da Google é bastante abrangente e é algo que é feito numa enorme escala”, nota. “Estão sempre a surgir novas páginas online, especialmente se estivermos a falar de sites de notícias e opinião. E nem todos os conteúdos num site interagem com as nossas políticas da mesma forma”, explica. “Se um site tiver várias páginas que desrespeitam a nossa política, tomamos acção. Mas nem sempre tomamos acção se uma página num site com milhares de conteúdos e artigos violar uma das nossas políticas”, fundamenta o especialista da Google, que vê novos modelos de IA a dar dicas úteis a revisores humanos que trabalham nesta área.

Apesar da confiança no progresso tecnológico, Vorhaus não vê o combate à desinformação a resolver-se apenas com avanços digitais. Para o líder de integridade eleitoral da Google, o desafio da desinformação exige colaboração a várias frentes: entre diferentes países, organizações de verificação de factos, e gigantes da Internet.

Foi em resposta a esta necessidade de cooperação que, em Fevereiro, a Google se juntou a outras tecnológicas como a Meta (dona do Instagram, Facebook e WhatsApp), OpenAI, TikTok e X para trabalhar em formas de detectar e combater formas de abuso com IA, incluindo conteúdo digital que usa IA para alterar ou manipular a aparência, voz e acção de figuras públicas.

Sugerir correcção
Comentar