Deepfake de candidata republicana mostra riscos da Inteligência Artifical nas eleições dos EUA

Jornalista gera vídeo de propaganda política falso para provar que a inteligência artificial pode interferir na opinião pública, com a criação de conteúdos falsos ou mesmo com a réplica de vozes.

Foto
Kari Lake, aliada do candidato republicano Donald Trump The Washington Post
Ouça este artigo
00:00
06:46

Exclusivo Gostaria de Ouvir? Assine já

Hank Stephenson tem um detector de mentiras bem afinado. O jornalista de longa data ganhou a vida a desmascarar falsidades e propaganda política. Mas até ele foi enganado inicialmente quando viu o vídeo de uma das mais proeminentes candidatas ao Congresso do seu Estado natal.

Ali estava Kari Lake, a candidata republicana ao Senado pelo Arizona, no ecrã do seu telemóvel, a dizer palavras escritas por um software. Stephenson estava a ver um deepfake — um vídeo gerado pela sua própria empresa de informação, a Arizona Agenda, para sublinhar os perigos da desinformação por inteligência artificial (IA) num ano eleitoral crucial nos EUA e um pouco por todo o mundo.

"Quando começámos a fazer isto, pensei que ia ser tão mau que não ia enganar ninguém, mas fiquei espantado com o resultado final", disse Stephenson, que co-fundou o site em 2021, numa entrevista. "E nós não somos sofisticados. Se podemos fazer isto, qualquer pessoa com um verdadeiro orçamento pode fazer um trabalho bom o suficiente para nos enganar, vai-me enganar, e isso é assustador."

À medida que as eleições presidenciais de 2024 se aproximam, os especialistas e as autoridades estão a fazer soar cada vez mais o alarme sobre o poder potencialmente devastador dos deepfakes de IA, que temem que possam corroer ainda mais o sentido de verdade do país e desestabilizar o eleitorado.

Há sinais de que a IA — e o medo que a rodeia — já está a ter um impacto na corrida presidencial. No final do ano passado, o ex-presidente Donald Trump acusou falsamente os produtores de um anúncio, que mostrava as suas gafes públicas bem documentadas, de traficar conteúdos gerados por IA. Entretanto, imagens falsas com base em fotos reais de Trump e de outras figuras políticas, concebidas tanto para as impulsionar como para ferir, tornaram-se virais uma e outra vez, semeando o caos num ponto crucial do ciclo eleitoral.

Agora, as autoridades estão a procurar dar uma resposta a este problema. Nos últimos meses, o Departamento de Justiça de New Hampshire anunciou que estava a investigar uma chamada robótica falsificada com uma voz do Presidente Biden gerada por IA; os legisladores do Oregon à Florida aprovaram projectos de lei que restringem a utilização deste tipo de tecnologia nas comunicações de campanha.

E no Arizona, um Estado-chave na disputa de 2024, o funcionário principal das eleições usou deepfakes de si próprio num exercício de treino para preparar a equipa para o ataque de desinformação que está por vir. O exercício inspirou Stephenson e os seus colegas da Arizona Agenda, cuja agenda informativa procura explicar histórias políticas complexas para um público de cerca de 10.000 assinantes.

Durante cerca de uma semana, trocaram ideias e contaram com a ajuda de um amigo com experiência em tecnologia. Na sexta-feira, dia 22 de Março, Stephenson publicou o artigo, que incluía três clips com deepfakes de Lake.

Começa com um estratagema, dizendo aos leitores que Lake — uma candidata de extrema-direita que a Arizona Agenda já criticou no passado — decidiu gravar um testemunho sobre o quanto gosta do canal. Mas o vídeo passa rapidamente ao ponto de partida.

"Subscreva a Agenda do Arizona para obter notícias reais contundentes", diz a falsa Lake para a câmara, antes de acrescentar: "E uma perspectiva dos riscos que a inteligência artificial trará nas próximas eleições, como este vídeo, que é um deepfake de IA que a Arizona Agenda fez para mostrar o quão boa esta tecnologia está a ficar."

Em poucas horas, os vídeos tinham gerado dezenas de milhares de visualizações — e uma resposta com muito desagrado da equipa da verdadeira Lake. Os seus advogados enviaram uma carta que exigia "a remoção imediata dos vídeos falsos de todas as plataformas onde foram partilhados ou disseminados". Se o meio de comunicação se recusar a cumprir, lia-se na carta, a campanha de Lake "recorrerá a todos os meios legais disponíveis".

Stephenson disse que estava a consultar os advogados sobre como responder, mas não estava a planear remover os vídeos. Os deepfakes, disse, são bons dispositivos de aprendizagem, e o jornalista quer armar os leitores com as ferramentas para detectar tais falsificações antes de serem bombardeados à medida que a época eleitoral aquece.

"Lutar contra esta nova vaga de desinformação tecnológica neste ciclo eleitoral depende de todos nós", escreveu Stephenson no artigo que acompanha os clips. "A sua melhor defesa é saber o que está lá fora —​ e usar o seu pensamento crítico."

Hany Farid, professor da Universidade da Califórnia em Berkeley, que estuda propaganda digital e desinformação, disse que os vídeos da Arizona Agenda eram anúncios úteis de serviço público que pareciam cuidadosamente elaborados para limitar consequências indesejadas. Mesmo assim, disse, os meios de comunicação devem ter cuidado com a forma como enquadram as suas reportagens deepfake.

"Apoio os anúncios de publicidade, mas há um equilíbrio", disse Farid. "Não queremos que os nossos leitores e telespectadores vejam como falso tudo o que não está de acordo com a sua visão do mundo."

Os deepfakes apresentam dois "vectores de ameaça" distintos, disse Farid. Em primeiro lugar, os malfeitores podem gerar vídeos falsos de pessoas a dizer coisas que nunca disseram; e, em segundo lugar, as pessoas podem considerar com mais credibilidade falsas quaisquer imagens reais embaraçosas ou incriminatórias.

Esta dinâmica, segundo Farid, foi especialmente evidente durante a invasão russa da Ucrânia, um conflito repleto de desinformação. No início da guerra, a Ucrânia promoveu um deepfake que mostrava Paris a ser atacada, exortando os líderes mundiais a reagir à agressão do Kremlin com a mesma urgência com que reagiriam se a Torre Eiffel tivesse sido atingida.

Foi uma mensagem potente, disse Farid, mas abriu a porta para as alegações sem fundamento da Rússia de que os vídeos subsequentes da Ucrânia, que mostravam provas de crimes de guerra do Kremlin, eram igualmente falsos.

"Preocupa-me que tudo se esteja a tornar suspeito", disse.

Stephenson, que vive num campo de batalha político que ultimamente se tornou uma convergência de teorias da conspiração e falsas alegações, tem um receio semelhante.

"Há muitos anos que nos debatemos sobre o que é real", disse. "Os factos objectivos podem ser considerados notícias falsas e agora os vídeos objectivos serão considerados falsificações profundas, e as falsificações profundas serão tratadas como realidade."

Investigadores como Farid estão a trabalhar fervorosamente em software que permita aos jornalistas e outros detectar mais facilmente as falsificações. Farid disse que o conjunto de ferramentas que utiliza actualmente classificou facilmente o vídeo da Agenda do Arizona como falso, um sinal de esperança para a próxima vaga de falsificações. No entanto, a tecnologia de deepfake está a melhorar a um ritmo acelerado e as futuras falsificações poderão ser muito mais difíceis de detectar.

E mesmo o deepfake de Stephenson, reconhecidamente de baixa qualidade, conseguiu enganar algumas pessoas: Depois do envio da newsletter com o título "Kari Lake faz-nos um favor", um punhado de leitores assinantes cancelou a subscrição. O mais provável, suspeita Stephenson, é que tenham pensado que o apoio a Lake era real.

Exclusivo PÚBLICO/The Washington Post

Sugerir correcção
Ler 2 comentários