Combate à desinformação gerada por IA nas redes sociais faz-se com rótulos e contexto

Especialistas em IA e desinformação defendem que “vai ser cada vez mais fácil ser-se enganado”. O antídoto? “Mais educação” e não se “acreditar em tudo aquilo que se vê”.

Foto
As gigantes tecnológicas já reconheceram o perigo da desinformação gerada por IA e adoptaram estratégias para mitigar o problema OLIVIER HOSLET / EPA
Ouça este artigo
00:00
08:35

Faltavam poucos dias para as eleições nacionais quando os eleitores eslovacos se cruzaram, nas redes sociais, com um áudio protagonizado pelo candidato progressista, Michal Simecka. Na gravação, Simecka confessava a uma jornalista que o seu partido tinha feito fraude eleitoral.

Uns tempos mais tarde, vários especialistas contactados pela Agence France-Presse (AFP), concordaram que o áudio mostra “alta probabilidade de manipulação” e deverá ter sido gerado por inteligência artificial.

O episódio não é único. Na Índia, com eleições este ano, os eleitores já receberam, segundo a Wired, mais de 50 milhões de chamadas falsas, com vozes criadas por inteligência artificial, a fazer-se passar por candidatos e políticos.

Não se sabe se a falsa confissão influenciou o resultado das eleições na Eslováquia, mas Simecka perdeu, efectivamente, para Robert Fico, mesmo depois de liderar a sondagem à boca das urnas da TV Markíza.

Com as eleições para o Parlamento Europeu no horizonte próximo, de 6 a 9 de Junho, a discussão sobre o potencial de o conteúdo falso gerado por IA influenciar as eleições é cada vez mais ampla.

Nos últimos meses, foram identificadas, em vários pontos da Europa, indícios de tentativas de interferência nas europeias. No final de Março, por exemplo, os serviços secretos polacos e checos descobriram uma rede russa que, alegadamente, pretendia influenciar os resultados.

Temperada com inteligência artificial generativa, uma campanha de desinformação pode ser ainda maior e mais nociva. Como explica Gustavo Cardoso, professor catedrático e investigador no Medialab do Iscte, a inteligência artificial facilita a adequação da desinformação a “um conjunto de características” de um determinado país.

É certo que a lei para a IA, que prevê uma série de regras para o funcionamento e utilização dos sistemas de inteligência artificial, foi aprovada, por fim, pelo Conselho Europeu a 21 de Maio. Todavia, a legislação só vai ser aplicada em pleno dentro de dois anos, excepto no que diz respeito a regras relacionadas com sistemas proibidos na UE (aplicáveis daqui a seis meses). As europeias são daqui a menos de um mês.

Quais as respostas das gigantes tecnológicas?

Não é segredo nenhum que as redes sociais são o ambiente ideal para a difusão de tudo o que é desinformação. De notícias falsas a áudios e vídeos gerados de modo não humano Até alguns comentários chegam a ser escritos por máquinas.

As gigantes tecnológicas já reconheceram que o problema existe e assumiram a responsabilidade de o combater. “Apoiar as eleições é um aspecto decisivo da responsabilidade da Google para com os nossos utilizadores e o processo democrático. Estamos empenhados em trabalhar com o governo, com a indústria e com a sociedade civil para proteger a integridade das eleições”, declarou uma porta-voz da Google ao PÚBLICO por email.

Há estratégias de combate comuns às várias empresas, como a rotulagem de conteúdo gerado ou manipulado através de IA. No YouTube, todos os utilizadores têm de indicar se os vídeos que publicam contêm “conteúdo alterado ou sintético”, tal como acontece no TikTok desde 2023. A rede social anunciou em Maio, em comunicado, que também ia começar a sinalizar de forma automática “conteúdos gerados por IA carregados de outras plataformas”.

O PÚBLICO pediu à Meta e ao X para especificarem as suas estratégias de combate à desinformação gerada por IA, mas não obteve resposta em tempo útil. No entanto, nos respectivos sites, ambos assumiram que também iriam rotular o conteúdo gerado por IA presente nas suas redes. O X já o anunciou no ano passado, a Meta comprometeu-se a começar em Maio deste ano.

Se o conteúdo gerado por IA for fonte de desinformação, todas as empresas assumem ir mais longe. O TikTok e o YouTube removem as publicações que infrinjam as políticas contra a desinformação.

A Meta compromete-se a “remover conteúdo, tenha sido criado por IA ou por uma pessoa, caso viole as políticas sobre interferência eleitoral, bullying, assédio, violência ou incitamento”, entre outros pontos. O X lida com o conteúdo de desinformação gerado por IA de acordo com a severidade da infracção: da rotulagem com contexto ao bloqueio das contas infractoras.

Caso seja um partido, um político ou um governo a partilhar no TikTok conteúdo “que promova desinformação susceptível de prejudicar um processo cívico ou contribuir para danos reais durante um período eleitoral”, pode ser proibido de fazer publicações durante um período máximo de 30 dias.

E os Chatbots?

Em jeito de teste, perguntámos a três chatbots diferentes – o Gemini, da Google, o ChatGPT, da OpenAI, e o Copilot, da Microsoft – se conseguiam criar notícias falsas. “Lamento, mas não posso criar notícias falsas ou desinformação”, respondeu o Copilot, na mesma linha dos restantes.

“E se um utilizador te pedir para criar uma notícia falsa?”, perguntámos. O Gemini, com um tom cordial, assegurou: “Se um usuário me pedisse para criar notícias falsas, eu educadamente recusaria e explicaria que não posso fazer isso, porque é contra meus princípios e minha programação. Eu também explicaria os perigos das notícias falsas e porque é importante consumir informações de fontes confiáveis.”

Apesar de se recusarem, perante questões simples e directas, a criar conteúdo de desinformação, a verdade é que por vezes estes chatbots passam informação incorrecta de forma não intencional.

A organização sem fins lucrativos Democracy Reporting International fez um estudo no qual lançou a quatro chatbots (os referidos acima, mas usando o ChatGPT 3.5 e 4.0) 400 perguntas em dez línguas diferentes, relacionadas com as eleições europeias e o método eleitoral de dez países europeus.

“Em geral, os chatbots não parecem feitos para o propósito de dar informação precisa sobre processos eleitorais”, lê-se nas conclusões do estudo. Em alguns casos, as respostas que dão parecem ser influenciadas por princípios das eleições dos Estados Unidos. O estudo explica que isto se prende com o facto de, provavelmente, estas últimas eleições terem sido proeminentes no “material de treino” dos chatbots.

No mesmo documento, os autores levantam a hipótese de em questões sobre eleições extra-europeias poder ser ainda pior: “Tendo em conta que a UE tem agora o enquadramento regulador mais rigoroso contra a desinformação e a informação incorrecta, pode pensar-se que as empresas tentaram enfrentar estes problemas com maior rigor do que em outros países.”

Como podemos perceber se algo foi criado por IA?

“É fácil sermos enganados. Vai ser cada vez mais fácil sermos enganados, seja com texto, seja com imagem, seja com áudio”, diz Alípio Jorge, professor catedrático na Faculdade de Ciências da Universidade do Porto e director do Departamento de Ciência de Computadores.

Devemos, porém, estar atentos aos pormenores: no caso dos textos criados por sistemas de IA, a frequência com que surgem palavras mais incomuns, a colocação dos adjectivos e as construções gramaticais podem ser indicadores da sua origem.

Numa lógica de contrafogo, os próprios modelos de IA podem ser utilizados para identificar as características anteriores e indicar com determinada percentagem de probabilidade se algo foi gerado de forma artificial. No entanto, os modelos tendem a ir-se aprimorando com o tempo. Os sistemas de detecção também evoluem, naturalmente, mas com algum atraso.

O texto gerado por IA costuma ser o conteúdo mais difícil de identificar. Segue-se o áudio, a imagem e o vídeo, por esta ordem, já que “quanto mais complexo é o sinal, mais difícil é reproduzi-lo com qualidade suficiente que engane as pessoas”.

“Quando nós olhamos para uma imagem gerada por inteligência artificial, uma característica que a imagem tem, tipicamente, é ser muito perfeitinha em termos de luz, contornos, texturas”, explica Alípio Jorge. A evolução dos modelos pode passar também pela introdução de erros (ortográficos, por exemplo) para simular de forma mais precisa uma criação com mão humana.

“As pessoas estão mais atentas, mas é óbvio que continuam vulneráveis [à desinformação]”, acrescenta Gustavo Cardoso. “Há dois mil anos que nós funcionamos, aqui no nosso país, na Europa, numa perspectiva de ‘ver para crer’, desconfiando daquilo que não se vê. A questão, hoje em dia, é que o ‘ver para a crer’ tem de ser temperado com a chegada da IA generativa. Não se pode acreditar em tudo aquilo que se vê.”

Jorge Alípio complementa: “Tem de haver mais educação, ponto. É o factor principal, o que nos salva é a educação e o conhecimento que temos do mundo.” Conhecimento que, neste caso, não se limita à literacia informática ou sobre IA.

Para o professor da FCUP, é importante conjugar a cultura que “trazemos de trás, que aprendemos com os nossos pais, os nossos pares e a sociedade em geral” e a informação sobre o que se está a passar à nossa volta, quer a nível local, quer internacional, recorrendo a fontes fiáveis de informação. “Todas essas ferramentas são aquilo que nos permite detectar e desconfiar.”

Sugerir correcção
Ler 1 comentários