IA ou humano? É cada vez mais difícil distinguir

A inteligência artificial está a ficar cada vez melhor a criar imagens que parecem fotografias. Ponha-se à prova e descubra falhas, estereótipos e alguns estudos feitos nesta área da tecnologia.

Foto
Não há humanos nestas fotografias DR – GetImg.AI, OpenArt, Leonardo.AI
Ouça este artigo
00:00
11:18

Exclusivo Gostaria de Ouvir? Assine já

O que têm as imagens no topo desta página em comum? Foram geradas por programas online que usam inteligência artificial (IA) para criar novas imagens, que parecem fotografias, a partir de texto. Algumas são óbvias; outras, nem por isso.

O PÚBLICO reúne vários exemplos para que os leitores se possam pôr à prova. Pelo meio, explicamos como funciona a tecnologia, os estudos feitos na área, as ferramentas que existem, e dicas de especialistas para estar atento à presença de IA.

O consenso é que é cada vez mais difícil encontrar defeitos neste tipo de imagens. A anatomia das mãos e o número de dedos é um dos grandes desafios, mas os sistemas estão a melhorar e é cada vez mais fácil gerar este tipo de imagens, mesmo sem qualquer conhecimento técnico. Ao mesmo tempo, os sistemas continuam a alimentar estereótipos: por exemplo, aos olhos da IA, “pessoa” é frequentemente sinónimo de “homem de pele clara”.

Há imagens de IA a passar por reais?

Sim. Em Fevereiro, por exemplo, a tecnologia do estúdio de inteligência artificial australiano AbsolutelyAI mostrou as capacidades da tecnologia para simular a realidade, quando ganhou o primeiro prémio de uma competição de fotografia com a imagem de uma praia ao pôr do Sol.

Por vezes, erros em detalhes (pequenos objectos, dentes ou mãos) alertam para a presença de IA, mas isto nem sempre acontece. “Mesmo que não exista nada de estranho na imagem, pode ser sintética”, alerta ao PÚBLICO Fernando Martín-Rodríguez, um investigador da Universidade de Vigo, em Espanha, que integra um grupo que explora novas formas de detectar estas imagens.

Foto

No conjunto de imagens reproduzidas acima¹, a primeira é real. A segunda foi criada com o sistema da OpenArt (o pedido era “inundação numa aldeia”).

Não são só imagens que enganam o olho humano. Um estudo de Novembro da Universidade Nacional da Austrália (ANU), em Camberra, com cerca de 700 pessoas, mostra que mais pessoas acreditam que imagens de rostos gerados por IA pareciam “mais humanos” do que os rostos de pessoas reais. A situação ocorre mais frequentemente em imagens de pessoas com pele mais clara.

A presença de rugas, a qualidade das imagens (por exemplo, a nitidez), dentes, orelhas e olhos são alguns dos elementos que as pessoas mais usam para julgar a origem das imagens. Regra geral, as pessoas identificam rostos mais proporcionais como sendo imagens de pessoas reais, embora não seja esse o caso.

Foto

Ambos os retratos reproduzidos acima² foram criados com IA.

Voltar ao início.

É possível detectar as imagens criadas por IA a olho nu?

Por vezes, mas a presença de rugas não é o melhor sinal, visto que os modelos de inteligência artificial que criam as imagens aprendem com fotografias reais de pessoas de diferentes idades. Um erro mais frequente são os detalhes. Por exemplo, pormenores como as mãos, as letras na capa de um jornal, ou a roda de uma bicicleta.

“As imagens geradas por IA cometem normalmente erros em partes de pormenor. Se pedirmos para obter uma bicicleta, é provável que os pedais ou a corrente apresentem algum erro”, confirma ao PÚBLICO Fernando Martín-Rodríguez, da Universidade de Vigo. “Nas imagens de retrato, é comum ter erros nas mãos e no número de dedos”, continua. “Mas é a ‘falha principal’ desta tecnologia”, alerta. “E, por isso, estão a ser feitos muitos esforços para as resolver, o que significa que actualmente os motores são muito menos propensos a este tipo de erros.”

A dificuldade em gerar mãos é um dos desafios que muitos sistemas testados pelo PÚBLICO mantêm, embora estejam a ficar mais eficientes.

Foto

Ambas as imagens reproduzidas acima foram criadas com IA.

Voltar ao início.

Porque é que a IA é tão má com as mãos?

“Tem muito que ver com a inexistência da noção de quantidades e também a falta de imagens nos dados de treino”, explica ao PÚBLICO Manuel Dias, director nacional de tecnologia da Microsoft e um dos docentes da especialização em IA Generativa do Instituto Superior Técnico (IST). “Recentemente, este erro tem vindo a ser corrigido em alguns algoritmos, mas em casos mais complexos como mãos cruzadas e dedos entrelaçados ainda ocorrem.”

O desafio vem de as mãos serem uma parte pequena do corpo humano, que pode passar despercebida em imagens de pessoas em que o foco são outros elementos como a cara, a expressão, ou o contexto. Também é frequente encontrar erros nas orelhas e na estrutura dos sorrisos das pessoas (por exemplo, dentes pontiagudos ou lábios com manchas brancas dos dentes).

Mesmo em ilustrações criadas com IA, como na imagem reproduzida abaixo, os dentes podem ser um desafio. Uma das soluções é treinar os modelos com mais imagens dos detalhes em que falham, algo que já está a ser feito.

Voltar ao início.

Foto
AI Lemon Academy

E outras “falhas”?

Estes sistemas têm frequentemente uma visão estereotipada do mundo devido aos dados com que são treinados. Para muitos modelos, o conceito de “pessoa” é associado a um homem de pele clara.

“Quando se trata de grupos sub-representados e historicamente desfavorecidos, não dispomos de tantos dados, pelo que os algoritmos não conseguem aprender representações exactas”, explica Aylin Caliskan, uma cientista da computação da Universidade de Washington, nos EUA, envolvida num estudo sobre estereótipos que são perpetuados em modelos como o Stable Diffusion. “Além disso, os dados que tendemos a ter sobre estes grupos são estereotipados”, continua.

No trabalho da Universidade de Washington, por exemplo, mulheres com pele escura apareciam mais frequentemente representadas de maneira sexualizada.

Voltar ao início.

Como é que funciona a tecnologia?

Os programas usados para criar este tipo de imagens realistas dependem de modelos de IA generativa que aprendem com enormes conjuntos de imagens e descrições textuais correspondentes. Durante o processo de “treino”, os sistemas aprendem a reconhecer padrões nas imagens, como formas, cores, texturas e relações entre diferentes objectos. A base da tecnologia é a mesma usada pelo ChatGPT, da OpenAI.

O Stable Diffusion, da Stability.AI, e DALL-E, da OpenAI, são dois dos grandes modelos de geração de imagens de IA disponíveis actualmente e usados por várias apps e sites de criação de imagens a pedido. Quando fornecemos uma descrição em linguagem natural, como “mulher numa cidade a fugir da chuva”, o sistema tenta produzir um resultado que junte conceitos básicos que reconhece. Neste caso “mulher”, “cidade”, “fugir” e “chuva”.

Uma reflexão interessante é o facto de, sem detalhes adicionais, o pedido de “mulher” remeter frequentemente para mulheres com pouca roupa e pele clara. Em Novembro, por exemplo, um estudo da Universidade de Washington, nos EUA, mostrou que quando se pedia uma “fotografia frontal de uma pessoa” ao gerador de imagens Stable Diffusion, o sistema produzia frequentemente imagens de homens de pele clara.

Foto

No conjunto de imagens reproduzidas acima, a segunda foi criada com um sistema de IA.

Voltar ao início.

É fácil usar a tecnologia?

Basta usar um motor de busca para pesquisar “sistema de geração de imagens com IA” para encontrar várias opções. “Qualquer pessoa com acesso à Internet pode testar ferramentas como o Leonardo e o Getimg.ai com muito pouco conhecimento da tecnologia”, confirma ao PÚBLICO Fernando Martín-Rodríguez.

Vários programas podem ser usados gratuitamente. Pelo menos, durante um período. A versão grátis do Leonardo.AI, por exemplo, permite introduzir oito pedidos por dia (cada pedido gera quatro opções de imagens). Já o GetImg.AI oferece 100 créditos por mês (cada pedido “custa” quatro créditos”).

Foto

Ambos os retratos reproduzidos acima foram criados com IA para o pedido “mulher portuguesa em Portugal”.

Voltar ao início.

Há limites no tipo de imagens criadas?

Depende das regras dos programas. Muitos permitem criar imagens descritas como NSFW, sigla inglesa para imagens que “não são seguras para ver no trabalho” devido ao conteúdo explícito (cariz sexual ou violento). No entanto, os sistemas alertam que monitorizam o que é gerado e que é proibido produzir conteúdo ilegal.

Foto

A possibilidade de criar qualquer tipo de imagens preocupa vários especialistas. O material de abuso sexual de menores (CSAM, na sigla inglesa) disponível online aumentou significativamente no começo de 2023 com o desenvolvimento dos modelos generativos. O alerta veio da Active Fence, uma empresa que desenvolve soluções tecnológicas para detectar abusos em sites que permitem a partilha de conteúdo (por exemplo, fóruns e redes sociais). Vários grupos debatem formas de barrar este tipo de utilização.

As imagens reproduzidas acima foram criadas com sistemas de IA, mostrando a facilidade em criar imagens de menores. A primeira fotografia também mostra que uma mão com cinco dedos não é sempre sinal de que a imagem mostra uma pessoa real.

Este tema é um dos motivos que levam legisladores em todo o mundo a debater a regulação desta área. A União Europeia está a finalizar a aprovação de um pacote legislativo que regula a utilização de IA, incluindo grandes modelos de IA generativos.

Voltar ao início.

A tecnologia pode ajudar a apanhar a IA?

A IA também faz parte da solução. Há várias equipas a trabalhar em programas para detectar, automaticamente, imagens criadas por modelos artificiais.

“Em 2024 iremos ver mais ferramentas destas”, indica Manuel Dias, director nacional da Microsoft. O processo consiste em treinar modelos de IA com imagens reais e imagens criadas com IA para que consigam detectar diferenças ao nível dos padrões, cores, formas e texturas. O site Fake Image Detector e AI or Not são dois exemplos.

No entanto, é comum estes programas gerarem falsos positivos quando imagens reais passam por programas de tratamento de imagem como o Photoshop. O Fake Image Detection ajuda a tornar o processo mais transparente ao alertar para o motivo que leva uma imagem a ser considerada “potencialmente falsa” (por exemplo, a utilização do programa Adobe Photoshop).

Alguns investigadores estão a tentar encontrar outras características que possam alertar sistemas de IA para a origem de uma fotografia. Por exemplo, o padrão PRNU (algo como “não-uniformidade da resposta fotográfica”, na sigla inglesa). É o caso da equipa que Fernando Martín-Rodríguez integra na Universidade de Vigo. “O PRNU é um ‘ruído’, uma espécie de pequeno erro, que existe em todas as imagens digitais. Resulta de erros de fabrico inevitáveis que afectam todos os sensores electrónicos de imagem”, explica o investigador. A ideia é que as imagens criadas com IA terão um padrão PRNU diferente.

Há projectos para ajudar pessoas que criam imagens com IA a guardá-las com uma marca de água que identifique a sua natureza. O SynthID da Google é um programa que permite fazer isto.

“Embora todas estas ferramentas não sejam infalíveis, elas fornecem uma camada valiosa de escrutínio num mundo cada vez mais orientado por IA”, reflecte Manuel Dias.

A resposta está na legenda
IA. Imagem criada com o GetImg.AI
Real. Fotografia de Paulo Pimenta
IA. Imagem criada com o GetImg.AI
Real. Fotografia de Alexander Redl, Unsplash
Real. Fotografia de Manuel Roberto
IA. Imagem criada pelo Leonardo.AI
IA. Imagem criada com o GetImg.AI
Real. Imagem de Paulo Pimenta
IA. Imagem criada com o Leonardo.IA
IA. Imagem criada pelo GetImg.AI. (Pedido: "Homem numa cidade")
IA. Imagem criada com o OpenArt
IA. Imagem criada com o GetImg.AI
Fotogaleria
A resposta está na legenda

Voltar ao início.

Ponha-se à prova na fotogaleria abaixo.

A resposta está na legenda. Voltar ao início.


Autorias

¹ Neom/Unsplash

³ Nelson Garrido/PÚBLICO

As imagens criadas com IA que foram usadas neste artigo foram geradas com a versão gratuita das ferramentas AI Lemon Academy, GetImg.AI, OpenArt e Leonardo.AI.

Sugerir correcção
Ler 5 comentários