Inteligência artificial usada para criar e partilhar milhares de imagens de abusos sexuais de menores online
Milhares de imagens criadas com inteligência artificial (IA) generativa foram partilhadas em Setembro num fórum da dark web. O alerta é da organização britânica Internet Watch Foundation.
A inteligência artificial (IA) está a ser usada para criar, partilhar e vender mais conteúdo de pornografia infantil. Muitas vezes, com imagens de crianças reais. O alerta é da Internet Watch Foundation (IWF), uma organização sem fins lucrativos no Reino Unido que monitoriza actividades ilegais online e encontrou milhares de imagens deste tipo num fórum frequentado por predadores. Ao todo, foram identificadas 2562 “pseudofotografias” (imagens que simulam fotografias) de abusos sexuais com menores publicadas durante o mês de Setembro. Os especialistas acreditam que o número real é maior.
“Se não conseguirmos controlar esta ameaça, este material ameaça dominar a Internet”, salienta ao PÚBLICO o líder de políticas públicas da IWF, Michael Tunks. “Longe de ser um crime sem vítimas, este tipo de imagens pode normalizar e enraizar o abuso sexual de crianças.”
A investigação da IWF surge após várias organizações alertarem para o aumento de imagens de abusos sexuais de menores (CSAM, na sigla inglesa) na Internet. O tema foi um dos focos da edição de 2023 da TrustCon, um encontro anual de especialistas cujo trabalho é manter a segurança de plataformas e comunidades digitais.
Em causa está a evolução de ferramentas de IA generativa, o ramo da inteligência artificial usado pelo ChatGPT e pelo DALL-E que procura padrões em gigantescas bases de dados para criar material novo (como imagens, vídeo, código informático ou texto). Embora muitas das plataformas treinem os sistemas para detectar pedidos de CSAM, os criminosos estão sempre a procurar lacunas que possam ser exploradas.
A investigação da IWF centrou-se em conversas sobre IA num fórum frequentado por predadores infantis na dark web, um conjunto de redes encriptadas, escondidas da Internet visível que estão associadas a actividades ilegais. Durante o mês de Setembro, mais de 20 mil fotografias criadas com IA foram partilhadas neste fórum.
Os especialistas da IWF seleccionaram 11.108 imagens susceptíveis de serem criminosas para avaliar com mais detalhe. As restantes imagens criadas com IA não continham crianças ou não retratavam actividades sexuais.
Das imagens seleccionadas pela IWF, 2562 foram classificadas como “pseudofotografias”, ou seja, difíceis de distinguir de imagens reais. O material recolhido incluía imagens de crianças famosas, crianças conhecidas dos autores dos crimes e vítimas de abuso sexual.
“Neste fórum, a IWF também descobriu manuais que mostravam aos criminosos como afinar os geradores de imagens de IA para produzir imagens mais realistas”, partilha Michael Tunks. “Também descobrimos que os criminosos na dark web estão a utilizar a IA para gerar novas imagens de vítimas reais de abuso sexual. As crianças que foram violadas no passado correm agora o risco de serem confrontadas com novas imagens de si próprias a serem vítimas de abusos de maneiras novas e horrendas.”
IA não é vilã
Num relatório publicado esta semana sobre os números, a equipa da IWF reconhece que as ferramentas de IA generativa “têm um enorme potencial para melhorar a vida das pessoas” e que a “utilização abusiva representa uma pequena parte” da realidade.
Ao longo dos anos, outras tecnologias, como programas de montagem de imagens, também levaram à proliferação de CSAM online. Antes da IA generativa, muitos criminosos criavam conteúdo ilegal com menores através de deepfakes, uma técnica que passa por sobrepor imagens do rosto de crianças em corpos de adultos.
É demasiado cedo para saber se a IA generativa deve ser adicionada à lista de tecnologias que aumentam o alcance e volume de CSAM, conclui a equipa da IWF. No entanto, o trabalho da organização mostra o potencial da IA para fabricar imagens em escala e sobrecarregar aqueles que trabalham para combater o abuso sexual de crianças.
“Para aqueles que procuram os conteúdos, reais ou não, a exposição acarreta o risco de levar os espectadores a procurar mais conteúdos, o que aumenta a procura de CSAM”, adverte Michael Tunks.
Este é um dos factores que levam o especialista da IWF a pedir que leis para combater o abuso sexual de menores permitam às empresas desenvolver tecnologia para detectar imagens de CSAM que não estão em bases de dados.
Quando se publica imagem ou vídeo numa plataforma online, é criada uma combinação de letras e números que funciona como uma espécie de impressão digital (hash) do conteúdo. Grandes empresas online utilizam essa tecnologia para detectar conteúdo ilegal (por exemplo, CSAM e pirataria) ao comparar a hash daquilo que é publicado com bases de dados partilhadas pelas autoridades.
“Os criadores de tecnologia têm de criar salvaguardas para evitar que o seu software seja utilizado indevidamente por criminosos e fazer mais para garantir que os sistemas não estão a ser treinados em conteúdos ilegais”, apela Michael Tunks. “É preciso [programar] IA para descartar imagens que se assemelham a material de abuso sexual de crianças.”