Deep fakes são uma ameaça crescente e ainda falta resposta legal adequada

Usam-se para criar pornografia falsa, manipular discursos políticos ou para pôr famosos a cantar músicas. Pelo mundo, poucos países têm legislação que acompanha o ritmo de utilização desta tecnologia.

Foto
Actualmente há várias aplicações de telemóvel que facilitam a criação de deep fakes Matilde Fieschi
Ouça este artigo
00:00
08:41

Exclusivo Gostaria de Ouvir? Assine já

Imagine encontrar na Internet uma foto sua, na qual aparece sem roupa, que tem a certeza de não ter tirado. Parece algo saído de um filme de ficção científica, mas foi algo que aconteceu a mais de 20 adolescentes em pelo menos cinco escolas secundárias de Almendralejo, em Badajoz, este mês de Setembro. Algumas depararam-se, elas próprias, com fotos da sua cara em corpos nus falsos. Outras foram confrontadas por colegas. “Vi uma foto tua nua”, terá dito um rapaz a uma jovem de 14 anos que falou ao El País.

A influencer norte-americana Gabi Belle confessou ao Washington Post ter ficado “enojada” ao encontrar uma nude sua na Internet. Quando tentou, com a ajuda de colegas, que esta fosse eliminada, descobriu que havia cerca de cem outras a circular.

Estas imagens (e vídeos) altamente manipuladas chamam-se deep fakes (se tentarmos traduzir para português, será algo como “hiperfalsificação”). São conteúdos gerados por inteligência artificial (IA) para retratar algo que não existe ou nunca aconteceu. O fenómeno não é novo, mas, com a evolução da tecnologia, as fotos, vídeos e áudios estão a tornar-se cada vez mais reais. A facilidade de acesso a aplicações de criação e manipulação de imagens também nunca foi tão grande.

A legislação portuguesa ainda não contempla directamente a questão das deep fakes. Mas, como esclarece Ana Raquel Conceição, professora da Escola de Direito da Universidade do Minho (EDUM), o enquadramento legal actual consegue dar resposta nestes casos.

“Que eu tenha conhecimento até ao momento, creio que não [houve alterações da legislação em Portugal para tratar esta questão]. As incriminações que já temos, apesar de não serem exactamente para esta actividade, conseguem proteger os valores que esta viola”, diz, explicando que o futuro pode obrigar a uma mudança mais radical em termos de código penal. “Se calhar, a evolução disto também vai obrigar a uma adaptação das incriminações.”

Segundo afirmou à Euronews, Manuel Cancio, professor de Direito Penal na Universidade Autónoma de Madrid, na Europa, apenas nos Países Baixos há um código penal que aborda esta questão. Nos Estados Unidos, refere o Washington Post, a lei federal ainda não dá resposta, por exemplo, à pornografia gerada com recurso a deep fakes. Uma ordem executiva emitida por Joe Biden a 30 de Outubro aconselha as empresas a explicitarem se uma imagem, vídeo ou áudio foi criada com IA, mas não é vinculativa.

Segundo um estudo feito em 2019 pela Sensity AI, uma empresa de controlo de deep fakes, mencionado pelo mesmo jornal norte-americano, 96% destas imagens são utilizadas para pornografia e 99% retratam mulheres.

Usando como exemplo o caso das adolescentes de Badajoz, a professora da EDUM explica que, se o caso se passasse em Portugal, podiam estar em causa várias tipologias de crimes. “Falsidade informática, porque, em bom rigor, está-se a utilizar dados informáticos através da imagem que não correspondem à realidade. Poderá estar aqui também a ser praticado o crime de gravações ou fotografias ilícitas, porque também é ilícito utilizar a fotografia ou gravação que foi fornecida com consentimento, mas para um fim diferente daquele que foi atribuído”, explica Ana Raquel Conceição.

Acrescenta que também pode haver crimes de “difamação agravada com publicidade e calúnia”, porque as imagens foram usadas para ofender a vítima, ou crimes sexuais, se as deep fakes forem utilizadas com propósito de aliciamento sexual.

“Como são crimes contra as pessoas, não se pode falar em crimes continuados”, o que significa que, na prática, cada adolescente que teve uma foto “sua” a circular na Internet corresponde a um caso. O seu número vai multiplicar-se pelo número de crimes praticados em cada caso.

Quando os conteúdos de natureza sexual manipulados incluem menores, esclareceu o Centro Nacional de Cibersegurança (CNCS) e a Linha Internet Segura da APAV ao PÚBLICO, está-se perante o crime de pornografia de menores, já que o artigo 176.º do Código Penal prevê “materiais reais ou simulados de menores”. Como é um crime público, pode ser denunciado a qualquer órgão de polícia criminal.

A facilidade de acesso a aplicações e programas que permitem a criação de deep fakes reduz a probabilidade de se proibir estas ferramentas. “Acho difícil que isso possa vir a acontecer, sinceramente, por força dessa facilidade que existe na sua utilização. Como é que a lei penal vai incriminar um comportamento, [já] que qualquer utilizador pode ter esse instrumento para o praticar? Até no nosso telemóvel podemos perfeitamente tirar uma fotografia e fazer estas manipulações. É difícil a lei penal incriminar este comportamento por força de estar disponível a toda a gente.”

“E se fizerem uma deep fake minha? Como posso evitar?”

Para reduzir a probabilidade de se ser vítima de deep fakes, a Linha Internet Segura e o CNCS aconselham os utilizadores a “tornar os perfis nas redes sociais privados e fazer uma revisão das definições de privacidade e segurança”. Também aconselha a que se removam todos os perfis desconhecidos da rede.

Caso se seja vítima, importa “guardar informações, conteúdos e outros dados que possam identificar o possível autor e que sejam meio de prova”. Também não se deve “efectuar qualquer pagamento” e é aconselhável que se cesse “de imediato a comunicação com o agressor” sem dar informação adicional. As vítimas devem “contactar a Linha Internet Segura (800 219 090 ou linhainternetsegura@apav.pt) e denunciar o caso às autoridades competentes, nomeadamente a Polícia Judiciária”, reforçam.

De forma a que a experiência online seja mais limpa e mais protegida destas ameaças, há uma série de boas práticas que o CNCS e a Linha Internet Segura enumeram: não confiar em vídeos ou áudios que se recebam, sem confirmar as fontes oficiais; procurar erros de linguagem ou incorrecções no conteúdo; verificar a veracidade do endereço de email, perfil, ou número de telefone que nos contacte; não clicar em anexos ou links suspeitos.

Uma arma para a desinformação (e não só)

Os usos das deep fakes não se esgotam na pornografia. Há quem use aplicações – algumas à distância de um download no telemóvel – com intuitos lúdicos. Um vídeo de Jair Bolsonaro com uma peruca loira a cantar para Donald Trump? Já foi feito. Taylor Swift a falar mandarim? Também.

Nos últimos anos, em anos de guerra e de pós-verdade, o potencial que as deep fakes têm enquanto veículos de desinformação também motivaram preocupação.

Em Março de 2022, por exemplo, cerca de um mês depois de a Rússia invadir a Ucrânia, um vídeo do Presidente ucraniano, Volodymyr Zelensky, “a render-se” começou a proliferar-se nas redes sociais. Em Setembro, surgiu um vídeo no qual Ron DeSantis parecia estar a anunciar a desistência de participar nas eleições republicanas de 2024. Ambos falsos.

Há quem veja, porém, usos benéficos na utilização desta tecnologia em contexto político. Ao Rest of the World – um site sem fins lucrativos que aborda temas relacionados com tecnologia – o estratego político Sagar Vishnoi usou um episódio passado na Índia como exemplo: há algumas semanas, um vídeo do primeiro-ministro indiano, Narendra Modi, a cantar uma canção de Bollywood, feito por IA, tornou-se viral nas redes sociais.

Isto deu azo a que surgissem novos vídeos falsos de Modi a dizer uma vasta panóplia de coisas e aqui está o ponto-chave nas várias línguas que se falam na Índia, país onde existem 22 línguas oficiais. Assim, explicou o estratego político ao site de tecnologia, a utilização de clonagem de voz com IA pode ajudar a “quebrar a barreira linguística na Índia” e, em último caso, mudar o jogo nas eleições de 2024 no país.

No futuro, a ameaça deverá ser maior

Segundo o boletim do Observatório de Cibersegurança de Dezembro de 2022, tem-se verificado “uma crescente aplicação da IA na área da cibersegurança”. Porém, o crescente uso da IA é uma faca de dois gumes: “Este uso tem benefícios para a segurança em si (por exemplo, na criação de sistemas de detecção de ameaças), mas também tem utilidade para os agentes de ameaça, como seja na criação de deep fakes para engenharia social na realização de fraudes ou em desinformação.”

Actualmente, as deep fakes não são das ameaças à cibersegurança mais expressivas em Portugal. No Relatório de Cibersegurança em Portugal – Riscos & Conflitos, de Junho de 2023, a expressão deep fakes surge apenas uma vez, listado nas “acções hostis emergentes”, tendo em conta o “contexto de facilitação do cibercrime por via da IA”.

Em 2019, a Unidade de Combate ao Cibercrime da Polícia Judiciária referia ao PÚBLICO que, em Portugal, a utilização de deep fakes para criação de pornografia falsa era um fenómeno “sem expressão”. O PÚBLICO pediu à PJ uma nova análise sobre a situação actual do país, mas não obteve uma resposta em tempo útil.

No entanto, segundo a ENISA – a Agência da União Europeia para a Cibersegurança –, o uso abusivo da IA é considerada a 10.ª ameaça emergente para 2030.

Sugerir correcção
Ler 3 comentários