Deepfakes sexuais: a violência não é (só) sobre Taylor Swift, é sobre todas nós
Um debate sério sobre a violência sexual na era digital passa necessariamente por considerar o papel da pornografia na normalização da violência contra as mulheres.
“Imaginem um mundo onde qualquer mulher pode acabar num filme pornográfico. Sem o seu consentimento... Isto é tráfico digital. É um crime sexual” [Imagine a world where any woman could end up in a porn film. Without their consent…This is digital trafficking. This is a sex crime], disse a apresentadora Jess Davies no documentário Deepfake Porn: Could You Be Next?, da BBC. Estas palavras ganharam uma nova dimensão nas últimas semanas, no seguimento das imagens digitalmente manipuladas com recurso a inteligência artificial – chamadas deepfakes – de Taylor Swift. As imagens manipuladas, e sexualizadas foram rapidamente partilhadas milhões de vezes online.
Taylor Swift tem um estatuto ímpar à escala planetária: vencedora de 14 Grammys, tem uma fortuna avaliada em mais de um bilião de dólares. Contudo, esta excepcionalidade não a protegeu de ser alvo da manipulação de imagens íntimas, uma das formas de violência sexual baseada em imagens. Como ela, muitas outras mulheres e raparigas: em Portugal, ainda que não haja dados estatísticos robustos, as situações e pedidos de ajuda têm vindo a aumentar, como relata Carolina Soares, da Linha Internet Segura. Recentemente, a surfista Mariana Rocha Assis contou como foi alvo de chantagem por alguém que lhe enviou imagens íntimas suas, manipuladas, ameaçando divulgá-las junto da família e dos patrocinadores se ela não pagasse a quantia exigida.
Apesar da projeção inaudita do tema, as imagens manipuladas com recurso a inteligência artificial não são novas, nem são o futuro. Na vida de muitas mulheres, são parte do presente onde o impacto do digital é esmagador, amplificando exponencialmente a violência sexualizada. A proliferação de aplicações e plataformas, muitas delas gratuitas, tornam este software facilmente acessível. Ao mesmo tempo, a (percepção de) impunidade da violência machista é exponenciada no online, pelo anonimato.
O caso de Taylor Swift é um exemplo maior de como o machismo na era digital é uma ameaça sobre todas as mulheres, lembrando que mesmo uma artista multimilionária pode ser reduzida a objeto de gozo sexual por alguém com quem nunca interagiu. As deepfakes sexuais expõem a insuficiência das abordagens de prevenção e responsabilização focadas nas (potenciais) vítimas. Não basta dizer “não enviem fotos íntimas”, quando todas nós podemos ser alvo de imagens manipuladas.
Não podemos continuar a negligenciar os efeitos, individuais e sociais, da violência sexual baseada em imagens e da manipulação de imagens íntimas, em particular. Para além dos efeitos diretos que podem surgir nos casos concretos – como ansiedade e depressão, humilhação, insegurança e isolamento, abandono ou insucesso escolar – importa pensar nos efeitos políticos macro. A manipulação de imagens sexualizadas tem como efeito potencial limitar os horizontes profissionais às mulheres, afastá-las da esfera pública, engrossar ainda mais a lista de atropelos e formas de assédio às mulheres na política. Como lembra a professora de Direito Clare McGlynn no documentário Fake Porn – Real Victims, somos todas/os nós que ficamos a perder.
As deepfakes sexuais não são, com rigor, pornografia, pelo que chamar-lhes “pornografia falsa” ou “deepfakes pornográficas” é impreciso e eufemístico. Contudo, não podemos deixar de fora o debate sobre a pornografia: a indústria pornográfica lucra em larga escala com as imagens obtidas – reais ou manipuladas – sem o consentimento das mulheres visadas. A inteligência artificial é mais uma avenida de um enorme negócio, muito lucrativo e largamente desregulado, onde a violência, o sexismo e o racismo extremados são higienizados como ficção, entretenimento ou conteúdo adulto. Um debate sério sobre a violência sexual na era digital passa necessariamente por considerar o papel da pornografia na normalização da violência contra as mulheres. Este debate, em Portugal, é ainda incipiente. Temos de falar sobre pornografia – com urgência.
A autora escreve segundo o novo acordo ortográfico