As selfies são tantas que até “porno” dá para fazer com elas
Um programador criou um algoritmo que lhe permite embutir, sem grandes recursos, rostos famosos como os de Gal Gadot ou Scarlett Johansson em vídeos pornográficos.
Há mais uma caixa de Pandora ao virar da esquina: já é possível “colar” qualquer rosto a outro corpo numa imagem em movimento, mesmo sem acesso a tecnologia de ponta nem à necessidade de convocar uma equipa multidisciplinar, com um resultado razoavelmente credível. O que significa que o número de vídeos manipulados, sobretudo com figuras públicas, devem começar a crescer e a levantar dúvidas a respeito da autenticidade do que vemos.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
Há mais uma caixa de Pandora ao virar da esquina: já é possível “colar” qualquer rosto a outro corpo numa imagem em movimento, mesmo sem acesso a tecnologia de ponta nem à necessidade de convocar uma equipa multidisciplinar, com um resultado razoavelmente credível. O que significa que o número de vídeos manipulados, sobretudo com figuras públicas, devem começar a crescer e a levantar dúvidas a respeito da autenticidade do que vemos.
Nos sites de pornografia, é comum encontrar rostos de actrizes ou cantoras de primeira linha forçados em imagens; títulos de vídeos com os seus nomes, apesar de serem protagonizados por mulheres fisicamente parecidas; ou até nomes artísticos de profissionais de filmes para adultos que remetem para estrelas do cinema, da música ou da moda. Funciona por aproximação: quem está no ecrã permite, tanto quanto possível, fantasias impossíveis.
Um programador não identificado conseguiu levar esta prática mais longe. Com um simples computador e software acessível a todos (open source), desenvolveu um algoritmo para dar às actrizes de vídeos pornográficos caras de gente tão famosa quanto Gal Gadot (no gif abaixo), Scarlett Johansson, Maisie Williams ou Taylor Swift. E publicou-os no Reddit, sob o pseudónimo “deepfakes”.
O resultado não é o mesmo que ver uma rejuvenescida Carrie Fisher ou um ressuscitado Peter Cushing em Rogue One: Uma História de Star Wars, nem um também renascido Paul Walker em Velocidade Furiosa 7 ou o fino recorte da cabeça de Lena Headey sobre o corpo de Rebecca Van Cleave no caminho de expiação percorrido por Cersei Lannister em A Guerra dos Tronos. Mas a ferramenta ainda está a aperfeiçoar-se. E pode sempre aparecer outra melhor.
O problema ético é evidente: usa-se à revelia a identidade de alguém em situações sobre as quais essa pessoa não tem controlo. As implicações não se restringem ao entretenimento para adultos ou à “pornografia de vingança”. O que acontecerá quando um político figurar num vídeo comprometedor, ou alguém for incriminado desta forma? Mais debates frame a frame, mais teorias da conspiração. Acresce que o algoritmo recorre a imagens disponíveis online para conhecer cada ponto do rosto a inserir e assim poder adaptá-lo com naturalidade à acção corporal; quanto mais houver, melhor é o resultado. Ou seja, as selfies que tanto partilhamos podem voltar para nos assombrar.
A rubrica Tecnologia encontra-se publicada no P2, caderno de domingo do PÚBLICO