Não, ainda não somos bons a descobrir que uma voz é falsa
Os humanos não conseguem ainda descortinar todas as tentativas de falsear um vídeo ou som produzido por inteligência artificial: um em cada quatro sons inventados passa pelo crivo das pessoas.
A manipulação de imagens ou de sons é cada vez mais fácil. Ainda recentemente, esta falsificação de imagens e sons foi utilizada na campanha presidencial norte-americana para criar o rumor de que o democrata Joe Biden estava em declínio cognitivo – há vídeos a adormecer em entrevistas ou a ter um discurso incoerente nestas falsificações, apelidadas deepfake. E não conseguiremos detectar quando há um som ou um vídeo falso? Nem sempre. Já sabíamos que não somos perfeitos a detectar vídeos inventados, mas também não o somos quando ouvimos um discurso falso: um em cada quatro áudios deepfake não é detectado por humanos.
O contributo do PÚBLICO para a vida democrática e cívica do país reside na força da relação que estabelece com os seus leitores.Para continuar a ler este artigo assine o PÚBLICO.Ligue - nos através do 808 200 095 ou envie-nos um email para assinaturas.online@publico.pt.