Jennifer foi morta há 18 anos. Alguém a tornou num chatbot de inteligência artificial
Drew Crecente descobriu que o nome e a imagem da filha estavam a ser usados numa plataforma de inteligência artificial. Character.AI já eliminou perfil.
- Drew Crecente descobriu que alguém criou um chatbot da filha adolescente assassinada em 2006
- O chatbot com a fotografia e nome de Jennifer tinha sido usado em 69 conversas
- A Character.AI é uma empresa que permite conversar com personagens criadas com inteligência artificial
Quando Drew Crecente, que activou os alertas do Google para qualquer menção ao nome da sua filha, acordou e viu o alerta sentiu imediatamente “o pulso acelerado”. Jennifer Ann, que foi morta pelo ex-namorado há 18 anos, estava ali, online, e era a cara de um chatbot da Character.AI.
“Só queria encontrar um botão vermelho que pudesse pressionar e que fizesse aquilo parar”, recorda o pai, citado pelo Washington Post. Da onda de emoções que sentiu — fúria, confusão e repulsa —, a que mais se destacou foi o “sofrimento”: “Ali estava eu, a ser, mais uma vez, confrontado com este trauma terrível com o qual tive de lidar por muito tempo”, disse à Business Insider.
O nome e a imagem de Jennifer foram usados sem o conhecimento de Drew. Quando abriu o Character.AI, um site que permite que os utilizadores criem novas personalidades digitais com a ajuda da inteligência artificial, viu que esse perfil já tinha sido usado em, pelo menos, 69 chats.
Quem quer que tenha criado o perfil, usou a foto do anuário do secundário de Jennifer e descreveu-a como “uma personagem de inteligência artificial amigável e conhecedora, capaz de facultar informação sobre um variado leque de tópicos”. Também a definiu como “especialista em jornalismo”, principalmente em notícias de videojogos.
E Drew, que desde o homicídio da filha adolescente em 2006 tem gerido uma organização sem fins lucrativos que pretende sensibilizar para o problema da violência no namoro, ficou chocado por nunca ter recebido um pedido de autorização: “É preciso um bocado para eu ficar chocado, porque já passei por muito. Mas isto foi um novo ponto baixo.”
Decidiu contactar a Character.AI através do formulário de contacto do apoio ao cliente e pediu para que este chatbot fosse eliminado, e também que o site guardasse as informações de quem criou o perfil. “Queria certificar-me que tomavam medidas, para que mais ninguém voltasse a usar a imagem ou nome da minha filha”, disse à Business Insider. Não obteve resposta.
Só depois, quando o seu irmão Brian, com 31 mil seguidores, publicou no X uma mensagem de indignação, é que a Character.AI respondeu. Disse ter eliminado o perfil que usava a imagem de Jennifer, uma vez que violava as políticas da empresa. Drew continuou sem qualquer resposta, e lamenta que a empresa não lhe tenha endereçado um pedido de desculpas.
Está até a ver que opções legais existem. “É indescritível que uma empresa com tanto dinheiro seja tão indiferente ao facto de retraumatizar pessoas.”
Ao Washington Post, uma porta-voz da empresa explicou que, assim que a Character.AI recebeu a queixa, “o conteúdo da conta foi revisto e foi tomada acção” com base nas directrizes da empresa — que impede os utilizadores de se fazerem passar por qualquer pessoa ou entidade.
Os chatbots criados por inteligência artificial podem ter conversas e ser programados para adoptar personalidades ou detalhes específicos — e têm até funcionado como amantes online ou para recriar pessoas que já faleceram, o que tem levantado muitas questões éticas.
A Character.AI é uma das maiores empresas deste género: permite que sejam criadas personagens pelos próprios utilizadores, através de fotos, notas de voz ou textos. "Não está a gostar de nenhuma personagem? Cria a tua personagem! Personaliza coisas como a voz, o início da conversa, o tom e muito mais", lê-se, no site da empresa que licenciou tecnologia à Google.
A plataforma de bots de inteligência artificial está a ser processada por Megan Garcia, que considera que a plataforma terá contribuído para a morte do filho, ao criar uma “dependência perigosa”, que fez com que o adolescente de 14 anos já não quisesse viver “fora” da relação ficcional com uma das personagens fictícias.