Jennifer foi morta há 18 anos. Alguém a tornou num chatbot de inteligência artificial

Drew Crecente descobriu que o nome e a imagem da filha estavam a ser usados numa plataforma de inteligência artificial. Character.AI já eliminou perfil.

Foto
Jennifer morreu há 18 anos — e alguém a tornou num bot de inteligência artificial Ali Abdul Rahman/Unsplash
Ouça este artigo
00:00
03:47
  • Drew Crecente descobriu que alguém criou um chatbot da filha adolescente assassinada em 2006
  • O chatbot com a fotografia e nome de Jennifer tinha sido usado em 69 conversas
  • A Character.AI é uma empresa que permite conversar com personagens criadas com inteligência artificial

Quando Drew Crecente, que activou os alertas do Google para qualquer menção ao nome da sua filha, acordou e viu o alerta sentiu imediatamente “o pulso acelerado”. Jennifer Ann, que foi morta pelo ex-namorado há 18 anos, estava ali, online, e era a cara de um chatbot da Character.AI.

“Só queria encontrar um botão vermelho que pudesse pressionar e que fizesse aquilo parar”, recorda o pai, citado pelo Washington Post. Da onda de emoções que sentiu — fúria, confusão e repulsa —, a que mais se destacou foi o “sofrimento”: “Ali estava eu, a ser, mais uma vez, confrontado com este trauma terrível com o qual tive de lidar por muito tempo”, disse à Business Insider.

O nome e a imagem de Jennifer foram usados sem o conhecimento de Drew. Quando abriu o Character.AI, um site que permite que os utilizadores criem novas personalidades digitais com a ajuda da inteligência artificial, viu que esse perfil já tinha sido usado em, pelo menos, 69 chats.

Quem quer que tenha criado o perfil, usou a foto do anuário do secundário de Jennifer e descreveu-a como “uma personagem de inteligência artificial amigável e conhecedora, capaz de facultar informação sobre um variado leque de tópicos”. Também a definiu como “especialista em jornalismo”, principalmente em notícias de videojogos.

Foto
DR

E Drew, que desde o homicídio da filha adolescente em 2006 tem gerido uma organização sem fins lucrativos que pretende sensibilizar para o problema da violência no namoro, ficou chocado por nunca ter recebido um pedido de autorização: “É preciso um bocado para eu ficar chocado, porque já passei por muito. Mas isto foi um novo ponto baixo.”

Decidiu contactar a Character.AI através do formulário de contacto do apoio ao cliente e pediu para que este chatbot fosse eliminado, e também que o site guardasse as informações de quem criou o perfil. “Queria certificar-me que tomavam medidas, para que mais ninguém voltasse a usar a imagem ou nome da minha filha”, disse à Business Insider. Não obteve resposta.

Só depois, quando o seu irmão Brian, com 31 mil seguidores, publicou no X uma mensagem de indignação, é que a Character.AI respondeu. Disse ter eliminado o perfil que usava a imagem de Jennifer, uma vez que violava as políticas da empresa. Drew continuou sem qualquer resposta, e lamenta que a empresa não lhe tenha endereçado um pedido de desculpas.

Está até a ver que opções legais existem. “É indescritível que uma empresa com tanto dinheiro seja tão indiferente ao facto de retraumatizar pessoas.”

Ao Washington Post, uma porta-voz da empresa explicou que, assim que a Character.AI recebeu a queixa, “o conteúdo da conta foi revisto e foi tomada acção” com base nas directrizes da empresa — que impede os utilizadores de se fazerem passar por qualquer pessoa ou entidade.

Os chatbots criados por inteligência artificial podem ter conversas e ser programados para adoptar personalidades ou detalhes específicos — e têm até funcionado como amantes online ou para recriar pessoas que já faleceram, o que tem levantado muitas questões éticas.

A Character.AI é uma das maiores empresas deste género: permite que sejam criadas personagens pelos próprios utilizadores, através de fotos, notas de voz ou textos. "Não está a gostar de nenhuma personagem? Cria a tua personagem! Personaliza coisas como a voz, o início da conversa, o tom e muito mais"​, lê-se, no site da empresa que licenciou tecnologia à Google.

A plataforma de bots de inteligência artificial está a ser processada por Megan Garcia, que considera que a plataforma terá contribuído para a morte do filho, ao criar uma “dependência perigosa”, que fez com que o adolescente de 14 anos já não quisesse viver “fora” da relação ficcional com uma das personagens fictícias.

Sugerir correcção
Comentar