Doce de lixívia? Chatbot de receitas de supermercado é ridicularizado

A cadeia de supermercados Pak ‘n Save, da Nova Zelândia, criou um programa com inteligência artificial para gerar receitas. Mas esqueceu-se de limitar a lista de ingredientes possíveis.

Foto
O chatbot da Pak 'n Save permitia criar receitas com todo o tipo de ingredientes Martjin Baudoin
Ouça este artigo
00:00
03:45

Um novo programa de inteligência artificial (IA) para criar receitas com base em ingredientes disponíveis num supermercado tornou-se infame, esta semana, pelas suas criações letais, que incluíam “pudins de lixívia” e “batatas que repelem mosquitos”. A cadeia de supermercados Pak ‘n Save, da Nova Zelândia, quis aproveitar o interesse em torno de inteligência artificial e disponibilizou um chatbot com IA para ajudar os seus clientes a criar receitas com base nos produtos que vende – mas esqueceu-se de restringir os tipos de ingredientes utilizados e as combinações possíveis.

O chatbot da Pak ‘n’ Save, o Savey-Meal, foi programado com o modelo de linguagem GPT-3.5, da OpenAI, para criar receitas personalizadas com base em ingredientes, e com piadas a acompanhar (“Porque existe batido de bolachas? Porque a bolacha queria mergulhar no leite!”, é uma das tentativas de piada).

O modelo de linguagem é o mesmo que é utilizado na versão gratuita do ChatGPT, só que inicialmente o Savey veio com pouca informação sobre o que constitui uma receita apetitosa e adequada ao consumo humano. A versão inicial do ChatGPT-3.5, lançada em Novembro de 2022, evitava estes problemas ao recorrer a uma equipa de revisores humanos contratados para identificar respostas erradas ou problemáticas – isto inclui linguagem racista ou respostas consideradas perigosas.

A infâmia do Savey-Meal nas redes sociais começou com a partilha de receitas peculiares (por exemplo, de bolachas com legumes na frigideira) e o facto de alertar que era “só para maiores de 18 anos”. Rapidamente, os internautas perceberam que a ferramenta aceitava criar receitas com todo o tipo de ingredientes.

“Pedi ao criador de receitas do Pak ‘n Save o que podia fazer se só tivesse água, lixívia e amoníaco e [a ferramenta] sugeriu que fizesse um gás de cloro mortífero ou, como o Savey Meal-Bot diz, ‘uma mistura de água aromática’”, partilhou o comentador político neozelandês Liam Hehir na plataforma X (o antigo Twitter). Outras combinações partilhadas em fóruns online incluem "surpresa de arroz com lixívia" e “sanduíches fechadas com cola”.

Contactada pelo jornal britânico The Guardian, um porta-voz da equipa do supermercado Pak n’ Save frisou que a empresa estava desiludida por uma “pequena minoria estar a utilizar a ferramenta de forma desadequada” e lembrou que ao abrir o site do chatbot, o sistema alerta que só utilizadores maiores de 18 anos deverão usar a ferramenta (supostamente, nesta idade saberão não pedir receitas com lixívia e chocolate derretido). Nas redes sociais, alguns utilizadores defenderam a empresa, notando que se os pedidos forem disparatados, então as respostas também serão.

Foto
Mesmo quando não use ingredientes intrusos à cozinha, o programa sugere receitas peculiares DR

A desinformação – proposital ou acidental – gerada por modelos com IA generativa está no topo da lista das preocupações de vários especialistas em inteligência artificial. “Como estes sistemas não incluem mecanismos de verificação daquilo que dizem, podem ser facilmente automatizados para gerar desinformação”, alertou também Gary Marcus, especialista em linguagem e co-autor do livro Rebooting AI, num artigo de opinião publicado na revista Scientific American.

Depois da atenção nas redes sociais, a equipa da Pak ‘n Save está a alterar a ferramenta de receitas para evitar problemas e garantir que o sistema fornece sugestões seguras. Foi também acrescentado um alerta, mais proeminente, que detalha que além de só ser recomendada para maiores de 18 anos, as receitas criadas não são revistas por utilizadores humanos. A empresa salienta que não garante a “precisão, relevância ou fiabilidade do conteúdo gerado”, notando que as pessoas têm de usar senso comum antes de criar uma receita.

À hora de publicação desta receita, o chatbot já não sugeria receitas com lixívia e por vezes ignorava ingredientes não alimentares, mas ainda conseguia criar um “creme inglês de sabão e laranja” descrito como “refrescante” com uma piada a acompanhar: “Porque é que a laranja foi à fábrica de sabão? Porque queria ficar limpa e ser parte de uma receita deliciosa."

Sugerir correcção
Comentar