ChatGPT ganha memória. O que muda?
O ChatGPT começa a lembrar-se de detalhes de conversas anteriores. Por exemplo, onde o utilizador vive. O PÚBLICO explica como funciona esta capacidade de memória, para que serve e como a desactivar.
O ChatGPT começa a lembrar-se de informações específicas que os seus utilizadores partilham. Por exemplo, a cidade em que se vive, o livro preferido ou o facto de se detestarem respostas divididas por tópicos. A criadora do chatbot, a OpenAI, começou a testar a funcionalidade esta semana junto de um pequeno grupo de pessoas que incluem utilizadores da versão gratuita e da versão paga (com o modelo GPT-4).
Desde Julho que é possível “personalizar” o ChatGPT, ao pedir que se recorde de alguns detalhes através das definições (Nome de utilizador > Personalizar GPT). A nova funcionalidade de memória, porém, permite ao sistema guardar automaticamente informação partilhada durante as conversas. Quem preferir, pode impedir o sistema de reter informação nas definições.
Para que serve?
A memória acrescenta, automaticamente, contexto às perguntas que são feitas. Se pedirmos ao ChatGPT para se lembrar de que vivemos em Lisboa, o sistema vai incluir essa informação nas respostas que dá. Por exemplo, em sugestões de restaurantes abertos à segunda-feira.
Os GPT personalizados, que são chatbots criados com a versão paga do ChatGPT para funções específicas como gerar imagens ou recomendar livros, também terão acesso à função. Com isto, o BooksGPT, que é um chatbot para encontrar livros, passa a recordar-se dos géneros preferidos de alguém. Já o Tutor Me, desenvolvido pela plataforma de educação Khan Academy, passa a recordar-se do currículo ou das dificuldades específicas de alguns utilizadores.
Como é que se “criam” memórias?
Há duas formas de “criar” memórias no ChatGPT. Por norma, o sistema acumula informação sobre o utilizador ao longo das conversas, como a preferência por respostas em “português de Portugal”. Os utilizadores também podem pedir ao ChatGPT para se recordar de elementos específicos (de entre outros, que se prefere a linguagem de código Javascript).
A OpenAI nota, no entanto, que não vai guardar automaticamente informação sensível a não ser que o utilizador o peça directamente. É o caso de dados de saúde.
A criadora do ChatGPT não avança detalhes sobre como o sistema funciona e não respondeu a questões do PÚBLICO. Regra geral, os grandes modelos de linguagem (LLM), na base do ChatGPT, têm dois tipos de memória: a memória adquirida durante a fase de treino inicial e outra “de contexto” que decorre das conversas que tem com os utilizadores.
A nova função expande a memória de contexto. “O que mudou foi o que é incluído como parte do prompt [a pergunta que o utilizador faz]. Agora, pode dizer ao ChatGPT para incluir informações específicas como parte de cada pergunta que lhe enviar”, explica ao PÚBLICO Patricia Thaine, co-fundadora da Private.AI, uma empresa que desenvolve programas de privacidade de dados, incluindo uma extensão para substituir automaticamente informação sensível ou privada de perguntas feitas ao ChatGPT.
A OpenAI usa a informação para treinar o sistema?
A OpenAI nota que utiliza qualquer conteúdo partilhado com o ChatGPT, incluindo a informação guardada nas memórias, para melhorar os seus modelos. A não ser que o utilizador defina o contrário.
É possível impedir a OpenAI de usar os dados das conversas dos utilizadores nas definições (Nome do utilizador > Definições > Controlo de dados). A opção está activada por defeito.
É possível desactivar a funcionalidade de memória?
Sim. É possível “desligar” e apagar dados específicos da memória do ChatGPT ao aceder às definições (Nome de utilizador > Definições > Gerir memória). Nessa página, é possível ver uma lista de todas as informações que o ChatGPT guardou na memória. Como “companheiro [do utilizador] é vegetariano”, “quer incorporar lanches saudáveis na alimentação”, ou “gostava de visitar o México”.
Há riscos para a privacidade?
“Diria que o risco para o utilizador comum é reduzido, mas há sempre um risco para a privacidade quando se usa a Internet. Se vamos socializar o uso deste tipo de ferramentas, há os mesmos problemas que as redes sociais têm”, reflecte David Martins de Matos, investigador no Inesc – ID, instituto de investigação na área das ciências da informação.
“A preocupação com a privacidade surge principalmente em casos de utilização comercial, se a memória for partilhada e não forem implementados controlos adequados”, acrescenta Patricia Thaine.
Em Maio de 2023, a Samsung proibiu os seus trabalhadores de utilizarem o ChatGPT nos dispositivos de trabalho por receios relacionados com a partilha de informação privada da empresa. Por exemplo, sobre tecnologia patenteada. Especialmente tendo em conta que o sistema da OpenAI aprende com as conversas por defeito.