ChatGPT viola regras de privacidade europeias, conclui regulador Italiano

Dona do ChatGPT viola regras de privacidade da UE, diz autoridade de protecção de dados italiana após investigação de 10 meses ao chatbot da OpenAI. Empresa de Sam Altman tem 30 dias para responder.

Foto
Sam Altman tem 30 dias para responder ao GPDP ELIZABETH FRANTZ
Ouça este artigo
00:00
03:57

Exclusivo Gostaria de Ouvir? Assine já

Os métodos que o ChatGPT usa para recolher dados dos seus utilizadores violam as leis de privacidade da União Europeia (UE) − esta é a conclusão de um trabalho de investigação da autoridade de protecção de dados de Itália, a GPDP, que começou a acompanhar o funcionamento do chatbot da OpenAI em Março de 2023. Em causa está a recolha e tratamento de dados em massa para treinar algoritmos com inteligência artificial (IA), e a falta de mecanismos adequados para verificar a idade dos utilizadores.

A GPDP (Garante per la protezione dei dati personali) notificou a OpenAI do resultado esta segunda-feira, mas não foram avançados detalhes sobre as acusações específicas que a OpenAI enfrenta. Em comunicado, a GPDP confirma, no entanto, que o inquérito aponta para a existência de várias “violações das disposições do Regulamento Geral para a Protecção de Dados da UE”. A empresa de Sam Altman tem 30 dias para apresentar a sua defesa.

O PÚBLICO contactou as equipas da OpenAI e da GPDP para mais informação, mas não obteve resposta até à hora de publicação deste artigo.

A investigação da GPDP começou em Março de 2023 quando a Itália baniu, temporariamente, o uso do ChatGPT no país devido à quantidade de dados automaticamente recolhidos e à inexistência de mecanismos para verificar a idade dos utilizadores que, em teoria, deveriam ter mais de 13 anos para usar a ferramenta.

O chatbot voltou a operar em solo italiano semanas mais tarde, com um sistema de verificação de idade e uma opção para impedir a OpenAI de usar os dados recolhidos para treinar os seus modelos.

Só que as mudanças não travaram a investigação da GPDP. Uma das grandes preocupações da autoridade italiana é que a OpenAI recolhe dados em excesso sem informar devidamente os utilizadores. Por exemplo, quando se usa o ChatGPT, a opção que impede a OpenAI de recolher dados para treinar os seus modelos de inteligência artificial está desligada por defeito. Ou seja, para travar a recolha, é preciso aceder às definições, algo que muitos utilizadores não fazem. Isto é uma característica que o ChatGPT partilha com outros chatbots com IA generativa como o Bard da Google.

Contactadas pelo PÚBLICO, as empresas notam que a recolha pode ser desactivada. “Conservamos determinados dados das interacções, mas temos medidas para reduzir a quantidade de informações pessoais nos dados de treino antes de serem utilizados para melhorar e treinar os nossos modelos”, explica Michael Schade, líder de projectos da OpenAI, num artigo sobre o tema.

Foto
A recolha de dados está activada por defeito DR

Artigos 5º, 6º, 8º, 13º, 25º

A GDPD mantém que o funcionamento do ChatGPT viola as regras da União Europeia. Em particular, os artigos 5º, 6º, 8º, 13º e 25º do Regulamento Geral para a Protecção de Dados (RGPD).

O artigo 5º define os princípios para a recolha de dados como a transparência e a segurança, enquanto o artigo 6º define os processos legais para recolha de dados (por exemplo, consentimento dos titulares ou interesse público). Já o artigo 8º limita a recolha de dados de menores de 16 anos sem autorização parental, e o artigo 13º obriga as empresas a informar os utilizadores sobre o uso, partilha e armazenamento dos seus dados. Por fim, o artigo 25º exige que a protecção de dados seja incorporada, por defeito, em todas as actividades de processamento de dados.

A autoridade de protecção de dados de Itália não é o único regulador europeu preocupado com o ChatGPT. Semanas após o começo da investigação ao ChatGPT, em Itália, o Comité Europeu para a Protecção de Dados (EDPB, na sigla inglesa) criou um grupo de trabalho para partilhar informação e medidas para lidar com a utilização do serviço da OpenAI na União Europeia. Em Setembro, a Polónia também abriu a sua própria investigação ao ChatGPT.

Em resposta ao aumento de escrutínio da UE, no começo de 2024, a OpenAI decidiu definir a nova subsidiária na Irlanda, anunciada em Setembro, como responsável pelos dados dos utilizadores europeus.

Sugerir correcção
Comentar