ChatGPT banido por regulador italiano devido a violação de privacidade
Violações de privacidade e falta de controlo do acesso de menores de idade ao ChatGPT estão na base do pedido de bloqueio da autoridade italiana responsável pela protecção de dados.
O regulador italiano responsável pela protecção de dados emitiu um comunicado em que ordena o bloqueio do ChatGPT devido a violações de privacidade. Mais: no comunicado publicado e citado pelo site Politico, a Autoridade Italiana para a Protecção de Dados (GPDP, na sigla em italiano) garante que vai avançar com uma investigação à utilização dos dados dos utilizadores italianos pela OpenAI, empresa responsável pelo ChatGPT.
Não é a primeira vez (nem deverá ser a última) que estes bloqueios acontecem. Os pedidos de suspensão e proibição desta ferramenta de inteligência artificial, que através de uma janela de conversa online conversa connosco e nos responde a questões, já tinham acontecido em escolas secundárias e universidades nos Estados Unidos e na Austrália, por exemplo. Esta terça-feira, a Europol emitiu um relatório onde apontava as preocupações com o potencial aumento da criminalidade provocado pelo recurso a instrumentos como o ChatGPT. E, há dois dias, na quarta-feira, uma carta aberta pedia uma pausa de seis meses no desenvolvimento de novos sistemas de inteligência artificial para avaliar os riscos e impactos – entre os signatários estava Elon Musk, um dos fundadores da OpenAI.
No caso da GPDP, a questão resume-se às preocupações com a privacidade dos cidadãos italianos e com a falta de garantia do cumprimento do Regulamento Geral da Protecção de Dados, aplicável no espaço da União Europeia. A decisão de bloquear o serviço chega depois de uma perda de dados a 20 de Março, reconhecida pela OpenAI, e que pode ter conduzido à exposição de informação de pagamento dos utilizadores (como cartões de crédito).
Mais do que isso, a GPDP acrescenta a falta de informação sobre os dados que são recolhidos e “sobretudo a ausência de fundamento legal que justifique a recolha e armazenamento em massa de dados de pessoas, para efeitos de ‘treino’ dos algoritmos subjacentes ao funcionamento da plataforma”. A isto acresce a “ausência de qualquer filtro de verificação da idade dos utilizadores”, o que expõe os menores de idade às potenciais respostas do ChatGPT, escreve a autoridade italiana no comunicado.
Não é o primeiro bloqueio que o regulador italiano faz. Já em Fevereiro deste ano, outro chatbot, o Replika, foi banido pela GPDP. O Replika é conhecido por desenvolver relações pessoais – quase de amizade – com os utilizadores.
Porta aberta para outros países avançarem com bloqueio
Conforme a própria GPDP refere, como a OpenAI não tem sede na União Europeia, qualquer autoridade de protecção de dados da União Europeia pode intervir e bloquear ou investigar uma empresa se existirem riscos para os utilizadores locais.
A falta de cumprimento do Regulamento Geral da Protecção de Dados, que obriga a que sejam dadas mais informações sobre o tratamento dos dados pessoais pelas empresas privadas e garante a existência de entidades reguladoras para controlar potenciais abusos ou violações da privacidade dos utilizadores, como aconteceu no caso italiano.
Em Portugal, não existem informações sobre a possível tomada de posição quanto aos dados utilizados pelo ChatGPT. Até ao momento, o PÚBLICO não conseguiu uma resposta da Comissão Nacional de Protecção de Dados, autoridade responsável pelo tema e presidida por Filipa Galvão. Ainda assim, o ChatGPT será utilizado pelo Ministério da Justiça português, conforme anunciado na sequência da estratégia da inteligência artificial para a justiça alavancada pelo Governo de António Costa.
No caso do bloqueio em Itália, que é o primeiro registo de bloqueio de uma autoridade nacional no espaço da União Europeia, como refere o site TechCrunch, a OpenAI ainda dispõe ainda de 20 dias para comunicar a resposta ou proposta de resolução dos problemas identificados pela autoridade reguladora italiana.
A OpenAI lançou este mês de Março uma nova versão do modelo de inteligência artificial, o GPT-4, que traz capacidades adicionais, como a possibilidade de analisar imagens. Ou seja, além de interpretar texto, o que lhe permite conversar e responder-nos como se fosse um humano, também vai conseguir interpretar imagens – o próximo passo são o áudio e o vídeo.
A Lei da Inteligência Artificial que está em discussão no Parlamento Europeu tem sofrido atrasos devido à emergência destas tecnologias. Já em Fevereiro, o comissário europeu Thierry Breton defendia uma “regulação sólida”, para garantir que a inteligência artificial possa ser confiável.
“O mundo ainda não é capaz de lidar com todas as consequências de uma ferramenta como o ChatGPT. Neste momento, apresenta mais riscos do que benefícios”, defendeu Catelijne Muller, fundadora da ALLAI, organização europeia por uma inteligência artificial responsável, e investigadora que tem aconselhado a Comissão Europeia nestas matérias, em resposta ao PÚBLICO, em Fevereiro.