UE aproxima-se de 2024 sem lei para a inteligência artificial. Porquê o impasse?

Os modelos por detrás de novos sistemas de IA generativa (tipo ChatGPT) e a vigilância biométrica estão no centro do impasse. França, a Itália e Alemanha defendem mais auto-regulação.

Foto
A criação de excepções para a identificação biométrica é um dos pontos em debate T TANG ZHENGSHUN/GETTY
Ouça este artigo
00:00
03:54

Exclusivo Gostaria de Ouvir? Assine já

Os legisladores europeus esperavam definir regras harmonizadas para a inteligência artificial (IA) até 2024 para garantir que os sistemas desenvolvidos e utilizados na Europa respeitam os valores e direitos da UE, incluindo a privacidade e a segurança. A um mês do final do ano, porém, cumprir esta meta revela-se difícil. Um dos maiores desafios é a regulação dos modelos na base de sistemas como o ChatGPT.

Desde Junho que a proposta de regulamento aprovada pelo Parlamento Europeu é analisada em trílogos, reuniões à porta fechada em que os representantes das instituições legislativas europeias – o Parlamento, a Comissão e o Conselho – discutem as suas posições para chegarem a um acordo final.

O próximo trílogo está agendado para esta quarta-feira, dia 6 de Dezembro. Se os representantes europeus não chegarem a um consenso até ao final do dia, o debate deve ser interrompido até 2024 e possivelmente adiado até ao final das eleições para o Parlamento Europeu, em Junho. O PÚBLICO faz o ponto da situação sobre as discussões.

Em que ponto está a discussão?

Os representantes europeus concordam com uma abordagem de risco, com regras específicas consoante o perigo da tecnologia IA utilizada. A base da legislação mantém-se idêntica desde a proposta inicial da Comissão Europeia, em 2021. Sistemas de IA de filtragem de spam de email são um exemplo de risco mínimo e apenas requerem transparência. Ferramentas que classificam pessoas, colocando-as em categorias de acordo com características sensíveis ou protegidas, como a orientação sexual, são proibidas – o risco é considerado inaceitável. Sistemas com risco elevado incluem programas utilizados em infra-estruturas fulcrais ou em áreas como a saúde e devem ser registados numa base de dados da UE.

No entanto, o aparecimento de programas como o ChatGPT, capazes de produzir conteúdo original a partir de grandes quantidades de dados, levanta dúvidas sobre a melhor forma de regular os modelos por detrás destes sistemas. Somam-se dúvidas sobre a utilização da IA para identificar pessoas em público.

Em que consiste o impasse?

Grandes modelos de IA
Um dos maiores desafios é a regulação dos grandes modelos de inteligência artificial, conhecidos por “modelos de base” (foundation models, em inglês), que usam grandes bases de dados para aprender a realizar várias tarefas (por exemplo, corrigir textos académicos, completar código informático ou moderar plataformas). São a base de sistemas de IA generativa, como o ChatGPT, da OpenAI, e o Bard da Google.

A proposta do Parlamento Europeu defende a criação de requisitos mais fortes de transparência para estes modelos, incluindo a partilha de pormenores sobre o seu funcionamento e o respeito de normas ambientais, para evitar potenciais riscos. Os modelos de base também devem estar sujeitos a supervisão humana e devem ser submetidos a avaliações periódicas para garantir a sua segurança e fiabilidade a longo prazo.

No entanto, alguns países-membros, como França, Itália e Alemanha argumentam que uma supervisão rigorosa pode prejudicar a inovação das empresas europeias, particularmente face a gigantes da IA como a China e os Estados Unidos. Estes países propõem uma solução baseada na auto-regulação.

Identificação biométrica
Os legisladores também estão divididos quanto à criação de excepções que permitam usar sistemas de IA para identificar e analisar indivíduos em espaços públicos através de informação biométrica (por exemplo, reconhecimento facial ou reconhecimento de emoções).

A posição do Parlamento, apresentada em Junho, proíbe completamente o uso da inteligência artificial para fins de vigilância em tempo real. Os trílogos voltaram a pôr a hipótese de usar estes sistemas para fins de segurança, mas os representantes do Parlamento Europeu recusam-se a ceder na autorização de sistemas de vigilância biométrica em locais públicos e na utilização de sistemas de reconhecimento de emoções em estabelecimentos de ensino ou locais de trabalho.

Sugerir correcção
Ler 2 comentários