UE aproxima-se de 2024 sem lei para a inteligência artificial. Porquê o impasse?
Os modelos por detrás de novos sistemas de IA generativa (tipo ChatGPT) e a vigilância biométrica estão no centro do impasse. França, a Itália e Alemanha defendem mais auto-regulação.
Os legisladores europeus esperavam definir regras harmonizadas para a inteligência artificial (IA) até 2024 para garantir que os sistemas desenvolvidos e utilizados na Europa respeitam os valores e direitos da UE, incluindo a privacidade e a segurança. A um mês do final do ano, porém, cumprir esta meta revela-se difícil. Um dos maiores desafios é a regulação dos modelos na base de sistemas como o ChatGPT.
Desde Junho que a proposta de regulamento aprovada pelo Parlamento Europeu é analisada em trílogos, reuniões à porta fechada em que os representantes das instituições legislativas europeias – o Parlamento, a Comissão e o Conselho – discutem as suas posições para chegarem a um acordo final.
O próximo trílogo está agendado para esta quarta-feira, dia 6 de Dezembro. Se os representantes europeus não chegarem a um consenso até ao final do dia, o debate deve ser interrompido até 2024 e possivelmente adiado até ao final das eleições para o Parlamento Europeu, em Junho. O PÚBLICO faz o ponto da situação sobre as discussões.
Em que ponto está a discussão?
Os representantes europeus concordam com uma abordagem de risco, com regras específicas consoante o perigo da tecnologia IA utilizada. A base da legislação mantém-se idêntica desde a proposta inicial da Comissão Europeia, em 2021. Sistemas de IA de filtragem de spam de email são um exemplo de risco mínimo e apenas requerem transparência. Ferramentas que classificam pessoas, colocando-as em categorias de acordo com características sensíveis ou protegidas, como a orientação sexual, são proibidas – o risco é considerado inaceitável. Sistemas com risco elevado incluem programas utilizados em infra-estruturas fulcrais ou em áreas como a saúde e devem ser registados numa base de dados da UE.
-
(Mais) Perguntas e Respostas: Uma questão de risco. Como é que a UE quer regular a inteligência artificial?
No entanto, o aparecimento de programas como o ChatGPT, capazes de produzir conteúdo original a partir de grandes quantidades de dados, levanta dúvidas sobre a melhor forma de regular os modelos por detrás destes sistemas. Somam-se dúvidas sobre a utilização da IA para identificar pessoas em público.
Em que consiste o impasse?
Grandes modelos de IA
Um dos maiores desafios é a regulação dos grandes modelos de inteligência artificial, conhecidos por “modelos de base” (foundation models, em inglês), que usam grandes bases de dados para aprender a realizar várias tarefas (por exemplo, corrigir textos académicos, completar código informático ou moderar plataformas). São a base de sistemas de IA generativa, como o ChatGPT, da OpenAI, e o Bard da Google.
A proposta do Parlamento Europeu defende a criação de requisitos mais fortes de transparência para estes modelos, incluindo a partilha de pormenores sobre o seu funcionamento e o respeito de normas ambientais, para evitar potenciais riscos. Os modelos de base também devem estar sujeitos a supervisão humana e devem ser submetidos a avaliações periódicas para garantir a sua segurança e fiabilidade a longo prazo.
No entanto, alguns países-membros, como França, Itália e Alemanha argumentam que uma supervisão rigorosa pode prejudicar a inovação das empresas europeias, particularmente face a gigantes da IA como a China e os Estados Unidos. Estes países propõem uma solução baseada na auto-regulação.
Identificação biométrica
Os legisladores também estão divididos quanto à criação de excepções que permitam usar sistemas de IA para identificar e analisar indivíduos em espaços públicos através de informação biométrica (por exemplo, reconhecimento facial ou reconhecimento de emoções).
A posição do Parlamento, apresentada em Junho, proíbe completamente o uso da inteligência artificial para fins de vigilância em tempo real. Os trílogos voltaram a pôr a hipótese de usar estes sistemas para fins de segurança, mas os representantes do Parlamento Europeu recusam-se a ceder na autorização de sistemas de vigilância biométrica em locais públicos e na utilização de sistemas de reconhecimento de emoções em estabelecimentos de ensino ou locais de trabalho.