Comissões do Parlamento Europeu dão “luz verde” a acordo sobre lei de IA
Falta agora a adopção formal, numa próxima sessão plenária do Parlamento. Os esforços para criar uma lei europeia para novos sistemas de inteligência artificial (IA) começaram em 2021.
As comissões do Mercado Interno (IMCO) e das Liberdades Cívicas do Parlamento Europeu (LIBE) deram esta terça-feira "luz verde’"ao acordo alcançado na União Europeia (UE) sobre a primeira lei do mundo para inteligência artificial (IA), que prevê diferentes regras e limites com base no risco das ferramentas que usam a tecnologia. É mais um passo no longo processo legislativo europeu em direcção à adopção formal do regulamento numa próxima sessão plenária do Parlamento e à aprovação final do Conselho.
Em 2023, o acordo enfrentou um longo impasse devido a divergências sobre a regulação dos grandes modelos de inteligência artificial, na origem de programas como o ChatGPT, e da utilização de sistemas de inteligência artificial pelas autoridades. Só foi alcançado um acordo provisório em Dezembro.
Em comunicado, a assembleia europeia dá conta de que a votação desta terça-feira ocorreu na reunião da manhã das comissões parlamentares do Mercado Interno e das Liberdades Cívicas, com respectivamente 71 e oito votos a favor e sete abstenções. “Este regulamento tem como objectivo proteger os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental da IA de alto risco e, ao mesmo tempo, visa impulsionar a inovação e estabelecer a Europa como líder no domínio da inteligência artificial. As regras estabelecem obrigações com base nos seus riscos potenciais e no seu nível de impacto”, salienta o Parlamento Europeu na nota.
A base da legislação mantém-se idêntica desde a proposta inicial da Comissão Europeia, em 2021. As regras seguem uma abordagem tendo em conta o risco da tecnologia, com obrigações tanto para os fornecedores como para aqueles que utilizam sistemas de IA.
Sistemas de IA que filtrem mensagens de email indesejadas (spam) são um exemplo de risco mínimo e apenas requerem transparência. Ferramentas de monitorização de emoções em contexto profissional e sistemas de identificação biométrica com base em características sensíveis, ou protegidas, como a orientação sexual são proibidas. O risco é visto como inaceitável. Sistemas com risco elevado incluem programas utilizados em áreas como a saúde e devem ser registados numa base de dados da UE.
Mudanças à versão original
Em Dezembro de 2023, os legisladores chegaram a acordo quanto à criação de possíveis excepções para o uso de sistemas de identificação biométrica (por exemplo, reconhecimento facial). O acordo actual prevê a utilização destes sistemas em condições pontuais, com limites geográficos e temporais. As excepções incluem encontrar vítimas de sequestro, tráfico ou exploração sexual, e prevenir ameaças terroristas.
O impasse de 2023 também se devia às regras previstas para supervisionar o funcionamento de grandes modelos de inteligência artificial, conhecidos por “modelos de base” (foundation models, em inglês), que usam grandes bases de dados para aprender a realizar várias tarefas. São a base de sistemas como o ChatGPT, da OpenAI, e o Copilot da Microsoft. França era um dos países que via uma supervisão rigorosa a prejudicar a inovação das empresas europeias, particularmente face a gigantes da IA como Pequim e Washington.
A proposta actual exige que os modelos de base cumpram apenas obrigações de transparência antes de chegar ao mercado. Isto inclui cumprir a legislação da União Europeia, particularmente no que toca aos direitos de autor, e divulgar resumos detalhados sobre os dados usados para treinar os sistemas de IA.
Está previsto que sejam introduzidos requisitos adicionais para colmatar os riscos, como a existência de supervisão humana ou a obrigação de informação clara sobre as capacidades e as limitações da inteligência artificial.
A nova lei será aplicável 24 meses após a sua entrada em vigor.