União Europeia torna-se pioneira a estabelecer restrições ao uso da IA

Com o acordo provisório alcançado na sexta-feira depois de uma maratona negocial, Bruxelas torna-se na primeira grande potência mundial a adoptar leis para regulamentar a Inteligência Artificial.

Foto
O acordo exige que os modelos de base, como o ChatGPT e os sistemas de IA para fins gerais (GPAI), cumpram obrigações de transparência antes de serem colocados no mercado DADO RUVIC/Reuters
Ouça este artigo
00:00
04:04

Exclusivo Gostaria de Ouvir? Assine já

A Europa chegou a um acordo provisório sobre as regras fundamentais da União Europeia para a utilização da inteligência artificial (IA), incluindo o seu uso pelos governos na vigilância biométrica e a forma de regulamentar os sistemas de IA como o ChatGPT.

Com o acordo político alcançado na sexta-feira, a UE torna-se a primeira grande potência mundial a adoptar leis para regulamentar a IA. O acordo entre os Estados-membros e os deputados do Parlamento Europeu foi alcançado após quase 15 horas de negociações que se seguiram a um debate de quase 24 horas no dia anterior.

Nos próximos dias, as duas partes deverão discutir pormenores que poderão alterar a legislação final.

“A Europa tem-se posicionado como pioneira, compreendendo a importância do seu papel como definidora de padrões globais. Creio que este é um dia histórico”, afirmou o comissário Europeu Thierry Breton em conferência de imprensa.

O acordo exige que os modelos de base, como o ChatGPT e os sistemas de IA para fins gerais (GPAI), cumpram obrigações de transparência antes de serem postos no mercado. Estas obrigações incluem a elaboração de documentação técnica, o cumprimento da legislação da UE em matéria de direitos de autor e a divulgação de resumos pormenorizados sobre os conteúdos utilizados na formação.

Os modelos fundacionais de grande impacto que representem risco sistémico terão de realizar avaliações do modelo, avaliar e atenuar os riscos sistémicos, realizar testes contraditórios, informar a Comissão Europeia sobre incidentes graves, garantir a cibersegurança e apresentar relatórios sobre a sua eficiência energética.

As GPAI com risco sistémico podem utilizar códigos de práticas para cumprir o novo regulamento.

Os governos só podem utilizar a vigilância biométrica em tempo real em espaços públicos no caso de vítimas de determinados crimes, na prevenção de ameaças reais, actuais ou previsíveis, como ataques terroristas, e na busca de pessoas suspeitas dos crimes mais graves.

O acordo proíbe a manipulação cognitivo-comportamental, a recolha não direccionada de imagens faciais da Internet ou de imagens de CCTV, a marcação social e os sistemas de categorização biométrica para inferir convicções políticas, religiosas, filosóficas, orientação sexual e raça.

Os consumidores terão o direito de apresentar queixa e de receber explicações em tempo útil, enquanto as multas por infracção irão variar entre 7,5 milhões de euros ou 1,5% do volume de negócios e 35 milhões de euros ou 7% do volume de negócios global.

O grupo empresarial DigitalEurope criticou as regras como mais um fardo para as empresas, a somar a outra legislação recente. “Temos um acordo, mas a que preço? Apoiámos plenamente uma abordagem baseada no risco e nas utilizações da IA, e não na tecnologia em si, mas a tentativa de última hora de regular os modelos de base virou isto do avesso”, afirmou a directora-geral Cecilia Bonefeld-Dahl.

O grupo de defesa do direito à privacidade European Digital Rights foi igualmente crítico.

“É difícil ficar entusiasmado com uma lei que, pela primeira vez na UE, tomou medidas para legalizar o reconhecimento facial público em directo em todo o bloco”, afirmou a conselheira sénior do grupo, Ella Jakubowska. Embora o Parlamento tenha lutado arduamente para limitar os danos, o pacote global sobre a vigilância biométrica e a definição de perfis é, na melhor das hipóteses, morno.

A legislação deverá entrar em vigor no início do próximo ano, após a sua ratificação formal por ambas as partes, e deverá ser aplicada dois anos depois.

Os governos de todo o mundo estão a tentar equilibrar as vantagens da tecnologia, que pode participar em conversas semelhantes às humanas, responder a perguntas e escrever código informático, com a necessidade de criar limites de segurança.

As ambiciosas regras europeias em matéria de IA surgem numa altura em que empresas como a OpenAI, na qual a Microsoft é investidora, continuam a descobrir novas utilizações para a sua tecnologia, suscitando tanto aplausos como preocupação. A Alphabet, proprietária da Google, lançou na quinta-feira um novo modelo de IA, o Gemini, para rivalizar com a OpenAI.

A lei da UE poderá tornar-se o modelo para outros governos e uma alternativa à abordagem ligeira dos Estados Unidos e às regras provisórias da China. Reuters

Sugerir correcção
Ler 5 comentários