Lei da IA adoptada na UE. O que mudou em cinco anos de discussões?

A UE deu a aprovação final à sua nova lei da inteligência artificial. O PÚBLICO falou com Dragos Tudorache, um dos eurodeputados que passaram os últimos anos a escrever — e reescrever — a legislação.

Foto
A legislação visa regular modelos de IA, incluindo aqueles usados em ferramentas para criar imagens como a que ilustra este artigo dr
Ouça este artigo
00:00
09:27

Exclusivo Gostaria de Ouvir? Assine já

A versão final da lei para a inteligência artificial (AI Act, em inglês) foi adoptada nesta quarta-feira pelo Parlamento Europeu (com 523 votos a favor, 46 contra e 49 abstenções). A votação põe fim a um longo processo legislativo que começou em 2019 para dar algum controlo à União Europeia sobre as ferramentas de inteligência artificial que são usadas no bloco.

O âmbito da lei é vasto, cobrindo desde programas que filtram emails indesejados (spam), a sistemas utilizados no diagnóstico de doenças ou na gestão das redes energéticas. Abrange ainda plataformas como o ChatGPT, que utilizam modelos treinados com enormes quantidades de dados recolhidos automaticamente da Internet (web scrapping) para replicar actividades humanas, como produzir texto, código informático ou ilustrações. Excluem-se, no entanto, os programas concebidos para defesa nacional, um domínio que excede a jurisdição da UE.

Apesar das muitas mudanças, as regras finais continuam a seguir uma abordagem com base no risco da tecnologia. Ferramentas que representam mais risco estão sujeitas a mais regras. São proibidos sistemas que usam reconhecimento facial para seguir e identificar pessoas em tempo real e programas que classificam indivíduos, colocando-os em categorias específicas segundo características sensíveis ou protegidas (por exemplo, a orientação sexual). O novo Gabinete para a IA (AI Office), anunciado em Fevereiro, será o centro dos conhecimentos especializados em IA em toda a União Europeia e desempenhará um papel fundamental na aplicação da nova lei.

O PÚBLICO falou com o eurodeputado romeno Dragos Tudorache, um dos correlatores da lei que passaram os últimos anos a escrever, e reescrever, o documento.

Como é que o texto mudou?
O texto sofreu alterações muito significativas em relação à proposta da Comissão [apresentada em 2021]. Uma das maiores mudanças no texto foi o facto de se terem introduzido regras para “os modelos de base” [foundation models, em inglês] que não existiam de todo na proposta original. Isto não é uma crítica à proposta da Comissão Europeia. Na altura em que a comissão escreveu o texto, ninguém estava a prestar atenção aos modelos de base, mas tornaram-se uma parte importante do debate sobre a IA.

Também completámos a lista de proibições e clarificámos a proibição de identificação biométrica em tempo real [por exemplo, reconhecimento facial] e as garantias em torno disso. É também proibido utilizar imagens retiradas sem autorização da Internet para treinar sistemas de reconhecimento facial.

Mudámos quase completamente a governação. Passámos de um modelo que dependia muito das competências dos Estados-membros, para a criação de um gabinete de IA para guiar a aplicação da lei.

Em 2023, a lei ficou presa num impasse devido à possibilidade de criar excepções para sistemas de identificação biométrica em tempo real. O que diz o texto final?
A utilização de informação biométrica em tempo real é proibida. Consideramos que é uma tecnologia demasiado invasiva, que põe em causa os direitos e interesses da sociedade. Mas aceitamos, e eu digo aceitamos porque inicialmente o Parlamento Europeu defendia uma proibição rígida, que têm de existir excepções, com o objectivo de garantir a segurança dos cidadãos.

É possível usar reconhecimento facial para lidar com risco iminente de situações de terrorismo e para ajudar na investigação de rapto e tráfico humano. Mas tem de existir autorização judicial. A polícia, por si só, não tem o poder de decidir usar estes sistemas.

Há tempo para obter a autorização em caso de perigo iminente?
No caso de um ataque iminente ou de uma ameaça iminente, [os sistemas de IA] podem ser mobilizados. Mas tem de ser feito um pedido junto de uma autoridade judicial num prazo de 24 horas. Se esse pedido for recusado, todos os dados que foram captados durante esse período têm de ser apagados e não podem ser utilizados.

A utilização de tal tecnologia só pode ser efectuada mediante a aplicação de uma avaliação de impacto sobre os direitos fundamentais.

A discussão em torno do impacto da IA em cenários de guerra está a aumentar. A lei tem repercussões nesta área?
Não. A segurança nacional e a defesa não fazem parte das competências da UE. Por isso, a lei não se aplica à IA que está a ser utilizada no contexto da defesa ou da segurança nacional. Isto não quer dizer que a IA não faz parte da guerra e não é um tema que tem de ser discutido. É evidente que o futuro da guerra será construído com base na visão computacional, porque cada vez mais as guerras serão travadas por sistemas autónomos de todos os tipos, grandes e pequenos, na água, no ar e em terra.

É um debate que tem de acontecer. A NATO, pelo que sei, está a trabalhar num conjunto de princípios e regras para a utilização da IA na guerra e em sistemas abertos.

Qual é o papel do novo Gabinete para a IA?
O Gabinete Europeu de Inteligência Artificial será o centro de conhecimentos especializados em matéria de IA em toda a UE. Vai desempenhar um papel fundamental na aplicação do regulamento, especialmente no que respeita à IA de uso geral. A missão é interagir com todos os intervenientes, incluindo as grandes empresas que estão a colocar estes modelos poderosos no mercado. É preciso compreender os sistemas e ter a capacidade de os avaliar e testar. Portanto, vai exigir algum conhecimento técnico.

É fácil recrutar este tipo de talento?
Vamos ter de competir [com as grandes empresas]. Não vai ser simples, mas temos de o fazer e temos de atrair profissionais do sector privado para fazer o trabalho. A primeira ronda de recrutamento já começou.

A lei prevê que as empresas não podem recolher automaticamente [data scrapping] informação da Internet para treinar modelos. No entanto, sistemas como o ChatGPT treinaram os sistemas com informação online. E agora?
Há aqui duas questões. É proibido recolher em massa fotografias da Internet e treiná-las para sistemas de reconhecimento facial. Isto vai impedir casos como o escândalo com a empresa Clearview, nos EUA.

Outra questão é o que fazer com os modelos que construíram modelos ao treiná-los indiscriminadamente com toda a Internet.

Foto
Dragos Tudorache, co-relator da nova lei da IA DR

O que acontece com os que já foram treinados?
Os modelos que já estão no mercado terão de agir em conformidade a partir do momento em que a lei foi aprovada. Ou seja, sim, foram usados dados recolhidos de forma indiscriminada para treinar modelos no passado, mas isto não pode continuar a acontecer. E as empresas terão de partilhar informação sobre os dados, originais, que usaram para treinar os modelos.

Daqui a um ano, as empresas terão de mostrar os dados que utilizaram para formar os modelos. Isto vai permitir perceber se os modelos foram treinados com dados proprietários protegidos por direitos de autor. De momento, as pessoas apenas podem adivinhar se o seu trabalho foi usado.

Não podemos responsabilizar as empresas pelo que fizeram quando não havia regulamentação.

As empresas conseguem cumprir este requisito de transparência? É possível perceber os dados que foram utilizados para treinar os modelos?
Sim, com modelos de IA. Curiosamente, precisamos de IA para podermos regular e descobrir esta informação porque os modelos são enormes. Ao falar com especialistas nos EUA e no Reino Unido, temos concluído isso. Portanto, vamos ter uma situação em que a IA será utilizada para policiar a própria IA.

Qual a importância de as regras na UE se alinharem com potenciais de IA como os Estados Unidos e a China?
Tem havido muitos desenvolvimentos do lado dos EUA. Existiu a Carta dos Direitos da IA e a Califórnia já está a debater uma lei sobre a IA. Parece muito semelhante ao que estamos a fazer. A Califórnia também foi o estado que primeiro adoptou a lei da privacidade depois do Regulamento Geral para a Protecção de Dados.

Existe alguma discussão com a China?
A discussão com a China é inevitável. Penso que o país partilha algumas das preocupações da UE, mesmo que entendamos o papel da sociedade, dos cidadãos e do Estado de forma muito diferente. É por isso que é tão importante garantir que os sistemas democráticos, que os EUA e a UE, convergem na visão para a IA. Esta convergência é importante para preparar o diálogo com a China.

A sociedade está bem informada sobre o tema? O que é que a UE pode fazer?
A sociedade continua mal informada sobre a IA. É o maior desafio relacionado com a transformação a que assistimos. A força de trabalho da nossa sociedade precisa de ser informada, precisa de começar a ser adaptada e educada para acolher a IA no local de trabalho. A IA vai estar presente em quase todos os nossos locais de trabalho, de uma forma ou de outra, e temos de aprender a trabalhar com ela. Não devemos ter medo dela, mas aprender a trabalhar com ela.

A UE está a fazer alguma coisa?
É o mesmo que acontece com a defesa, que discutimos anteriormente. Infelizmente, os domínios da educação e da mão-de-obra, os mercados de trabalho, são também competências nacionais. Não dispomos de ferramentas suficientes a nível da UE para adoptar uma abordagem comum sobre a forma como adaptamos os nossos sistemas educativos e como preparamos a nossa mão-de-obra.

A UE pode apresentar alguns programas de financiamento e algumas estratégias e comunicações mais alargadas, mas a acção concreta continua a ser nacional.

A falta de competências em IA é uma das razões pelas quais é necessário criar um gabinete de IA?
A criação de um gabinete dedicado à inteligência artificial não se deve à ideia de que as autoridades nacionais não teriam competência para desempenhar o papel. É necessária uniformidade. Uma das lições que aprendemos na implementação do RGPD é que, quando se tem 27 reguladores nacionais a trabalhar na mesma lei, acabamos por ter 27 interpretações diferentes da lei. Não queremos isso. Se queremos realmente fazer crescer as empresas e, potencialmente, as empresas na Europa e no mundo, temos de colocar todo o potencial do mercado da UE à disposição das empresas.

Sugerir correcção
Comentar