Regulamento de IA: e a complexidade não assusta?

O futuro nunca foi nem tão bom, nem tão mau como se previa. Porque é que há de ser diferente desta vez?

Ouça este artigo
00:00
03:15

Exclusivo Gostaria de Ouvir? Assine já

Todas as décadas têm os seus pânicos. Nos anos 1990 foi a clonagem que precipitou debate público e intervenção legislativa. Atualmente clonam-se animais de estimação (a Coreia do Sul é pioneira nesta indústria) e, na União Europeia, desde que tal seja assinalado, é possível vender produtos alimentares provenientes de animais clonados. Não se tem falado nisso.

O pânico desta década é outro: a Inteligência Artificial (IA). O debate oscila entre um extremo, optimista e redentor — a IA libertar-nos-á do trabalho, das doenças, trará prosperidade, paz, pão, resolverá as alterações climáticas —, e outro extremo, pessimista e apocalíptico — os sistemas de IA tornar-nos-ão escravos, serão incontroláveis, acentuarão as desigualdades sociais, polarização e discriminações, dissolverão a realidade, tornando impossível discernir o que é verdade, e contribuirão acentuadamente para o aquecimento global.

Neste contexto, o legislador europeu orgulha-se de ter aprovado um Regulamento de IA com 68 definições, 113 artigos, 13 anexos e 180 considerandos. Este diploma tem previsões, exceções, derrogações e casos particulares, com uma estrutura equivalente aos puzzles de milhares de peças, reservados a aficionados. Complexidade excessiva não é boa para a inovação. Soluções razoáveis que sejam difíceis de explicar não são eficazes.

Tentando o impossível: o Regulamento centra a sua abordagem em sistemas de IA, que constituem software com uma dose de autonomia e imprevisibilidade. Aplica-se sempre que esse sistema de tenha um mínimo contacto com a União Europeia. O Regulamento olha para a utilização prevista desses sistemas (conforme descrita pelo seu produtor) e a partir dessa previsão atribui-lhe uma classificação de risco.

O essencial da regulação centra-se sobre os sistemas de risco elevado, que incluem, entre outros, componentes de segurança de brinquedos, dispositivos médicos, veículos ou infraestruturas críticas, sistemas utilizados no acesso e monitorização no ensino, recrutamento e gestão de trabalhadores, acesso a serviços públicos essenciais e aplicações em contextos policial e gestão de fronteiras. Os sistemas de risco elevado estão sujeitos a requisitos de competência técnica na sua concepção (serem “bem feitos”) e utilização (serem “bem usados”). Estabelece-se ainda um esquema de certificação, conformidade e registo.

Há também utilizações proibidas (risco intolerável): uma série de práticas que provavelmente já seriam ilegais, mas que são assustadoras, como a exploração de vulnerabilidade, o policiamento preditivo (prever crimes antes deles ocorrerem), a categorização biométrica (v.g. deteção da orientação sexual a partir da face) ou a deteção de emoções no local de trabalho.

Além disso regulam-se em termos mínimos os sistemas de baixo risco, como agentes conversacionais (chatbots) e geradores de falsificações profundas (deepfakes), e os modelos de finalidade geral. As coimas são elevadíssimas e o quadro burocrático é complexo.

O presente é o futuro do passado. E o futuro nunca foi nem tão bom, nem tão mau como se previa. Porque é que há de ser diferente desta vez? Esperemos que não seja por causa desta regulamentação, que, pela sua complexidade, corre o risco de ser mais prejudicial do que benéfica.

Sugerir correcção
Ler 2 comentários