Temos de falar sobre a criação de espaços sem inteligência artificial

A inteligência artificial apresenta um número crescente de riscos. Perante os desafios que traz, surge a necessidade de regular e criar “santuários livres de inteligência artifícial”.

Foto
Temos de falar sobre a criação de espaços sem inteligência artificial Pexels
Ouça este artigo
--:--
--:--

Exclusivo Gostaria de Ouvir? Assine já

No clássico da ficção científica Hyperion (1989) de Dan Simmons, os protagonistas do romance estão permanentemente ligados a uma rede de inteligência artificial (IA) conhecida como Datasphere, que instantânea e directamente lhes fornece informação ao cérebro. Embora o conhecimento esteja disponível de forma imediata, a habilidade de pensar de forma autónoma está perdida.

Mais de 30 anos depois da publicação da obra de Simmons, o impacto crescente da IA nas nossas capacidades intelectuais pode ser pensado em termos semelhantes. Para mitigar estes riscos, ofereço uma solução que pode reconciliar tanto o progresso da IA como a necessidade de respeitar e preservar as nossas capacidades cognitivas.

Os benefícios da IA para o bem-estar humano são abrangentes e bem conhecidos: o potencial da tecnologia nos avanços na justiça social, no combate ao racismo sistémico, na melhoria da detecção de cancro, na mitigação da crise ambiental e no aumento da produtividade.

Contudo, os aspectos mais sombrios da IA estão também a ganhar atenção – incluindo o viés racial e a sua capacidade de aprofundar disparidades socioeconómicas e de manipular os nossos comportamentos e emoções.

Quais são as regras no Ocidente?

Apesar dos riscos crescentes, ainda não existem regras vinculativas para a regulação de IA a nível nacional e internacional. É por isso que a proposta da Comissão Europeia para a regulação da inteligência artificial é tão relevante.

A lei da inteligência artificial (AI Act, em inglês) proposta pela Comissão Europeia, cuja versão mais recente recebeu luz verde pelos dois comités do Parlamento Europeu na semana passada, examina os potenciais riscos inerentes ao uso da tecnologia e classifica-os segundo três categorias: “inaceitável”, “alto” e “outro”. Na primeira categoria, as práticas de IA a ser proibidas são aquelas que:

  • Manipulam o comportamento da pessoa de forma a causar ou abrir a possibilidade de causar danos psicológicos ou físicos à própria pessoa ou a outrem;
  • Explorem as vulnerabilidades de um grupo específico de pessoas (por exemplo, pela idade ou incapacidades) de forma a que a IA distorça o comportamento dessas pessoas com a possibilidade de causar danos;
  • Avaliem e classifiquem pessoas (por exemplo, com um sistema de pontuação social);
  • Façam uso de reconhecimento facial em tempo real em espaços públicos com o propósito de coerção, excepto em casos específicos (por exemplo em ataques terroristas).

Na lei, a noção de riscos e danos “inaceitáveis” são bastante próximas. Esses são passos importantes e revelam a necessidade de proteger actividades específicas e espaços físicos da interferência da IA. Em conjunto com a minha colega Caitlin Mulholland mostrámos a necessidade de uma regulação mais forte do reconhecimento facial e da IA para proteger direitos humanos básicos como a privacidade.

Isto é particularmente verdadeiro com os últimos desenvolvimentos da IA, que envolvam o processo de tomada de decisão automatizado nas áreas judiciais e compreendem o seu uso na gestão migratória. Os debates em torno do ChatGPT e OpenAI têm também levantado algumas preocupações sobre o seu impacto nas nossas capacidades intelectuais.

Santuários livres de IA

Estes casos mostram que deve haver preocupação em relação à utilização da IA em sectores onde os direitos humanos, a privacidade e as habilidades cognitivas estão em risco. Apontam, também, para a necessidade de espaços onde actividade de IA deve ser fortemente regulada.

Acredito que estas áreas podem ser definidas de acordo com o conceito ancestral de santuários. Num artigo sobre “capitalismo de vigilância”, Shoshana Zuboff refere-se, de forma profética, ao direito ao santuário como um antídoto do poder, levando-nos por uma digressão de lugares, igrejas e mosteiros sagrados onde as comunidades oprimidas encontravam refúgio.

Contra a omnipresença da vigilância digital, Zuboff insiste no direito ao santuário através da criação de uma regulação digital robusta de forma a podermos usufruir de um “espaço de fuga inviolável”.

A ideia de “santuários livres de IA” não implica a proibição de sistemas de IA, mas uma regulação mais forte quanto ao uso dessas tecnologias. É o caso do lei da inteligência artificial europeia​, que implica uma definição mais precisa da ideia de danos. Contudo, não existe uma definição clara na legislação proposta pela UE ou ao nível dos estados-membros. Como afirma Suzanne Vergnolle, uma possível solução seria encontrar um critério conjunto dos estados-membros europeus que descrevesse melhor o tipo de dano que resulta de práticas manipulativas de IA. Os danos colectivos, com base no contexto racial e socioeconómico, devem ser considerados.

Para implementar os santuários livres de IA, as regulações que nos permitem evitar danos cognitivos e mentais devem ser reforçadas. Um ponto de partida seria uma nova geração de direitos – neurorights – que iriam proteger a nossa liberdade cognitiva dentro do rápido progresso das neurotecnologias. Roberto Andorno e Marcello Ienca defendem que o direito à integridade mental – já protegido pelo Tribunal Europeu dos Direitos Humanos – deveria ir além dos casos de doenças mentais e abranger intrusões não autorizadas, incluindo de sistemas de IA.

Foto
Unsplash

Santuários livres de IA: um manifesto

Antecipadamente, gostaria de sugerir o direito a “santuários livres de IA”, que engloba os seguintes artigos (provisórios):

  • O direito à recusa. Todos os indivíduos têm o direito a recusar tipos de IA em áreas sensíveis escolhidas por eles e durante um período à escolha. Isto significa que os dispositivos de IA não vão poder interferir, ou apenas de forma moderada;
  • Sem sanções. Abandonar o uso de IA nunca vai causar desvantagens económicas ou sociais;
  • O direito à determinação humana. Todos os indivíduos têm o direito a uma resolução final determinada por uma pessoa;
  • Áreas e pessoas sensíveis. Em conjunto com a sociedade civil e actores privados, as autoridades públicas devem definir áreas que são particularmente sensíveis (educação, saúde), assim como grupos sociais e humanos, como crianças, que não devem ser expostos, nem total nem moderadamente, à IA intrusiva.

Santuários no mundo físico

Até agora, espaços livres de IA têm sido aplicados irregularmente, de um ponto de vista meramente espacial. Algumas escolas europeias e norte-americanas escolheram evitar ecrãs nas salas de aula – o tão chamado movimento “educação low-tech/no-tech”. Vários programas de educação digital dependem de designs que favorecem a dependência, enquanto escolas públicas e com falta de fundos tendem a depender cada vez mais de ecrãs e ferramentas digitais, o que potencializa divisões sociais.

Mesmo fora de espaços controlados, como salas de aulas, o alcance da IA está a expandir-se. Para o atrasar, entre 2019 e 2021, uma dezena de cidades dos EUA aprovaram leis para restringir e proibir o uso do reconhecimento facial. Desde 2022, contudo, muitas cidades estão a afastar-se dessa posição, em resposta a uma percepção do aumento da criminalidade. Apesar da legislação proposta pelo Conselho Europeu, em França, os Jogos Olímpicos de 2024, em Paris, vão ser monitorizados por câmaras de videovigilância com recurso à IA.

Sem pensar no potencial de reforçar desigualdades, a análise facial da IA está a ser usada em algumas entrevistas de emprego. Através do fornecimento de dados sobre candidatos que foram bem-sucedidos no passado, a IA tem a tendência de seleccionar candidatos vindos de um contexto privilegiado e excluir os que vêm de um meio mais diversificado. Práticas como essas deviam ser proibidas.

Os motores de busca que fazem uso de IA deviam também ser proibidos, uma vez que a tecnologia não está preparada para ser usada a esse nível. De facto, Melissa Heikkiläa aponta no artigo MIT Technology Review de 2023, que um “texto gerado por uma IA parece autoritário e cita fontes, que poderiam, ironicamente, tornar menos provável que os utilizadores verifiquem a informação que estão a ver”. Existe também uma certa exploração, já que “os utilizadores estão a testar a tecnologia de forma gratuita”.

Permitir o progresso, preservar os direitos

O direito a santuários livres de IA vai permitir o progresso técnico da IA enquanto protege, em simultâneo, as capacidades cognitivas e emocionais de todos os indivíduos. Ser capaz de abandonar o uso de IA é essencial se quisermos preservar as nossas habilidades de adquirir conhecimento, experiências, e preservar o nosso julgamento moral.

No livro de Dan Simmon, um cybrid renascido do poeta John Keats é desconectado da Datasphere e é capaz de resistir à invasão da IA. Este ponto é instrutivo já que exprime a relevância dos debates sobre a interferência da IA na arte, música, literatura e cultura. De facto, e tendo em conta questões dos direitos intelectuais, estas actividades são bastante ligadas à nossa imaginação e criatividade, e estas capacidades são o foco primário das nossas habilidades de resistir e pensar por nós mesmos.


Exclusivo PÚBLICO/The Conversation
Antonio Pele é professor associado da Faculdade de Direito da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e membro do programa Marie Curie na IRIS/EHESS Paris e no Columbia Center for Contemporary Critical Thought na Universidade de Paris.

Sugerir correcção
Comentar