A Inteligência Artificial é a varinha de condão para os problemas da Administração Pública?
Estamos a ser muito rápidos a implementar algoritmos de Inteligência artificial, mas não conseguimos prever o que eles vão fazer nem que preconceitos vão carregar. E eles cometem erros graves.
O Governo anunciou recentemente a intenção de utilizar algoritmos de inteligência artificial (AIA) para criar critérios e matrizes de risco, e identificar probabilidade de fraude fiscal. A ideia é simples: deverão existir “marcas estatísticas” de evasão fiscal que estão escondidas em montanhas de dados. Estes dados são tantos que, por mais e mais competentes que sejam os humanos, o fisco está limitado a analisar de forma aleatória ou a focar-se apenas nas declarações dos maiores contribuintes. Utilizar computadores permitiria alargar a análise e, possivelmente, identificar sinais mais subtis de fraude.
De forma geral, um AIA deste tipo funcionará assim: começamos com casos confirmados (quantos mais, melhor) de fraude fiscal ou de irregularidades. Depois, tentamos encontrar o que é que estes casos têm em comum entre si. Por exemplo, em muitos dos casos identificados no passado podem existir transferências de fundos para paraísos fiscais ou erros no preenchimento de formulários. A cada uma destas possibilidades podemos associar riscos (ocorrem ou co-ocorrem com mais ou menos frequência) e criar as tais matrizes. Existindo, estas matrizes podem ser aplicadas a virtualmente todos os contribuintes e identificar aqueles que correspondem a um “maior risco” de fraude.
Este processo parece simples, mas é complicado e sujeito a erros. A verdade é que não fazemos ideia de como estes algoritmos realmente fazem as escolhas que fazem, o que cria três problemas principais: 1) muitos falsos negativos, ou seja, o modelo dá um risco baixo a contribuintes que estão a cometer fraude; 2) muitos falsos positivos, ou seja, identifica como sendo de risco elevado contribuintes honestos; 3) estes erros (falsos positivos e falsos negativos) não serem aleatórios, ou seja, errarem sistematicamente na direcção de um certo tipo de perfil.
Vamos por partes. Se, actualmente, a maioria das auditorias é feita a grandes contribuintes, os dados usados para criar as matrizes vão ser enviesados para este tipo de evasão fiscal. É sempre possível “dar mais peso” aos casos que foram identificados durante as auditorias de rotina, ou aleatórias, mas, obviamente, nunca teremos nos dados de treino casos de fraude fiscal que nunca foram identificados. Ou seja, sistemas de evasão novos ou mais difíceis de encontrar continuarão escondidos. São falsos negativos.
Segundo problema. Imaginemos uma contribuinte imigrante que chegou há pouco tempo: a probabilidade desta contribuinte fazer transferências para o estrangeiro e de se enganar a preencher formulários (por dificuldades com a língua ou com a nomenclatura) é superior à de um contribuinte português que tenha apoio contabilístico profissional e que saiba esconder transferências. Assim, a honesta contribuinte imigrante será mais vezes sujeita a auditorias. Dir-me-ão que isso não é grave porque, como auditorias (ainda) são feitas por humanos, ela poderá justificar-se. Infelizmente, não só tendemos a acreditar na infalibilidade de algoritmos, pelo que a auditoria já será feita com espírito “culpada até prova em contrário”, como esta contribuinte se calhar cometeu mesmo um erro (por exemplo, de preenchimento). E até pode ter existido fraude fiscal por ignorância, estando de facto sujeita a multas ou pior, mas o AIA não está necessariamente a encontrar o que pretendia. São falsos positivos.
É importante notar que, como esta informação será usada para alimentar o AIA, este ficará ainda “mais confiante” da sua capacidade de identificar este tipo de “fraude”, que até pode ser causada por mau desenho de formulários ou por linguagem opaca (quem nunca se sentiu estúpida ao preencher um formulário das Finanças, que atire a primeira pedra). E, tal como cresce a probabilidade de marcar como fraudulentos imigrantes honestos, pode decrescer a de encontrar evasões reais: ao preferir-se um AIA a avaliações aleatórias, será ainda mais fácil esconder fraudes cujas assinaturas não estejam na matriz de risco. Como é duvidoso que seja o contribuinte comum a ter acesso a estas matrizes ou a saber como manipular o algoritmo, os erros são cada vez mais enviesados e o algoritmo funcionará como uma profecia autoalimentada.
Se tudo isto parece uma ficção distópica ou demasiado óbvio para não ser acautelado, aviso que já aconteceu. Em 2021, o governo dos Países Baixos demitiu-se por causa de um escândalo relacionado com a identificação de fraude na segurança social. Conforme escreveu então o PÚBLICO, “em muitos casos, as acusações do fisco tinham como base a falta de assinaturas ou o não preenchimento de um formulário. Como consequência, milhares de famílias, além de perderem direito aos abonos, foram obrigadas a devolver milhares de euros, o que as atirou para a falência, criando uma profunda crise social”. A maioria destas famílias era pobre e imigrante e tinha sido identificada não por “burocratas”, como inicialmente se pensou, mas por um AIA xenófobo, o SyRI. A verdade é que ainda temos enormes dificuldades em auditar algoritmos, principalmente para enviesamentos que não sabemos antecipar.
Não sou especialista em finanças e os exemplos que dei não serão os melhores, mas o propósito deste texto é mais geral: embora estejamos a ser muito rápidos a implementar AIA, não conseguimos prever o que eles irão fazer, ou que preconceitos irão carregar e eles não são responsabilizáveis pelos graves erros que cometem. São cada vez mais os exemplos das suas limitações e não podemos defender a sua utilização quando esta identificação pode levar a punições, como no caso de fraude putativa ou de policiamento preditivo. Aliás, a utilização do SyRi, foi condenada em Haia por atentar contra os Direitos Humanos.
Existe grande potencial para a IA na Administração Pública e um amplo espaço para colaboração com as instituições académicas. Que exista também informação e bom senso.