Investigadores receiam impacto de regras de privacidade na inteligência artificial
O Regulamento Geral para a Protecção de Dados tem suscitado críticas por parte de académicos e cientistas, que dizem que pode desencorajar a inovação.
A União Europeia quer reforçar a aposta na inteligência artificial, mas investigadores da área têm estado a alertar que as novas regras de privacidade podem atrasar a inovação e favorecer gigantes tecnológicos americanos.
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
A União Europeia quer reforçar a aposta na inteligência artificial, mas investigadores da área têm estado a alertar que as novas regras de privacidade podem atrasar a inovação e favorecer gigantes tecnológicos americanos.
Os piores cenários possíveis discutem-se nas redes sociais e fóruns especializados e incluem o “fim das redes neuronais” (uma tecnologia de inteligência artificial inspirada no cérebro) e de descobertas acidentais (como foi, por exemplo, a penicilina). Os principais argumentos são que as leis criadas para dar aos cidadãos um maior controlo dos seus dados vão complicar a recolha de informação por empresas de inteligência artificial, dificultar o tratamento da informação, impedir pequenas empresas de entrar na área, e diminuir a confiança em algoritmos autónomos.
A partir desta sexta-feira, com o novo Regulamento Geral para a Protecção de Dados (RGPD), passa a ser possível alguém pedir a uma empresa para revelar todos os dados que tem sobre si, apagar esses dados, e rever algumas decisões feitas por programas informáticos. A missão é proteger os dados pessoais dos cidadãos da União Europeia.
É mau sinal para o progresso científico e tecnológico, argumenta Pedro Domingos, professor na Universidade de Washington e autor do livro A Revolução do Algoritmo Mestre, que tem criticado abertamente vários pontos do RGPD. "Há vários problemas”, diz ao PÚBLICO. Um deles é que, de acordo com as regras, os dados pessoais só podem ser utilizados para “as finalidades para as quais tenham sido inicialmente recolhidos.” Ao exigir isto, argumenta o académico, "torna-se impossível ter descobertas novas em dados antigos, e muitas das melhores descobertas acontecem precisamente dessa forma”.
O regulamento inclui excepções para “arquivos de interesse público, e fins de investigação científica ou histórica”, mas, para Domingos, não são o suficiente: “Dificulta desnecessariamente muitos dos usos dos dados que são feitos por empresas, que beneficiam os utilizadores, e que não afectam a sua privacidade.”
A advogada portuguesa Margarida Almeida Santos, sócia da Dinis Lucas & Almeida Santos, confirma que há motivos para o receio das empresas não poderem utilizar dados antigos para novas descobertas. “Esse tratamento só é lícito se for consentido para essa finalidade concreta, sob pena de aplicação de onerosas coimas”, explica ao PÚBLICO. Em caso de não cumprimento do RGPD, as coimas podem chegar até aos 20 milhões de euros, ou 4% do volume de negócios da empresa, consoante o que for mais elevado.
Almeida Santos diz que uma das alternativas para a utilização deste tipo de dados é provar que a sua utilização para novas descobertas é de interesse público. Nesse caso, o país da empresa regula a sua utilização para fins específicos, mesmo sem o consentimento do titular. “Creio que para desenvolvimento de certas áreas e para novas descobertas os dados recolhidos poderão ser anonimizados e, desta forma, poderão ser utilizados”, diz a advogada.
Excesso de ambiguidade
O regulamento, porém, não inclui uma resposta certa e as preocupações com a ambiguidade estendem-se além das fronteiras europeias. Em Maio, o Centro para a Inovação de Dados, uma organização não-governamental em Washington, nos EUA, publicou um relatório de 40 páginas sobre os problemas do RGPD.
“No regulamento não é claro, por exemplo, se a anonimização é permitida como uma alternativa para todos os casos”, diz ao PÚBLICO Daniel Castro, que dirige o centro.
Apesar de o RGPD não se dirigir ao país, qualquer empresa que processe, use, ou guarde dados associados a um cidadão da União Europeia também está sujeita às leis e às respectivas coimas. Para aquele centro, a ambiguidade é uma das grandes falhas. “As empresas têm motivação para escolher a interpretação mais rígida possível e evitar riscos financeiros”, diz Castro. “Mesmo que o objectivo da União Europeia não fosse criar regras rígidas, a ambiguidade do texto e as coimas elevadas criam esse efeito.”
Viktor Mayer-Schönberger, um especialista de Oxford que participou em debates sobre a redacção do RGPD no Parlamento Europeu, admite que a falta de clareza traz dificuldades. “Um problema possível é que as várias nações europeias vão ter diferentes regras, que vão dificultar os negócios além-fronteiras”, refere Mayer-Schönberger ao PÚBLICO. Isto é algo que também aconteceu com a antiga directiva europeia sobre protecção de dados pessoais, em vigor desde 1995, que o RGPD vai substituir. “A directiva original sobre a privacidade teve de ser implementada através das leis nacionais, e as diferenças não só causaram confusão em alguns negócios digitais no estrangeiro, como deram margem de manobra para empresas ‘estrelas’ dos EUA lidarem com as leis", lembra Mayer-Schönberger.
"O RGPD foi criado para harmonizar as leis europeias da privacidade, mas no final acabou-se por introduzir flexibilidade para os países", diz Mayer-Schönberger.
Explicação difícil
O artigo 22º é outro que preocupa os académicos. Com o RGPD, o “titular dos dados” não pode ser “sujeito a uma decisão tomada exclusivamente com base no tratamento automatizado [de dados]” e devem ser partilhadas “informações úteis” sobre a lógica da decisão. É um problema no caso das redes neuronais, um dos mecanismos mais utilizados em aprendizagem automática e que usa modelos matemáticos inspirados nos neurónios. Estas redes fazem diferentes cálculos que se interrelacionam e explicar detalhadamente as conclusões a que chegam é por vezes impossível.
“O ‘direito à explicação’ do RGPD força-nos a utilizar os algoritmos que, em muitos casos, não são os melhores”, critica Pedro Domingos. “Prefiro ser diagnosticado [a nível médico] por um algoritmo que acerta 90% das vezes e não produz explicações, do que por um que acerta 80% das vezes e as produz.”
A advogada Margarida Almeida Santos ressalva, no entanto, que não é obrigatório justificar todas as decisões de algoritmos, mas levar as empresas a revelar “informações relevantes sobre a lógica envolvida”, se os resultados afectarem alguém em termos jurídicos.
Já Mayer-Schönberger sublinha que, apesar das preocupações, o RGPD também facilita a inovação. Pelo menos, junto das grandes empresas. "Torna mais fácil utilizar os dados, que passam a ser todos recolhidos legalmente, para fins estatísticos. Isto promove a inovação com dados", diz Mayer-Schönberger. “Dito isso, a maioria das vantagens vão para as grandes empresas (Google, Facebook, Amazon) que já têm facilidade em recolher grandes quantidades de dados.” Onde o RGPD falha, diz, é em “ajudar as pequenas empresas de dados na União Europeia” a inovar.
Pedro Domingos concorda com este ponto: “É desproporcionalmente oneroso para as empresas pequenas. Torna mais difícil essas empresas surgirem, sobreviverem e crescerem até se tornarem concorrentes do Google e Facebook, coisa de que a Europa bem precisa.”