X começa a usar dados dos utilizadores para treinar IA. Quais os riscos?

Rede detida por Elon Musk segue exemplo das concorrentes e usa imagens, vídeos e vozes dos utilizadores. Especialista alerta para riscos e UE quer código de conduta com transparência total.

Foto
Conteúdos partilhados nas redes sociais usados para treinar inteligência artificial CARLOS BARRIA/Reuters
Ouça este artigo
00:00
04:35

Exclusivo Gostaria de Ouvir? Assine já

O X (antigo Twitter) juntou-se à lista de redes sociais que utilizam os dados dos utilizadores para treinar ferramentas de inteligência artificial (IA). Muito recentemente, os utilizadores foram “convidados” a aceitar uma alteração à política de utilização da plataforma. Entre as novas permissões, a rede social pedia autorização para analisar o conteúdo da rede para treinar modelos de IA.

No caso da plataforma gerida pelo multimilionário Elon Musk, as informações recolhidas junto dos utilizadores vão servir para treinar o Grok, o chatbot de IA desta rede. De acordo com a CNN, este instrumento já recebeu várias críticas no passado, após casos de difusão de notícias falsas sobre as eleições norte-americanas entre Kamala Harris e Trump e ainda devido à criação de imagens violentas e gráficas contra figuras políticas.

No Brasil, a Autoridade Nacional de Protecção de Dados já informou que convocará responsáveis do X para prestarem esclarecimentos detalhados quanto às alterações às políticas de utilização acima mencionadas, de modo a perceber quais os riscos destas novas políticas para a protecção de dados dos utilizadores. A plataforma gerida por Elon Musk junta-se assim à Meta (dona do Facebook, Instagram e WhatsApp), à Google e à Microsoft, empresas que também rastreiam os dados dos utilizadores.

“[A decisão do X] não me surpreende nada. Se olhar para o índice de transparência de Stanford, verá que quase todos esses gigantes estão muito aquém no uso responsável de tecnologia. O X é mais um a entrar na corrida da IA, para ver quem tem o modelo maior e melhor”, começa por dizer ao PÚBLICO a especialista Helena Moniz, responsável no comité de ética pelo uso responsável de IA.

O “ADN ideológico”

Em que se traduz exactamente esta recolha de dados? Resumidamente, as empresas podem recorrer às fotografias, textos, legendas e restantes conteúdos partilhados pelos utilizadores para treinarem as respectivas ferramentas de IA. A Google tem o Gemini, a Meta o Llama 3 e a Apple lançou recentemente o pacote Apple Intelligence, que integra o ChatGPT no assistente Siri.

“Sabe-se pouco sobre o estado da literacia em Portugal relativamente à IA. As pessoas geralmente lêem e dizem que sim, sem saberem realmente a implicação de estar a ser usado tudo o que é dito nas redes sociais. As pessoas exprimem muito do que são, da sua personalidade, sentimentos e visões políticas nas redes sociais”, alerta Helena Moniz.

Apesar de reconhecer os benefícios que a IA pode apresentar em várias áreas, a docente conhece em primeira mão alguns dos riscos na transposição destes sistemas para as redes sociais.

“Trabalho no Instituto de Engenharia de Sistemas e Computadores e temos alunos de doutoramento que trabalham com dados de modelos de linguagem de grande dimensão. É possível extrair dados de fala, texto ou imagem e perceber traços de personalidade, orientações sexuais e crenças destas pessoas. Podemos muito facilmente traçar o perfil de qualquer pessoa. Digamos que o nosso ‘ADN ideológico’ está codificado nestes dados”, detalha.

Este não é um fenómeno recente. Já em 2018, foi notícia em todo o mundo que o Spotify conseguia entender com um grau de precisão elevado o estado sentimental dos utilizadores. Os dados sobre as músicas ouvidas permitiam à aplicação perceber se o utilizador estava num período de tristeza, felicidade ou qualquer outra emoção. Estas informações eram especialmente valiosas para as empresas de marketing, que conseguiam ajustar os anúncios consoante o estado de espírito dos potenciais clientes.

União Europeia atenta aos perigos

A Comissão Europeia nomeou recentemente uma equipa com 13 membros para que seja desenhada um código de conduta para os modelos de IA. As entidades europeias mostram-se preocupadas com a opacidade demonstrada pelos gigantes tecnológicos quanto aos dados usados para treinar estas ferramentas.

"Há várias áreas centrais: a transparência, os riscos e as questões de direitos de autor dos dados. É tudo ainda muito sigiloso, arrancou ainda há muito tempo, mas a ideia é que se construa um código de boas práticas e que as pessoas saibam disso", explica Helena Moniz.

Em Agosto, entrou em vigor a nova lei da IA​. Uma das directivas deste diploma da União Europeia obriga a que as empresas sejam totalmente transparentes quanto aos dados dos utilizadores usados. Quem não respeitar esta obrigação arrisca coimas que podem chegar aos 35 milhões de euros ou que totalizem 7% das receitas anuais.

Em Junho, a Apple decidiu adiar o lançamento nos mercados europeus de um pacote que contém funcionalidades de IA nos mercados europeias. Na altura, a empresa alegou que este adiamento se devia à incerteza relativa à nova regulamentação da União Europeia, nomeadamente a aplicação da nova Lei dos Mercados Digitais.

Sugerir correcção
Ler 3 comentários