Calvin D. Lawrence: “A inteligência artificial tende a falhar porque há preconceitos na nossa cultura”
A inteligência artificial pode ter efeitos perniciosos, com viés racista, por exemplo. Calvin D. Lawrence pede maior consciencialização das empresas e a aprovação de regulação para a tecnologia.
Ao conduzir até casa, depois de jantar, uma luz no painel do carro acende-se: a pressão do pneu cai abruptamente, é um furo. Calvin D. Lawrence encosta e não tem pneu suplente. Telefona para a assistência em viagem e a ajuda chega ao cabo de 90 minutos. “Não sabia que o meu carro estava estacionado num ‘ponto preditivo’, que é uma área determinada por um algoritmo, e usada pela polícia de Atlanta [nos Estados Unidos], onde é mais provável ocorrer um crime”, conta o engenheiro da IBM, uma das maiores empresas de tecnologia do mundo, no livro Hidden in White Sight: How AI Empowers and Deepens Systemic Racism (Escondido no Olhar Branco: Como a Inteligência Artificial Reforça e Acentua o Racismo Sistémico, numa tradução livre). O polícia parou, pediu os documentos e questionou o motivo de Calvin D. Lawrence estar ali. “O polícia disse que estar naquela zona já era motivo para suspeitas.”
O contributo do PÚBLICO para a vida democrática e cívica do país reside na força da relação que estabelece com os seus leitores.Para continuar a ler este artigo assine o PÚBLICO.Ligue - nos através do 808 200 095 ou envie-nos um email para assinaturas.online@publico.pt.