O dilema de quantas pessoas atropelar em caso de acidente
Estudo indica que a maioria das pessoas quer carros autónomos que poupem o máximo de vidas em caso de acidente – mas preferiam comprar um modelo que proteja antes os passageiros.
A indústria automóvel e empresas como o Google estão a chegar rapidamente às soluções tecnológicas necessárias para que os carros possam conduzir sozinhos. Mas há uma questão difícil de solucionar e que tem mais a ver com ética do que com tecnologia: como devem os carros agir em caso de acidente iminente e quando tiverem de escolher que vidas (e quantas vidas) vão tentar salvar?
A verdade faz-nos mais fortes
Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.
A indústria automóvel e empresas como o Google estão a chegar rapidamente às soluções tecnológicas necessárias para que os carros possam conduzir sozinhos. Mas há uma questão difícil de solucionar e que tem mais a ver com ética do que com tecnologia: como devem os carros agir em caso de acidente iminente e quando tiverem de escolher que vidas (e quantas vidas) vão tentar salvar?
Um artigo científico publicado nesta quinta-feira na revista Science, com o título O Dilema social dos veículos autónomos, indica que a maioria das pessoas vê com bons olhos carros que optem por salvar o maior número de vidas possível. Esta convicção mantém-se mesmo quando é pedido aos participantes na investigação para imaginar que estão eles próprios, ou familiares, dentro do carro. No entanto - e mostrando que os fabricantes e os reguladores têm um quebra-cabeças para resolver se quiserem massificar a tecnologia - a generalidade das pessoas entra em contradição no momento de uma hipotética compra de um carro autónomo. Nestes casos, a escolha tende a recair sobre modelos programados para proteger os passageiros, mesmo que o preço a pagar seja o de sacrificar mais vidas num acidente.
As conclusões são o resultado de uma investigação conduzida através de seis inquéritos online diferentes, elaborados por uma equipa de três investigadores. Jean-François Bonnefon, da Tolouse School of Economics, em França, Azim Shariff, da Universidade do Oregon, nos Estados Unidos, e Iyad Rahwan, do também americano MIT, colocaram os inquiridos perante várias situações de acidente. Em algumas, um automóvel autónomo poderia optar por sacrificar passageiros para salvar peões. Noutros casos, tinha de optar entre atropelar um número diferente de peões. E os passageiros dentro do carro variavam: colegas de trabalho, familiares, filhos. Os questionários também tentaram perceber as preferências das pessoas no que diz respeito às decisões que os fabricantes e as autoridades reguladoras terão de tomar quando estes carros chegarem ao mercado (o inquérito foi feito apenas a utilizadores nos EUA, recrutados através de uma ferramenta da Amazon, e os autores do estudo reconhecem que a amostra não é sequer representativa da população daquele país).
No primeiro dos seis inquéritos que compõem a investigação, cerca de três em cada quatro dos 186 participantes consideraram que seria moral para um automóvel autónomo matar o passageiro se com isso conseguisse salvar dez peões. Uma pergunta mais elaborada mostra a mesma inclinação por esta lógica utilitarista de poupar o máximo número de vidas. Os investigadores pediram aos participantes que definissem qual seria a melhor forma de programar um veículo autónomo, usando para isso uma escala de zero a 100. O zero correspondia a proteger os passageiros a todo o custo, ao passo que 100 significava minimizar o número de mortes. O ponto da escala mais escolhido foi o 85.
É num dos outros inquéritos (ao qual responderam 259 pessoas) que surge a contradição. Os participantes tinham de indicar qual a probabilidade de comprarem um automóvel autónomo programado para minimizar o número de vítimas (o que significaria matá-los a eles e aos seus familiares dentro do carro) e qual a probabilidade de comprarem um automóvel que, pelo contrário, tentaria manter os passageiros vivos, mesmo que isso implicasse matar dez ou 20 peões. A probabilidade de compra aumenta quando se trata do carro que protege quem lá está dentro.
“Parece que as pessoas gostam de veículos autónomos utilitaristas, que se sacrificam a eles próprios, e que os querem na estrada, sem querer de facto comprar um para elas”, sintetizam os autores do estudo. “É a marca clássica de um dilema social, em que toda a gente tem a tentação de se aproveitar [do sistema] em vez de adoptar o comportamento que teria o melhor resultado global”.
A questão de como programar um veículo autónomo (bem como outros robôs que tenham de interagir com pessoas e partilhar um espaço com humanos) é uma questão que tem vindo a preocupar os académicos e que ganhou fôlego à medida que cada vez mais marcas de automóveis incorporam funcionalidades de condução assistida, abrindo assim o caminho para carros inteiramente autónomos. Um humano que esteja ao volante toma decisões no momento em que os acidentes estão a acontecer. No caso dos carros autónomos, a decisão sobre o que fazer num acidente é tomada muito antes, por programadores informáticos, que estabelecem regras gerais.
Não se sabe se as regras que serão inscritas nos algoritmos dos carros serão inteiramente definidas pelos fabricantes ou se as autoridades vão legislar sobre o assunto. E é aqui que surge o problema. Binnefon, Shariff e Rahwan observam que “a regulação para veículos autónomos pode ser necessária, mas também contraprodutiva”. Se a opção sobre o comportamento dos carros for deixada aos fabricantes, a maior parte das pessoas vai optar pelos carros que protegem os passageiros, o que significará mais vítimas. Por outro lado, se houver regulação para obrigar os carros a poupar o maior número de pessoas, isso afastará potenciais compradores, que não se sentem seguros num carro que esteja disposto a sacrificá-los. E este afastamento significaria um menor ritmo de adopção de uma tecnologia que, dizem os autores citando outros estudos, permite uma maior segurança nas estradas.
Os investigadores reconhecem que, na vida real, as situações nem sempre são tão preto no branco como as que foram colocadas aos participantes do estudo. Um algoritmo para um carro deverá, por exemplo, ter em conta se este vai bater numa mota (cujo condutor tem uma probabilidade de sobrevivência mais baixa) ou noutro carro. Para além disto, alertam, o sentimento da opinião pública sobre um tema que é recente pode vir a transformar-se: “Por ora, parece não haver uma forma fácil de desenhar algoritmos que conciliem valores morais e o auto-interesse pessoal – quanto mais algoritmos que tenham em conta diferentes culturas e diferentes atitudes morais em relação à perda de vidas – mas a opinião pública e a pressão social podem bem vir a mudar à medida que este debate avança”.