Inteligência artificial utilizada por Israel marcou 37 mil palestinianos como possíveis combatentes

Nas primeiras semanas da guerra, Exército concluiu que o ataque contra qualquer agente do Hamas identificado pelo Lavender poderia resultar na morte de “15 ou 20 civis”.

Foto
Soldado israelita faz patrulha junto à fronteira com a Faixa de Gaza Reuters/Hannah McKay
Ouça este artigo
00:00
03:06

Nos primeiros dias da guerra na Faixa de Gaza, o Exército israelita dependeu quase inteiramente de um sistema de Inteligência Artificial (IA) que "marcou" 37 mil palestinianos como suspeitos de pertencerem ao Hamas, aponta uma investigação de um jornal israelita.

O trabalho divulgado esta quarta-feira pelo jornal israelita Sicha Mekomit (chamado +972 na sua versão inglesa) e baseado em fontes dos serviços secretos, refere que os soldados adoptaram inquestionavelmente as “listas de morte” recomendadas por um sistema de IA, que até agora não tinha sido utilizado, o Lavender.

Depois de os nomes surgirem, “pessoal humano” gastou cerca de “20 segundos” em cada alvo antes de autorizar um bombardeamento, simplesmente para garantir que o alegado combatente era um homem, detalha a investigação.

O jornal destaca, no entanto, que o Lavender não é tão sofisticado e apresenta uma margem de erro em cerca de 10% dos casos, podendo por isso ocasionalmente incriminar “indivíduos que têm apenas uma ligação ténue com grupos militantes, ou nenhuma ligação”.

Além disso, segundo a reportagem, o Exército atacou essas pessoas, muitos possíveis combatentes de baixa patente, sistematicamente nas suas casas e "normalmente à noite, enquanto toda a sua família estava presente", considerando-os um alvo mais fácil, aumentando a número de mortes de civis.

“Não estávamos interessados em matar agentes [do Hamas] apenas quando estes estavam num edifício militar ou a participar numa operação militar”, contou um oficial de inteligência ao +972.

“Pelo contrário, as Forças de Defesa de Israel bombardearam [os alegados combatentes] nas suas casas, sem hesitação, como primeira opção”, acrescentou, alegando que “o sistema está desenhado para procurá-los nestas situações”.

"Morte de 15 ou 20 civis"

Nas primeiras semanas da guerra, segundo duas fontes anónimas citadas pela investigação, o Exército concluiu que o ataque contra qualquer agente do Hamas identificado pelo Lavender poderia resultar na morte de "15 ou 20 civis", uma proporção de baixas não-combatentes sem precedentes.

Além disso, o Exército preferiu utilizar mísseis não guiados contra estes militantes de menor escalão, vulgarmente conhecidos como "bombas mudas" e documentados em Gaza no final de Dezembro pela estação CNN, capazes de destruir edifícios inteiros e causar outras vítimas.

“Não é aconselhável desperdiçar bombas caras com pessoas sem importância. É muito caro para o país e há escassez [dessas bombas]”, explicou um oficial de inteligência a esta reportagem, sob condição de anonimato.

De acordo com esta investigação, o uso deste e de outros sistemas de IA como o “Gospel”, baseado em algoritmos, estará relacionado ao elevado número de mortes de civis na Faixa de Gaza, já que segundo números israelitas não verificados, 13 mil mortes teriam alguma relação com grupos islamitas entre mais de 32.900 mortos reportados pelas autoridades do enclave, sem contar os milhares de corpos que permanecem sob toneladas de escombros.

Dados divulgados na terça-feira pelo Banco Mundial apontaram que 84% das instalações médicas no enclave palestiniano também foram danificadas ou destruídas, o sistema de água e saneamento está quase em colapso, com 5% da sua produção, e as estradas e infra-estruturas foram devastadas pelas forças israelitas.