Uma guerra de vítimas colaterais. Como a IA orientou Israel nos bombardeamentos em Gaza

5 meses atrás 89

Nas vésperas do segundo aniversário da invasão da Ucrânia lançada por Moscovo a 24 de fevereiro de 2022, a Missão de Monitorização dos Direitos Humanos da ONU na Ucrânia (HRMMU) publicava um relatório com os números do que chamava de “custo humano” da guerra: 30.457 vítimas civis, 10.582 mortos e 19.875 feridos. Entre as vítimas civis do conflito contava 587 crianças mortas e 1.298 feridas.

Números divulgados em meados de março por Philippe Lazzarini, chefe da UNRWA (agência das Nações Unidas que presta assistência aos refugiados palestinianos), apontavam para 12.300 crianças mortas na Faixa de Gaza em apenas cinco meses. Foram mais as crianças mortas no cerco de Israel do que em todas as guerras que por todo o mundo nos últimos quatro anos.

O documento da HRMMU aponta ainda que o número de vítimas civis na Ucrânia “foi particularmente elevado durante os primeiros meses após o ataque armado em grande escala, com milhares de civis mortos e feridos por mês”, tendo os números diminuído em 2022 e 2023, numa média de 163 civis mortos e 547 feridos por mês em 2023. Números que são muitas vezes atingidos em apenas uma noite de bombardeamentos no território palestiniano sitiado pelas forças israelitas.

Perante estes números fica a pergunta: descontrolo ou intencionalidade das IDF (Israel Defense Force – Forças de Defesa de Israel na sigla original)? A resposta pode estar em parte no sistema Lavender, tecnologia de IA (Inteligência Artificial) usada pelos israelitas para planear os ataques contra os membros do Hamas. Em termos genéricos, o sistema faz uma análise da situação e calcula a viabilidade dos ataques com vista à eliminação de militantes tendo em conta premissas do que será o número considerado aceitável de baixas civis. Essa equação flutuante segundo determinações superiores acende, ou não, a luz verde de ataque com um número pré-estimado de vítimas colaterais.

A investigação a que o Guardian teve acesso é do jornalista árabe-israelita Yuval Abraham – para a revista +972 e a Local Call, site de notícias independente estabelecido em Telavive –, que recolheu os testemunhos de seis oficiais israelitas dos serviços de informações militares envolvidos na identificação de alvos do Hamas e da Jihad Islâmica nesta ofensiva contra a Faixa de Gaza através de tecnologia de Inteligência Artificial (IA).

De acordo com estes oficiais, os meios da IA, mormente o sistema Lavender, desempenharam um papel crucial no decorrer da ofensiva das IDF ao mostrar grande capacidade para rapidamente detectar potenciais militantes no território, tornando-os alvos a abater. O Lavender teria uma base de 37.000 alvos potenciais de palestinianos com ligações ao Hamas ou à Jihad Islâmica.

Não estamos aqui perante um modus operandi completamente novo, uma vez que já em 2021 as forças de Israel admitiam o uso da IA como ferramenta de guerra. Diziam na altura que a guerra de 11 dias nesse ano na Faixa de Gaza seria a primeira “guerra da IA” no mundo. Em causa estava já então o tempo de decisão e o número menor de pessoas para desempenhar as tarefas de batalha à distância: “O que levava horas leva agora minutos, com mais alguns minutos para a análise humana”, explicava um oficial que chefiava a unidade de transformação digital do Tsahal.

O sistema, sublinharam vários oficiais, então a três anos do actual conflito na Faixa de Gaza, estava desenhado para uma guerra total.
Na frieza do algoritmo acreditamos

De acordo com os oficiais entrevistados por Yuval Abraham, terá havido durante as primeiras semanas – mesmo nos primeiros meses – do assalto à Faixa de Gaza uma espécie de luz verde para matar, o que resultou em números muito elevados de baixas civis.

Mas com o recurso à análise de um algoritmo, as forças israelitas poderão estar a pisar premissas morais e legais que emanam dos organismos internacionais para a regulação (possível) dos conflitos armados. Tratou-se de alguma forma da passagem da responsabilidade do homem para a máquina, que, como refere uma das fontes de Yuval Abraham, “tornava tudo mais fácil”.

“Isto é incomparável, nunca visto”, disse um dos oficiais que usaram o Lavender, para explicar que as equipas tinham mais fé num “mecanismo estatístico” do que num soldado que perdeu alguém no ataque do Hamas: “Todos ali, e eu também, perdemos pessoas no dia 7 de outubro. A máquina decidia de forma fria. E isso facilitou”.

Outra fonte que também usou o programa de IA perguntou-se mesmo se o desempenho dos humanos no processo de seleção de alvos do Hamas era significativo para concluir que ele próprio “investia 20 segundos em cada alvo nessa fase, e fazia dezenas desses procedimentos todos os dias. Eu tinha um valor nulo para acrescentar como humano para lá de ser a chancela de aprovação. Isso poupou muito tempo”.

Na frieza do algoritmo acreditamos podia ser por esta altura a divisa do IDF. O Lavender assumia, de acordo com os testemunhos, maior capacidade de decisão do que os comandantes encarregados das operações. E as bombas estúpidas, munições não-guiadas usadas para destruir o alvo e tudo em volta, faziam o resto, terraplanando habitações completas e matando todos os seus ocupantes.

Um dos oficiais ouvidos por Yuval Abraham explicou ainda que tratando-se da suspeita com um potencial militante de base, do Hamas ou da Jihad, a preferência era atacar quando se acreditava que estavam em casa: “Não estávamos interessados em matar militantes apenas quando estavam em instalações militares ou envolvidos numa atividade militar. É muito mais fácil bombardear a casa de uma família. O sistema é construído para os procurar nessas circunstâncias”.
Decisão. Primeiro a máquina, depois o homem
A decisão inicial seria, assim, deixada nas mãos da máquina, o Lavender, um sistema desenvolvido pela Unidade 8200, divisão de inteligência de elite das IDF, equivalente à Agência de Segurança Nacional nos Estados Unidos. A luz verde para o lançamento do ataque ficaria depois dependente de critérios pré-estabelecidos do número aceitável de vítimas colaterais, que, como mostram os números, têm sido de banda larga.

Esse número aceitável de vítimas civis terá sofrido variações nestes seis meses de guerra. De acordo com duas fontes da investigação, nas primeiras semanas do conflito era permitido matar 15 a 20 civis nos ataques a militantes de base do Hamas ou da Jihad Islâmica. Ataques em que terão sido usadas as referidas “bombas estúpidas”. A prioridade era, nessa altura, em acelerar o processo de bombardeamento, ou seja, pôr a máquina a produzir números massivos de alvos.

E o Lavender correspondeu absolutamente a essa nova prioridade, ultrapassando, segundo o Guardian, os procedimentos anteriores a esta guerra que passavam por um processo burocrático que envolvia discussões antes de uma decisão ser lavrada por um consultor jurídico.

Após 7 de outubro, muitas vezes guiados pelo desejo de vingança – como relatou uma das fontes da investigação –, o modelo de aprovação de ataques a alvos humanos foi dramaticamente acelerado, com os comandantes a exigir um fluxo contínuo de potenciais perfis do Hamas e Jhiad.

“Estávamos constantemente a ser pressionados: ‘Tragam-nos mais alvos’. Eles chegavam a gritar connosco”, avançou um dos oficiais. "Disseram-nos: temos de f**er o Hamas, custe o que custar. Tudo o que puderes, bombardeia”.

Terá sido neste novo contexto que as forças no terreno passaram a depender cada vez mais do sistema Lavender para gerar alvos potencialmente ligados ao Hamas e, acreditando que o algoritmo atingia uma precisão de 90 por cento nesta análise dos perfis suspeitos, o exército acabou por recomendar o seu uso no campo de batalha.

Esta opção teria também, de acordo com uma das fontes ouvidas pela investigação, relaxado os militares israelitas no sentido de se libertarem de qualquer sentimento de culpa com uma má decisão ao colocar eventuais erros de avaliação na fatura da máquina, o que pode ser igualmente uma justificação para uma guerra de ataques aparentemente descontrolados – no sentido em que não se dirigiam a alvos precisos e de forma precisa – e com um tão grande número de vítimas civis.

Tratando-se de identificar alvos de baixa patente, explicou, “quando se trata de um militante júnior, não vamos investir mão-de-obra nem gastar o nosso tempo. [Em plena guerra, não temos tempo para] incriminar cuidadosamente todos os alvos. Então estamos dispostos a usar a margem de erro com a IA, arriscando danos colaterais e morte de civis, arriscando atacar por engano, e viver com isso”.

Ler artigo completo