Ir para o conteúdo

Luiz Muller Blog

Voltar a Blog
Tela cheia Sugerir um artigo

Exterminador do Presente! Como Israel usa Inteligência Artificial para escolher alvos em Gaza e exterminar milhares de palestinos

5 de Abril de 2024, 16:19 , por Luíz Müller Blog - | No one following this article yet.
Visualizado 43 vezes

O filme “Exterminador do Futuro” de 1984 anteviu o que já esta acontecendo agora. O extermínio de parcelas da Humanidade com o exclusivo uso da inteligência artificial.

“Para cada agente de baixo escalão do Hamas que Lavender visava, ele tinha permissão para matar entre 15 e 20 civis. Se o alvo fosse um oficial sênior do Hamas, o exército, em várias ocasiões, autorizava a morte de mais de 100 civis no assassinato de um único comandante”. (Frase de um dos 6 Oficiais da Inteligência de Israel dita ao jornalista israelense Yuval Abraham para uma reportagem cujo conteúdo publico neste post:

Com base em relatos de fontes internas das FDI e de seis oficiais da inteligência israelense, todos eles servindo no exército durante o Genocídio:

O exército israelense desenvolveu um programa de inteligência artificial conhecido como Lavender para gerar LISTAS DE ASSASSINATOS, sem qualquer verificação humana para checar os alvos selecionados pela máquina: apenas uma verificação de “carimbo de borracha” de cerca de “20 segundos” para garantir que o alvo da IA seja de sexo masculino.

Essas fontes de inteligência afirmam que o exército israelense permitiu que um grande número de civis palestinos fosse morto.

A proporção revelada no relatório afirma: “Para cada agente de baixo escalão do Hamas que Lavender visava, ele tinha permissão para matar entre 15 e 20 civis. Se o alvo fosse um oficial sênior do Hamas, o exército, em várias ocasiões, autorizava a morte de mais de 100 civis no assassinato de um único comandante”.

Uma proporção de 20 civis mortos por um único alvo equivale a aproximadamente 95% de mortes de civis.

Sua influência nas operações do exército era tanta que eles basicamente tratavam os resultados da máquina de IA “como se fosse uma decisão humana”.

Os militares deram aprovação geral para que os oficiais adotassem as listas de mortes do Lavender, sem qualquer exigência de verificar minuciosamente por que a máquina estava tomando essas decisões ou de examinar os dados brutos de inteligência nos quais elas se baseavam.

Em um determinado momento, o Lavender identificou 37.000 alvos potenciais.

Os militares israelenses “atacavam sistematicamente indivíduos selecionados enquanto eles estavam em casa, geralmente à noite, com toda a família presente e não durante o curso das atividades militares”.

Israel também desenvolveu outro sistema automatizado chamado “Where’s Dad?” (Onde está o papai?), usado “especificamente para localizar indivíduos selecionados e realizar ataques quando eles entravam nas casas de suas famílias”.

Um dos oficiais de inteligência é citado como tendo dito: “Não estávamos interessados em matar agentes do Hamas somente quando eles estivessem em um prédio militar ou envolvidos em atividades militares. Pelo contrário, as FDI os bombardearia em suas casas sem hesitação como primeira opção. É muito mais fácil bombardear uma casa de família. O sistema foi projetado para procurá-los nessas situações.

Esse extermínio industrializado não tem precedentes.

O testemunho dos seis oficiais de inteligência, todos eles envolvidos no uso de sistemas de IA, foi dado ao jornalista israelense Yuval Abraham para uma reportagem publicada pela revista +972.


Por Yuval Abraham.

Em 2021, um livro intitulado “A equipe homem-máquina: como criar sinergia entre inteligência humana e artificial que revolucionará nosso mundo” foi lançado em inglês sob o pseudônimo de “Brigadeiro General Y.S.” Nele, o autor – um homem que confirmamos ser o atual comandante da unidade de elite de inteligência israelense 8200 – defende o projeto de uma máquina especial que possa processar rapidamente grandes quantidades de dados para gerar milhares de “alvos” potenciais para militares. ataca no calor de uma guerra. Essa tecnologia, escreve ele, resolveria o que descreveu como um “gargalo humano tanto para a localização dos novos alvos como para a tomada de decisões para aprová-los”.

Acontece que essa máquina realmente existe. Uma nova investigação da +972 Magazine e Local Call revela que o exército israelense desenvolveu um programa baseado em inteligência artificial conhecido como “Lavender”, revelado aqui pela primeira vez. De acordo com seis oficiais da inteligência israelense, todos serviram no exército durante a actual guerra na Faixa de Gaza e teve envolvimento em primeira mão com a utilização de IA para gerar alvos para assassinato, Lavender desempenhou um papel central no bombardeamento sem precedentes dos palestinianos, especialmente durante as fases iniciais da guerra. Na verdade, de acordo com as fontes, a sua influência nas operações militares foi tal que eles trataram essencialmente os resultados da máquina de IA “como se fosse uma decisão humana”.

Formalmente, o sistema Lavender foi concebido para marcar todos os suspeitos de operar nas alas militares do Hamas e da Jihad Islâmica Palestiniana (PIJ), incluindo os de baixa patente, como potenciais alvos de bombardeamento. As fontes disseram ao +972 e à Local Call que, durante as primeiras semanas da guerra, o exército confiou quase completamente na Lavender, que registrou cerca de 37.000 palestinos como supostos militantes – e suas casas – para possíveis ataques aéreos.

Durante os primeiros estágios da guerra, o exército deu amplas aprovação para que os oficiais adotassem as listas de mortes de Lavender, sem a necessidade de verificar minuciosamente por que a máquina fez essas escolhas ou de examinar os dados brutos de inteligência nos quais elas se baseavam. Uma fonte afirmou que o pessoal humano muitas vezes servia apenas como um “carimbo de borracha” para as decisões da máquina, acrescentando que, normalmente, eles dedicariam pessoalmente apenas cerca de “20 segundos” a cada alvo antes de autorizar um bombardeio – apenas para garantir que o Lavender- alvo marcado é masculino. Isto apesar de saber que o sistema comete o que é considerado “erro” em aproximadamente 10 por cento dos casos, e é conhecido por marcar ocasionalmente indivíduos que têm apenas uma ligação frouxa com grupos militantes, ou nenhuma ligação.

Além disso, o exército israelense atacou sistematicamente os indivíduos visados enquanto estes estavam nas suas casas – geralmente à noite, enquanto todas as suas famílias estavam presentes – e não durante o decurso da actividade militar. Segundo as fontes, isso aconteceu porque, pelo que eles considerado do ponto de vista da inteligência, era mais fácil localizar os indivíduos em suas casas particulares. Sistemas automatizados adicionais, incluindo um chamado “Onde está o papai?” também revelados aqui pela primeira vez, foram usados especificamente para rastrear os indivíduos visados e realizar atentados quando eles entravam nas residências de suas famílias.

O resultado, como testemunharam as fontes, é que milhares de palestinianos – a maioria deles mulheres e crianças ou pessoas que não estiveram envolvidas nos combates – foram exterminados por ataques aéreos israelense, especialmente durante as primeiras semanas da guerra, por causa da IA. decisões do programa.

“Não estávamos interessados em matar agentes [do Hamas] apenas quando eles estavam em um edifício militar ou envolvidos em atividades militares”, disse A., um funcionário da inteligência. oficial, disse +972 e chamada local. “Pelo contrário, as FDI bombardearam-nos em casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. O sistema foi construído para procurá-los nessas situações.”

A máquina Lavender junta-se a outro sistema de IA, “The Gospel”, sobre o qual a informação foi revelada numa investigação anterior por +972 e Local Call em novembro de 2023, bem como nas próprias publicações dos militares israelenses. Uma diferença fundamental entre os dois sistemas está na definição do alvo: enquanto O Evangelho marca edifícios e estruturas a partir dos quais o exército afirma que os militantes operam, Lavender marca as pessoas – e coloca-as numa lista de morte.

Além disso, de acordo com as fontes, quando se tratou de atacar alegados militantes juniores marcados por Lavender, o exército preferiu usar apenas mísseis não guiados, vulgarmente conhecidos como bombas “burras” (em contraste com bombas de precisão “inteligentes”), que podem destruir edifícios inteiros em cima de seus ocupantes e causam danos significativos vítimas. “Você não quer desperdiçar bombas caras com pessoas sem importância – é muito caro para o país e há uma escassez [dessas bombas]”, disse C., um dos oficiais de inteligência. Outra fonte disse que autorizaram pessoalmente o bombardeamento de “centenas” de casas privadas de alegados agentes juniores marcados por Lavender, sendo que muitos destes ataques mataram civis e famílias inteiras como “danos colaterais”.

Numa medida sem precedentes, segundo duas das fontes, o exército também decidiu durante as primeiras semanas da guerra que, por cada agente júnior do Hamas que Lavender marcasse, era permitido matar até 15 ou 20 civis; no passado, os militares não autorizavam quaisquer “danos colaterais” durante assassinatos de militantes de baixa patente. As fontes acrescentaram que, no caso de o alvo ser um alto funcionário do Hamas com a patente de comandante de batalhão ou de brigada, o exército autorizou em diversas ocasiões o assassinato de mais de 100 civis no assassinato de um único comandante.

A investigação que se segue está organizada de acordo com as seis fases cronológicas da produção altamente automatizada de alvos do exército israelense nas primeiras semanas da guerra de Gaza. Primeiro, explicamos a própria máquina Lavender, que marcou dezenas de milhares de palestinos usando IA. Em segundo lugar, revelamos o “Onde está o papai?” sistema, que rastreava esses alvos e sinalizava ao exército quando eles entravam nas casas de suas famílias. Terceiro, descrevemos como as bombas “burras” foram escolhidas para atingir estas casas.

Quarto, explicamos como o exército afrouxou o número permitido de civis que poderiam ser mortos durante o bombardeio de um alvo. Quinto, notamos como o software automatizado calculou de forma imprecisa a quantidade de não-combatentes em cada agregado familiar. E sexto, mostramos como em vários Em certas ocasiões, quando uma casa era atingida, geralmente à noite, o alvo individual às vezes não estava lá dentro, porque os militares não verificavam a informação em tempo real.

PASSO 1: GERANDO METAS

‘Depois que você se torna automático, a geração de alvos enlouquece’

No exército israelense, o termo “alvo humano” referia-se no passado a um agente militar superior que, de acordo com as regras do Departamento de Direito Internacional militar, pode ser morto na sua casa privada, mesmo que haja civis por perto. Fontes de inteligência disseram ao +972 e à Local Call que durante as guerras anteriores de Israel, uma vez que esta era uma forma “especialmente brutal” de matar alguém – muitas vezes matando uma família inteira ao lado do alvo – tais alvos humanos foram marcados com muito cuidado e apenas comandantes militares seniores foram bombardeados nas suas casas, para manter o princípio da proporcionalidade ao abrigo do direito internacional.

Mas depois de 7 de outubro – quando militantes liderados pelo Hamas lançaram um ataque mortal às comunidades do sul de Israel, matando cerca de 1.200 pessoas e o sequestro de 240 – o exército, disseram as fontes, adotou uma abordagem dramaticamente diferente. No âmbito da “Operação Espadas de Ferro”, o exército decidiu designar todos os agentes da ala militar do Hamas como alvos humanos, independentemente da sua posição ou importância militar. E isso mudou tudo.

A nova política também representou um problema técnico para a inteligência israelense. Em guerras anteriores, para autorizar o assassinato de um único alvo humano, um oficial tinha de passar por um processo complexo e demorado de “incriminação”: verificar provas de que a pessoa era de facto um membro sénior da ala militar do Hamas, encontrar saber onde ele morava, suas informações de contato e, finalmente, saber quando ele estava em casa em tempo real. Quando a lista de alvos contava apenas com algumas dezenas de agentes de alto escalão, o pessoal de inteligência poderia cuidar individualmente do trabalho envolvido em incriminá-los e localizá-los.

No entanto, quando a lista foi alargada para incluir dezenas de milhares de agentes de escalão inferior, o exército israelense percebeu que tinha de contar com software automatizado e inteligência artificial. O resultado, testemunham as fontes, foi que o papel do pessoal humano na incriminação dos palestinos como agentes militares foi deixado de lado, e a IA fez a maior parte do trabalho. De acordo com quatro das fontes que falaram com +972 e Local Call, Lavender – que foi desenvolvido para criar alvos humanos na guerra atual – marcou cerca de 37.000 palestinos como suspeitos de “militantes do Hamas”, a maioria deles juniores, para assassinato (o O porta-voz da FDI negou a existência de tal lista de mortes em uma declaração para +972 e Chamada Local).

“Não sabíamos quem eram os agentes juniores, porque Israel não os rastreava rotineiramente [antes da guerra]”, explicou o oficial superior B. ao +972 e Local Call, esclarecendo a razão por trás do desenvolvimento desta máquina-alvo específica para a guerra atual. “Eles queriam nos permitir atacar [os agentes juniores] automaticamente. Esse é o Santo Graal. Depois que você se torna automático, a geração de alvos enlouquece.”

As fontes disseram que a aprovação para adotar automaticamente as listas de mortes de Lavender, que anteriormente eram usadas apenas como ferramenta auxiliar, foi concedida cerca de duas semanas após o início da guerra, depois que o pessoal da inteligência verificou “manualmente” a precisão de uma amostra aleatória de várias centenas de alvos. selecionado pelo sistema de IA. Quando essa amostra concluiu que os resultados da Lavender atingiram 90 por cento de precisão na identificação da afiliação de um indivíduo ao Hamas, o exército autorizou a utilização abrangente do sistema. A partir desse momento, fontes disseram que se Lavender decidisse que um indivíduo era um militante do Hamas, eles seriam essencialmente solicitados a tratar isso como uma ordem, sem nenhuma exigência de verificar de forma independente por que a máquina fez essa escolha ou de examinar os dados brutos de inteligência em que se baseia.

“Às 5 da manhã, [a Força Aérea] vinha e bombardeava todas as casas que havíamos marcado”, disse B.. “Tirámos milhares de pessoas. Não analisamos um por um – colocamos tudo em sistemas automatizados e, assim que um dos [indivíduos marcados] chegou em casa, ele imediatamente se tornou um alvo. Nós bombardeamos ele e sua casa.”

“Foi muito surpreendente para mim que nos pediram para bombardear uma casa para matar um soldado terrestre, cuja importância nos combates era tão baixa”, disse uma fonte sobre o uso de IA para marcar alegados militantes de baixa patente. “Apelidei esses alvos de ‘alvos de lixo’. Mesmo assim, considerei-os mais éticos do que os alvos que bombardeamos apenas para ‘dissuasão’ – arranha-céus que são evacuados e derrubados apenas para causar destruição.”

Os resultados mortais deste afrouxamento das restrições na fase inicial da guerra foram surpreendentes. De acordo com dados do Ministério da Saúde Palestino em Gaza, sobre o qual o exército israelense tem contado quase exclusivamente desde o início da guerra, Israel matou cerca de 15 mil palestinos – quase metade do número de mortos até agora – nas primeiras seis semanas da guerra, até que um cessar-fogo de uma semana foi acordado em 24 de novembro.

‘Quanto mais informação e variedade, melhor’

O software Lavender analisa informações recolhidas sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza através de um sistema de vigilância em massa, depois avalia e classifica a probabilidade de cada pessoa em particular estar ativa na ala militar do Hamas ou na PIJ. Segundo fontes, a máquina dá a quase todas as pessoas em Gaza uma classificação de 1 a 100, expressando a probabilidade de serem militantes.

Lavender aprende a identificar características de agentes conhecidos do Hamas e da PIJ, cujas informações foram alimentadas na máquina como dados de treinamento e, em seguida, localizar essas mesmas características – também chamadas de “recursos” – entre a população em geral, explicaram as fontes. Um indivíduo que apresente diversas características incriminatórias diferentes alcançará uma classificação elevada e, portanto, automaticamente se tornará um alvo potencial para assassinato.

Em “The Human-Machine Team”, o livro mencionado no início deste artigo, o atual comandante da Unidade 8200 defende esse sistema sem referir Lavender pelo nome. (O próprio comandante também não é identificado, mas cinco fontes em 8200 confirmaram que o comandante é o autor, conforme relatado também pelo Haaretz.) Descrevendo o pessoal humano como um “gargalo” que limita a capacidade do exército durante uma operação militar, o comandante lamenta: “Nós [humanos] não conseguimos processar tanta informação. Não importa quantas pessoas você tenha encarregado de produzir alvos durante a guerra – você ainda não consegue produzir alvos suficientes por dia.”

A solução para esse problema, diz ele, é inteligência artificial. O livro oferece um breve guia para construir uma “máquina alvo”, semelhante em descrição ao Lavender, baseado em IA e algoritmos de aprendizado de máquina. Incluídos neste guia estão vários exemplos das “centenas e milhares” de recursos que podem aumentar a classificação de um indivíduo, como estar em um grupo de Whatsapp com um militante conhecido, trocar de celular a cada poucos meses e mudar de endereço com frequência.

“Quanto mais informação e mais variedade, melhor”, escreve o comandante. “Informações visuais, informações de celular, conexões de mídia social, informações do campo de batalha, contatos telefônicos, fotos.” Embora os humanos selecionem esses recursos inicialmente, continua o comandante, com o tempo a máquina identificará os recursos por conta própria. Isto, diz ele, pode permitir que os militares criem “dezenas de milhares de alvos”, enquanto a decisão real sobre atacá-los ou não continuará a ser uma decisão humana.

O livro não é a única vez que um alto comandante israelense insinuou a existência de máquinas-alvo humanas como Lavender. +972 e Local Call obtiveram imagens de uma palestra privada proferida pelo comandante do centro secreto de Ciência de Dados e IA da Unidade 8200, “Coronel. Yoav”, na semana de IA da Universidade de Tel Aviv em 2023, que foi noticiada na época pela mídia israelense.

Na palestra, o comandante fala sobre uma nova e sofisticada máquina de alvos usada pelo exército israelense que detecta “pessoas perigosas” com base na sua semelhança com listas existentes de militantes conhecidos nos quais foi treinado. “Usando o sistema, conseguimos identificar os comandantes do esquadrão de mísseis do Hamas”, “Coronel. Yoav”, disse na palestra, referindo-se à operação militar de Israel em maio de 2021 em Gaza, quando a máquina foi usada pela primeira vez.

Slides from a lecture presentation by the commander of IDF Unit 8200’s Data Science and AI center at Tel Aviv University in 2023. Slides from a lecture presentation by the commander of IDF Unit 8200’s Data Science and AI center at Tel Aviv University in 2023, obtained by +972 and Local Call.

Slides de uma palestra do comandante do centro de ciência de dados e IA da Unidade 8200 das FDI na Universidade de Tel Aviv em 2023, obtida por +972 e chamada local.

Os slides da apresentação da palestra, também obtidos por +972 e Local Call, contêm ilustrações de como a máquina funciona: ela recebe dados sobre os agentes existentes do Hamas, aprende a perceber suas características e depois avalia outros palestinos com base em sua semelhança. aos militantes.

“Classificamos os resultados e determinamos o limite [no qual atacar um alvo]”, “Col. Yoav”, disse na palestra, enfatizando que “eventualmente, pessoas de carne e osso tomam as decisões. Na área da defesa, eticamente falando, colocamos muita ênfase nisso. Essas ferramentas destinam-se a ajudar [oficiais de inteligência] a quebrar suas barreiras.”

Na prática, porém, fontes que usaram Lavender nos últimos meses dizem que a agência e a precisão humanas foram substituídas pela criação de alvos em massa e pela letalidade.

‘Não havia política de “erro zero”’

B., um oficial superior que usou Lavender, repetiu para +972 e Chamada Local que na guerra atual, os oficiais não eram obrigados a rever de forma independente as avaliações do sistema de IA, a fim de poupar tempo e permitir a produção em massa de alvos humanos sem obstáculos.

“Tudo era estatístico, tudo estava arrumado – estava muito seco”, disse B. Ele observou que esta falta de supervisão foi permitida apesar das verificações internas mostrarem que os cálculos de Lavender foram considerados precisos apenas 90% das vezes; por outras palavras, era sabido de antemão que 10% dos alvos humanos programados para assassinato não eram de todo membros da ala militar do Hamas.

Por exemplo, fontes explicaram que a máquina Lavender às vezes sinalizava erroneamente indivíduos que tinham padrões de comunicação semelhantes aos conhecidos agentes do Hamas ou da PIJ – incluindo funcionários da polícia e da defesa civil, parentes de militantes, residentes que por acaso tinham nome e apelido idênticos aos de um operacional e moradores de Gaza que usaram um dispositivo que pertenceu a um agente do Hamas.

“Quão perto uma pessoa tem ser para o Hamas ser [considerado por uma máquina de IA] afiliado à organização?” disse uma fonte que criticou a imprecisão de Lavender. “É um limite vago. Uma pessoa que não recebe salário do Hamas, mas o ajuda em todo tipo de coisas, é um agente do Hamas? Alguém que esteve no Hamas no passado, mas já não está lá hoje, é um agente do Hamas? Cada um desses recursos – características que uma máquina sinalizaria como suspeitas – é impreciso.”

Existem problemas semelhantes com a capacidade das máquinas-alvo de avaliar o telefone usado por um indivíduo marcado para assassinato. “Na guerra, os palestinos trocam de telefone o tempo todo”, disse a fonte. “As pessoas perdem contato com suas famílias, dão o telefone para um amigo ou esposa, talvez o percam. Não há como confiar 100% no mecanismo automático que determina qual número [de telefone] pertence a quem.”

Segundo as fontes, o exército sabia que a supervisão humana mínima não iria descobrir essas falhas. “Não havia uma política de ‘erro zero’. Os erros foram tratados estatisticamente”, disse uma fonte que usou o Lavender. “Devido ao escopo e à magnitude, o protocolo era que mesmo que você não tivesse certeza de que a máquina estava certa, você sabia que estatisticamente estava tudo bem. Então você vai em frente.

“Isso já foi comprovado”, disse B., a fonte sênior. “Há algo na abordagem estatística que estabelece uma certa norma e padrão. Houve uma quantidade ilógica de [bombardeios] nesta operação. Isso é incomparável, na minha memória. E confio muito mais num mecanismo estatístico do que num soldado que perdeu um amigo há dois dias. Todos lá, inclusive eu, perderam pessoas no dia 7 de outubro. A máquina fez isso com frieza. E isso tornou tudo mais fácil.”

Uma fonte que trabalhou com a equipe de ciência de dados militares que treinou o Lavender disse que os dados coletados de funcionários do Ministério da Segurança Interna, administrado pelo Hamas, que ele não considera militantes, também foram inseridos na máquina. “Fiquei incomodado com o fato de que, quando Lavender foi treinado, eles usaram o termo ‘agente do Hamas’ de forma vaga e incluíram pessoas que eram funcionários da defesa civil no conjunto de dados do treinamento”, disse ele.

A fonte acrescentou que, mesmo que se acredite que essas pessoas mereçam ser mortas, o treinamento do sistema com base em seus perfis de comunicação aumentou a probabilidade de o Lavender selecionar civis por engano quando seus algoritmos foram aplicados à população em geral. “Como se trata de um sistema automático que não é operado manualmente por humanos, o significado dessa decisão é dramático: significa que você está incluindo muitas pessoas com perfil de comunicação civil como alvos potenciais.”

‘Nós só verificamos se o alvo era um homem’

O exército israelense rejeita categoricamente essas alegações. Em uma declaração para +972 e Local Call, o porta-voz das FDI negou o uso de inteligência artificial para incriminar alvos, dizendo que essas são apenas “ferramentas auxiliares que ajudam os oficiais no processo de incriminação”. A declaração continuou: “Em qualquer caso, é necessário um exame independente por um analista [de inteligência], que verifica se os alvos identificados são alvos legítimos para ataque, de acordo com as condições estabelecidas nas diretrizes das FDI e no direito internacional”.

No entanto, fontes disseram que o único protocolo de supervisão humana em vigor antes de bombardear as casas de militantes suspeitos de serem “juniores” marcados por Lavender era realizar uma única verificação: garantir que o alvo selecionado pela IA fosse homem e não mulher. O pressuposto do exército era que, se o alvo fosse uma mulher, a máquina provavelmente teria cometido um erro, porque não há mulheres nas fileiras das alas militares do Hamas e do PIJ.

“Um ser humano tinha que [verificar o alvo] por apenas alguns segundos”, disse B., explicando que isso se tornou o protocolo depois de perceber que o sistema Lavender estava “acertando” na maioria das vezes. “No início, fazíamos verificações para garantir que a máquina não se confundisse. Mas, em algum momento, confiamos no sistema automático e só verificamos se [o alvo] era um homem – isso foi suficiente. Não é preciso muito tempo para saber se alguém tem uma voz masculina ou feminina.”

Para realizar a verificação de masculino/feminino, B. afirmou que, na guerra atual, “eu investiria 20 segundos para cada alvo nesse estágio, e faria dezenas deles todos os dias. Eu não tinha nenhum valor agregado como ser humano, além de ser um selo de aprovação. Isso economizava muito tempo. Se [o agente] aparecesse no mecanismo automatizado e eu verificasse que ele era um homem, haveria permissão para bombardeá-lo, sujeito a um exame dos danos colaterais”.

Na prática, as fontes disseram que isso significava que, para os homens civis marcados com erro pela Lavender, não havia nenhum mecanismo de supervisão para detectar o erro. De acordo com B., um erro comum ocorria “se o alvo [do Hamas] desse [seu telefone] ao filho, ao irmão mais velho ou a um homem qualquer. Essa pessoa será bombardeada em sua casa com sua família. Isso acontecia com frequência. Esses foram a maioria dos erros causados pela Lavender”, disse B..

ETAPA 2: VINCULAÇÃO DOS ALVOS ÀS CASAS DAS FAMÍLIAS

‘A maioria das pessoas que vocês mataram eram mulheres e crianças’

A próxima etapa do procedimento de assassinato do exército israelense é identificar onde atacar os alvos gerados por Lavender.

Em uma declaração ao +972 e ao Local Call, o porta-voz das FDI afirmou, em resposta a esse artigo, que “o Hamas coloca seus agentes e recursos militares no coração da população civil, usa sistematicamente a população civil como escudos humanos e conduz os combates de dentro de estruturas civis, incluindo locais sensíveis como hospitais, mesquitas, escolas e instalações da ONU. As FDI são obrigadas e agem de acordo com o direito internacional, direcionando seus ataques somente a alvos militares e agentes militares.”

As seis fontes com as quais conversamos concordaram com isso até certo ponto, dizendo que o extenso sistema de túneis do Hamas passa deliberadamente por baixo de hospitais e escolas; que os militantes do Hamas usam ambulâncias para se locomover; e que inúmeros recursos militares foram colocados perto de edifícios civis. As fontes argumentaram que muitos ataques israelenses matam civis como resultado dessas táticas do Hamas – uma caracterização que os grupos de direitos humanos advertem que evita o ônus de Israel por infligir as baixas.

No entanto, em contraste com as declarações oficiais do exército israelense, as fontes explicaram que um dos principais motivos para o número sem precedentes de mortes do atual bombardeio israelense é o fato de o exército ter sistematicamente atacado alvos em suas casas particulares, ao lado de suas famílias – em parte porque era mais fácil, do ponto de vista da inteligência, marcar casas de família usando sistemas automatizados.

De fato, várias fontes enfatizaram que, ao contrário dos inúmeros casos de agentes do Hamas envolvidos em atividades militares em áreas civis, no caso de ataques sistemáticos de assassinato, o exército rotineiramente fazia a escolha ativa de bombardear supostos militantes dentro de residências civis nas quais não havia atividade militar. Essa escolha, segundo eles, foi um reflexo da maneira como o sistema de vigilância em massa de Israel em Gaza foi projetado.

As fontes disseram à +972 e à Local Call que, como todos em Gaza têm uma casa particular à qual podem ser associados, os sistemas de vigilância do exército podem “vincular” fácil e automaticamente os indivíduos às casas das famílias. Para identificar o momento em que os agentes entram em suas casas em tempo real, foram desenvolvidos vários softwares automáticos adicionais. Esses programas rastreiam milhares de indivíduos simultaneamente, identificam quando eles estão em casa e enviam um alerta automático ao oficial de alvos, que então marca a casa para bombardeio. Um dos vários softwares de rastreamento, revelado aqui pela primeira vez, chama-se “Where’s Daddy?”.

“Você coloca centenas [de alvos] no sistema e espera para ver quem você consegue matar”, disse uma fonte com conhecimento do sistema. “Isso é chamado de caça ampla: você copia e cola das listas que o sistema de alvos produz.”

As evidências dessa política também estão claras nos dados: durante o primeiro mês da guerra, mais da metade das mortes – 6.120 pessoas – pertencia a 1.340 famílias, muitas das quais foram completamente dizimadas dentro de suas casas, de acordo com os números da ONU. A proporção de famílias inteiras bombardeadas em suas casas na guerra atual é muito maior do que na operação israelense de 2014 em Gaza (que foi a guerra mais mortal de Israel na Faixa), o que sugere ainda mais a importância dessa política.

Outra fonte disse que cada vez que o ritmo dos assassinatos diminuía, mais alvos eram adicionados a sistemas como o Where’s Daddy? para localizar indivíduos que entravam em suas casas e que, portanto, poderiam ser bombardeados. Ele disse que a decisão de quem colocar nos sistemas de rastreamento poderia ser tomada por oficiais de patente relativamente baixa na hierarquia militar.

“Um dia, por vontade própria, acrescentei algo como 1.200 novos alvos ao sistema [de rastreamento], porque o número de ataques [que estávamos realizando] diminuiu”, disse a fonte. “Isso fez sentido para mim. Em retrospecto, parece que tomei uma decisão séria. E essas decisões não eram tomadas em níveis elevados.”

As fontes disseram que, nas duas primeiras semanas da guerra, “vários milhares” de alvos foram inicialmente inseridos em programas de localização como o Where’s Daddy? Entre eles estavam todos os membros da unidade de elite das forças especiais do Hamas, a Nukhba, todos os agentes antitanque do Hamas e qualquer pessoa que tivesse entrado em Israel em 7 de outubro. Mas, em pouco tempo, a lista de mortos foi drasticamente ampliada.

“No final, eram todos [marcados por Lavender]”, explicou uma fonte. “Dezenas de milhares. Isso aconteceu algumas semanas depois, quando as brigadas [israelenses] entraram em Gaza, e já havia menos pessoas não envolvidas [ou seja, civis] nas áreas do norte.” De acordo com essa fonte, até mesmo alguns menores de idade foram marcados pela Lavender como alvos de bombardeio. “Normalmente, os agentes têm mais de 17 anos de idade, mas essa não era uma condição.”

Assim, o Lavender e sistemas como o Where’s Daddy? foram combinados com efeitos mortais, matando famílias inteiras, segundo as fontes. Ao adicionar um nome das listas geradas pelo Lavender ao sistema de rastreamento doméstico Where’s Daddy?, explicou A., a pessoa marcada seria colocada sob vigilância contínua e poderia ser atacada assim que entrasse em sua casa, derrubando todos os que estivessem dentro dela.

“Digamos que você calcule [que haja] um [agente] do Hamas mais 10 [civis na casa]”, disse A.. “Normalmente, esses 10 são mulheres e crianças. Então, absurdamente, acontece que a maioria das pessoas que você matou eram mulheres e crianças.”

ETAPA 3: ESCOLHENDO UMA ARMA

Geralmente realizávamos os ataques com “bombas burras”

Depois que Lavender marca um alvo para ser assassinado, o pessoal do exército verifica se ele é do sexo masculino e o software de rastreamento localiza o alvo em sua casa, a próxima etapa é escolher a munição para bombardeá-lo.

Em dezembro de 2023, a CNN informou que, de acordo com estimativas da inteligência dos EUA, cerca de 45% das munições usadas pela força aérea israelense em Gaza eram bombas “burras”, que são conhecidas por causar mais danos colaterais do que as bombas guiadas. Em resposta à reportagem da CNN, um porta-voz do exército citado no artigo disse: “Como um exército comprometido com a lei internacional e com um código moral de conduta, estamos dedicando vastos recursos para minimizar os danos aos civis que o Hamas forçou a fazer o papel de escudos humanos. Nossa guerra é contra o Hamas, não contra o povo de Gaza”.

Três fontes de inteligência, no entanto, disseram ao +972 e ao Local Call que os agentes juniores marcados por Lavender foram assassinados apenas com bombas burras, com o objetivo de economizar armamentos mais caros. A implicação, explicou uma fonte, era que o exército não atacaria um alvo júnior se ele morasse em um prédio alto, porque o exército não queria gastar uma “bomba de chão” mais precisa e cara (com efeito colateral mais limitado) para matá-lo. Mas se um alvo júnior morasse em um prédio com apenas alguns andares, o exército estava autorizado a matá-lo e a todos no prédio com uma bomba burra.

“Foi assim com todos os alvos juniores”, testemunhou C., que usou vários programas automatizados na guerra atual. “A única pergunta era: é possível atacar o prédio em termos de danos colaterais? Porque geralmente realizávamos os ataques com bombas burras, e isso significava literalmente destruir a casa inteira em cima de seus ocupantes. Mas mesmo que um ataque seja evitado, você não se importa – você passa imediatamente para o próximo alvo. Por causa do sistema, os alvos nunca acabam. Você tem outros 36.000 esperando”.

ETAPA 4: AUTORIZAÇÃO DE BAIXAS CIVIS

‘Atacamos quase sem considerar os danos colaterais’

Uma fonte disse que, ao atacar agentes juniores, inclusive aqueles marcados por sistemas de IA como o Lavender, o número de civis que eles podiam matar ao lado de cada alvo foi fixado durante as primeiras semanas da guerra em até 20. Outra fonte afirmou que o número fixo era de até 15. Esses “graus de dano colateral”, como os militares os chamam, foram aplicados de forma ampla a todos os militantes juniores suspeitos, disseram as fontes, independentemente de sua patente, importância militar e idade, e sem nenhum exame específico caso a caso para pesar a vantagem militar de assassiná-los em relação ao dano esperado aos civis.

De acordo com A., que foi oficial em uma sala de operações de alvos na guerra atual, o departamento de direito internacional do exército nunca antes havia dado uma “aprovação tão ampla” para um grau tão alto de dano colateral. “Não se trata apenas do fato de que você pode matar qualquer pessoa que seja um soldado do Hamas, o que é claramente permitido e legítimo em termos de direito internacional”, disse A.. “Mas eles dizem diretamente a você: ‘Você tem permissão para matá-los junto com muitos civis’.

“Cada pessoa que usou um uniforme do Hamas no último ano ou dois poderia ser bombardeada com 20 [civis mortos como] danos colaterais, mesmo sem permissão especial”, continuou A.. “Na prática, o princípio da proporcionalidade não existia.”

De acordo com A., essa foi a política durante a maior parte do tempo em que ele serviu. Somente mais tarde os militares reduziram o grau de dano colateral. “Nesse cálculo, também poderiam ser 20 crianças para um agente júnior… Realmente não era assim no passado”, explicou A.. Perguntado sobre a lógica de segurança por trás dessa política, A. respondeu: “Letalidade”.

O grau de dano colateral predeterminado e fixo ajudou a acelerar a criação em massa de alvos usando a máquina Lavender, disseram as fontes, porque economizou tempo. B. afirmou que o número de civis que eles tinham permissão para matar na primeira semana da guerra por militante júnior suspeito marcado pela IA era de quinze, mas que esse número “aumentava e diminuía” com o tempo.

“No início, atacamos quase sem considerar os danos colaterais”, disse B. sobre a primeira semana após 7 de outubro. “Na prática, você não contava realmente as pessoas [em cada casa bombardeada], porque não dava para saber se elas estavam em casa ou não. Depois de uma semana, começaram as restrições aos danos colaterais. O número caiu [de 15] para cinco, o que dificultou muito nossos ataques, pois se toda a família estivesse em casa, não poderíamos bombardeá-la. Depois, eles aumentaram o número novamente”.

‘Sabíamos que mataríamos mais de 100 civis’

Fontes disseram ao +972 e ao Local Call que agora, em parte devido à pressão americana, o exército israelense não está mais gerando alvos humanos juniores para bombardeio em casas de civis. O fato de que a maioria das casas na Faixa de Gaza já estava destruída ou danificada, e quase toda a população foi deslocada, também prejudicou a capacidade do exército de contar com bancos de dados de inteligência e programas automatizados de localização de casas.

E. afirmou que o bombardeio maciço de militantes juniores ocorreu somente na primeira ou segunda semana da guerra, e depois foi interrompido principalmente para não desperdiçar bombas. “Há uma economia de munição”, disse E.. “Eles sempre tiveram medo de que houvesse [uma guerra] na arena do norte [com o Hezbollah no Líbano]. Eles não atacam mais esse tipo de gente [júnior].”

No entanto, os ataques aéreos contra comandantes de alto escalão do Hamas ainda estão em andamento, e as fontes disseram que, para esses ataques, os militares estão autorizando a morte de “centenas” de civis por alvo – uma política oficial para a qual não há precedente histórico em Israel, ou mesmo em operações militares recentes dos EUA.

“No bombardeio do comandante do Batalhão Shuja’iya, sabíamos que mataríamos mais de 100 civis”, lembrou B. sobre um bombardeio em 2 de dezembro que, segundo o porta-voz das FDI, tinha como objetivo assassinar Wisam Farhat. “Para mim, psicologicamente, foi incomum. Mais de 100 civis – isso ultrapassa uma linha vermelha.”

Amjad Al-Sheikh, um jovem palestino de Gaza, disse que muitos membros de sua família foram mortos nesse bombardeio. Morador de Shuja’iya, a leste da Cidade de Gaza, ele estava em um supermercado local naquele dia quando ouviu cinco explosões que quebraram as janelas de vidro.

“Corri para a casa da minha família, mas não havia mais prédios lá”, disse Al-Sheikh à +972 e à Local Call. “A rua estava cheia de gritos e fumaça. Quarteirões residenciais inteiros se transformaram em montanhas de entulho e buracos profundos. As pessoas começaram a procurar no cimento, usando as mãos, e eu também, procurando sinais da casa da minha família.”

A esposa e a filha bebê de Al-Sheikh sobreviveram – protegidas dos escombros por um armário que caiu sobre elas – mas ele encontrou outros 11 membros de sua família, entre eles suas irmãs, irmãos e filhos pequenos, mortos sob os escombros. De acordo com o grupo de direitos humanos B’Tselem, o bombardeio daquele dia destruiu dezenas de edifícios, matou dezenas de pessoas e enterrou centenas sob as ruínas de suas casas.

‘Famílias inteiras foram mortas’

Fontes da inteligência disseram ao +972 e ao Local Call que participaram de ataques ainda mais mortais. Para assassinar Ayman Nofal, o comandante da Brigada Central de Gaza do Hamas, uma fonte disse que o exército autorizou a morte de aproximadamente 300 civis, destruindo vários prédios em ataques aéreos no campo de refugiados de Al-Bureij em 17 de outubro, com base em uma localização imprecisa de Nofal. Imagens de satélite e vídeos do local mostram a destruição de vários prédios grandes de apartamentos de vários andares.

“Entre 16 e 18 casas foram destruídas no ataque”, disse Amro Al-Khatib, um morador do campo, à +972 e à Local Call. “Não conseguíamos distinguir um apartamento do outro – todos se misturaram nos escombros e encontramos partes de corpos humanos por toda parte.”

Na sequência, Al-Khatib lembrou que cerca de 50 cadáveres foram retirados dos escombros e cerca de 200 pessoas ficaram feridas, muitas delas gravemente. Mas esse foi apenas o primeiro dia. Os residentes do campo passaram cinco dias retirando os mortos e feridos, disse ele.

Nael Al-Bahisi, um paramédico, foi um dos primeiros a chegar ao local. Ele contou entre 50 e 70 vítimas naquele primeiro dia. “Em um determinado momento, entendemos que o alvo do ataque era o comandante do Hamas, Ayman Nofal”, disse ele à +972 e à Local Call. “Eles o mataram, e também muitas pessoas que não sabiam que ele estava lá. Famílias inteiras com crianças foram mortas.”

Outra fonte da inteligência disse ao +972 e ao Local Call que o exército destruiu um arranha-céu em Rafah em meados de dezembro; assassinou “dezenas de civis”, para tentar matar Mohammed Shabaneh, o comandante da Brigada Rafah do Hamas (não está claro se ele foi morto ou não no ataque). Muitas vezes, disse a fonte, os comandantes seniores se escondem em túneis que passam por baixo de edifícios civis e, portanto, a opção de assassiná-los com um ataque aéreo necessariamente mata civis.

“A maioria dos feridos eram crianças”, disse Wael Al-Sir, 55 anos, que testemunhou o ataque em grande escala que alguns moradores de Gaza acreditam ter sido a tentativa de assassinato. Ele disse à +972 e à Local Call que o bombardeio de 20 de dezembro destruiu “um quarteirão residencial inteiro” e matou pelo menos 10 crianças.

“Havia uma política totalmente permissiva com relação às vítimas das operações [de bombardeio] – tão permissiva que, em minha opinião, tinha um elemento de vingança”, afirmou D., uma fonte da inteligência. “O ponto central disso foram os assassinatos de comandantes sênior [do Hamas e do PIJ], pelos quais eles estavam dispostos a matar centenas de civis. Tínhamos um cálculo: quantos para um comandante de brigada, quantos para um comandante de batalhão e assim por diante.”

“Havia regulamentos, mas eles eram muito brandos”, disse E., outra fonte da inteligência. “Matamos pessoas com danos colaterais na casa dos dois dígitos, se não na casa dos três dígitos. Essas são coisas que nunca aconteceram antes.”

Uma taxa tão alta de “danos colaterais” é excepcional não apenas em comparação com o que o exército israelense considerava aceitável anteriormente, mas também em comparação com as guerras travadas pelos Estados Unidos no Iraque, na Síria e no Afeganistão.

O general Peter Gersten, vice-comandante de Operações e Inteligência na operação de combate ao ISIS no Iraque e na Síria, disse a uma revista de defesa dos EUA em 2021 que um ataque com danos colaterais de 15 civis se desviou do procedimento; para realizá-lo, ele teve de obter permissão especial do chefe do Comando Central dos EUA, general Lloyd Austin, que agora é secretário de Defesa.

“Com Osama Bin Laden, você teria um NCV [Non-combatant Casualty Value] de 30, mas se você tivesse um comandante de baixo escalão, o NCV dele era normalmente zero”, disse Gersten. “Tivemos zero durante muito tempo”.

‘Disseram-nos: “Tudo o que vocês puderem, bombardeiem”‘

Todas as fontes entrevistadas para esta investigação disseram que os massacres do Hamas em 7 de outubro e o sequestro de reféns influenciaram muito a política de fogo do exército e os graus de danos colaterais. “No início, a atmosfera era dolorosa e vingativa”, disse B., que foi convocado para o exército logo após o dia 7 de outubro e serviu em uma sala de operações de alvos. “As regras eram muito brandas. Eles derrubaram quatro prédios quando sabiam que o alvo estava em um deles. Era uma loucura.

“Havia uma dissonância: por um lado, as pessoas aqui estavam frustradas porque não estávamos atacando o suficiente”, continuou B.. “Por outro lado, no final do dia, você vê que outros mil habitantes de Gaza morreram, a maioria deles civis.”

“Havia histeria nas fileiras profissionais”, disse D., que também foi convocado logo após 7 de outubro. “Eles não tinham a menor ideia de como reagir. A única coisa que sabiam fazer era começar a bombardear como loucos para tentar desmantelar a capacidade do Hamas.”

D. enfatizou que não lhes foi dito explicitamente que o objetivo do exército era “vingança”, mas expressou que “assim que todos os alvos ligados ao Hamas se tornarem legítimos, e com quase todos os danos colaterais sendo aprovados, fica claro para você que milhares de pessoas serão mortas. Mesmo que oficialmente todos os alvos estejam ligados ao Hamas, quando a política é tão permissiva, isso perde todo o sentido”.

A. também usou a palavra “vingança” para descrever a atmosfera dentro do exército depois de 7 de outubro. “Ninguém pensou no que fazer depois, quando a guerra terminar, ou como será possível viver em Gaza e o que farão com ela”, disse A.. “Disseram-nos: agora temos de acabar com o Hamas, custe o que custar. Bombardeiem o que puderem”.

B., a fonte sênior de inteligência, disse que, em retrospecto, ele acredita que essa política “desproporcional” de matar palestinos em Gaza também coloca em risco os israelenses, e que esse foi um dos motivos pelos quais ele decidiu ser entrevistado.

“No curto prazo, estamos mais seguros, porque prejudicamos o Hamas. Mas acho que, a longo prazo, estamos menos seguros. Vejo como todas as famílias enlutadas em Gaza – que são quase todas – aumentarão a motivação para [as pessoas se juntarem] ao Hamas daqui a 10 anos. E será muito mais fácil para [o Hamas] recrutá-las”.

Em uma declaração para +972 e Local Call, o exército israelense negou muito do que as fontes nos disseram, alegando que “cada alvo é examinado individualmente, enquanto é feita uma avaliação individual da vantagem militar e dos danos colaterais esperados do ataque… As FDI não realiza ataques quando os danos colaterais esperados do ataque são excessivos em relação à vantagem militar”.

ETAPA 5: CÁLCULO DOS DANOS COLATERAIS

‘O modelo não estava conectado à realidade’

De acordo com as fontes de inteligência, o cálculo do exército israelense do número de civis que se espera que sejam mortos em cada casa ao lado de um alvo – um procedimento examinado em uma investigação anterior por +972 e Local Call – foi realizado com a ajuda de ferramentas automáticas e imprecisas. Em guerras anteriores, a equipe de inteligência passava muito tempo verificando quantas pessoas estavam em uma casa que estava programada para ser bombardeada, com o número de civis que poderiam ser mortos listados como parte de um “arquivo de alvos”. Depois de 7 de outubro, no entanto, essa verificação minuciosa foi amplamente abandonada em favor da automação.

Em outubro, o The New York Times publicou uma reportagem sobre um sistema operado a partir de uma base especial no sul de Israel, que coleta informações de telefones celulares na Faixa de Gaza e fornece aos militares uma estimativa em tempo real do número de palestinos que fugiram do norte da Faixa de Gaza em direção ao sul. O general de brigada Udi Ben Muha disse ao Times que “não é um sistema 100% perfeito, mas fornece as informações necessárias para tomar uma decisão”. O sistema funciona de acordo com as cores: o vermelho marca as áreas onde há muitas pessoas, e o verde e o amarelo marcam as áreas que foram relativamente limpas de moradores.

As fontes que falaram com +972 e Local Call descreveram um sistema semelhante de cálculo de danos colaterais, que foi usado para decidir se um prédio deveria ser bombardeado em Gaza. Elas disseram que o software calculou o número de civis que residiam em cada casa antes da guerra – avaliando o tamanho do prédio e revisando sua lista de moradores – e depois reduziu esses números pela proporção de moradores que supostamente evacuaram o bairro.

Para ilustrar, se o exército calculasse que metade dos moradores de um bairro havia saído, o programa contaria uma casa que normalmente tinha 10 moradores como uma casa com cinco pessoas. Para economizar tempo, disseram as fontes, o exército não inspecionou as casas para verificar quantas pessoas estavam realmente morando nelas, como fez em operações anteriores, para descobrir se a estimativa do programa era de fato precisa.

“Esse modelo não estava conectado à realidade”, afirmou uma fonte. “Não havia conexão entre as pessoas que estavam na casa agora, durante a guerra, e as que estavam listadas como morando lá antes da guerra. [Em uma ocasião, bombardeamos uma casa sem saber que havia várias famílias lá dentro, escondidas juntas.”

A fonte disse que, embora o exército soubesse que tais erros poderiam ocorrer, esse modelo impreciso foi adotado mesmo assim, porque era mais rápido. Assim, disse a fonte, “o cálculo do dano colateral era totalmente automático e estatístico”, produzindo até mesmo números que não eram inteiros.

ETAPA 6: BOMBARDEIO DA CASA DE UMA FAMÍLIA

‘Vocês mataram uma família sem motivo’

As fontes que falaram com o +972 e o Local Call explicaram que, às vezes, havia um intervalo substancial entre o momento em que os sistemas de rastreamento, como o Where’s Daddy? alertavam um oficial de que um alvo havia entrado em sua casa e o bombardeio em si – levando à morte de famílias inteiras, mesmo sem atingir o alvo do exército. “Aconteceu comigo muitas vezes que atacamos uma casa, mas a pessoa nem estava em casa”, disse uma fonte. “O resultado é que você matou uma família sem motivo.”

Três fontes da inteligência disseram à +972 e à Local Call que testemunharam um incidente em que o exército israelense bombardeou a casa particular de uma família e, mais tarde, descobriu-se que o alvo pretendido do assassinato nem estava dentro da casa, já que nenhuma verificação adicional foi realizada em tempo real.

“Às vezes, [o alvo] estava em casa mais cedo e, à noite, foi dormir em outro lugar, digamos, no subsolo, e você não sabia disso”, disse uma das fontes. “Há momentos em que você verifica novamente a localização, e há momentos em que você simplesmente diz: ‘Ok, ele estava na casa nas últimas horas, então você pode simplesmente bombardear’.”

Outra fonte descreveu um incidente semelhante que o afetou e o fez querer ser entrevistado para esta investigação. “Entendemos que o alvo estava em casa às 20h. No final, a força aérea bombardeou a casa às 3h. Depois descobrimos que [nesse intervalo de tempo] ele havia conseguido se mudar para outra casa com a família. Havia duas outras famílias com crianças no prédio que bombardeamos”.

Em guerras anteriores em Gaza, após o assassinato de alvos humanos, a inteligência israelense realizava procedimentos de avaliação de danos causados por bombas (BDA) – uma verificação de rotina pós-ataque para ver se o comandante sênior foi morto e quantos civis foram mortos junto com ele. Conforme revelado em uma investigação anterior do +972 e do Local Call, isso envolvia ouvir as ligações telefônicas de parentes que perderam seus entes queridos. No entanto, na guerra atual, pelo menos em relação aos militantes juniores marcados usando IA, as fontes dizem que esse procedimento foi abolido para economizar tempo. As fontes disseram que não sabiam quantos civis foram de fato mortos em cada ataque e, no caso dos suspeitos de baixo escalão do Hamas e do PIJ marcados pela IA, não sabiam nem mesmo se o próprio alvo havia sido morto.

“Você não sabe exatamente quantos matou e quem matou”, disse uma fonte da inteligência à Local Call em uma investigação anterior publicada em janeiro. “Somente quando se trata de agentes sênior do Hamas é que você segue o procedimento da BDA. No restante dos casos, você não se importa. Você recebe um relatório da força aérea sobre se o prédio foi explodido e pronto. Não se tem ideia de quanto dano colateral houve; passa-se imediatamente para o próximo alvo. A ênfase era criar o maior número possível de alvos, o mais rápido possível.”

Mas, embora os militares israelenses possam seguir em frente com cada ataque sem se preocupar com o número de vítimas, Amjad Al-Sheikh, morador de Shuja’iya que perdeu 11 membros de sua família no bombardeio de 2 de dezembro, disse que ele e seus vizinhos ainda estão procurando por corpos.

“Até agora, há corpos sob os escombros”, disse ele. “Quatorze prédios residenciais foram bombardeados com seus moradores dentro. Alguns de meus parentes e vizinhos ainda estão enterrados.”

Yuval Abraham é um jornalista e cineasta que vive em Jerusalém.

Artigo traduzido com Deepl.

Leia a reportagem completa em inglês.


Fonte: https://luizmuller.com/2024/04/05/exterminador-do-presente-como-israel-usa-inteligencia-artificial-para-escolher-alvos-em-gaza-e-exterminar-milhares-de-palestinos/

Novidades