Os israelitas não são os primeiros a utilizar métodos automatizados de selecção de alvos em terrenos de guerra. (Foto: Getty Images)
Os militares israelitas afirmam que a inteligência artificial (IA) está a ajudá-los a atingir os combatentes do Hamas na Faixa de Gaza devastada pela guerra, mas os especialistas levantam questões à medida que o número de vítimas civis continua a aumentar.
Desde o início da guerra, há quase cinco meses, desencadeada por um ataque sangrento do Hamas em solo israelense, as operações militares israelenses em retaliação deixaram mais de 30.300 mortos em Gaza, segundo o Ministério da Saúde do movimento palestino islâmico.
Israel afirma ter “eliminado 10.000 terroristas”. O exército, que não quis fazer comentários adicionais, sempre garantiu que atacará “apenas alvos militares” e tomará “possíveis medidas para mitigar os danos aos civis”.
“Ou a IA é tão eficiente quanto o que está avançado e o exército israelense não se importa com os danos colaterais, ou a IA não é tão eficiente quanto dizem”, comenta Toby diante dessa lacuna digital Walsh, professor de Inteligência Artificial da Universidade de New South Wales, na Austrália, entrevistado pela AFP.
“Ataques precisos”
O exército israelita afirma ter travado a “primeira guerra de IA” durante onze dias em Maio de 2021 em Gaza. O chefe de gabinete da época, Aviv Kochavi, declarou no ano passado ao site de notícias israelense Ynet que a IA tornou possível gerar “100 novos alvos todos os dias”, em comparação com “50” por ano na Faixa de Gaza “no passado”.
O ataque perpetrado em 7 de outubro por comandos do Hamas infiltrados a partir de Gaza, no sul de Israel, causou a morte de pelo menos 1.160 pessoas, a maioria civis, segundo um balanço da AFP baseado em dados oficiais.
De acordo com um blog no site do exército, mais de 12 mil alvos foram identificados em 27 dias, graças à tecnologia de IA chamada Gospel. Segundo um responsável citado anonimamente, esta ferramenta seleccionava alvos “para ataques precisos a infra-estruturas associadas ao Hamas, infligindo danos significativos ao inimigo, ao mesmo tempo que causava o menor dano possível àqueles que não estavam envolvidos”.
Mas um ex-oficial de inteligência israelense, falando sob condição de anonimato, disse ao jornal investigativo independente israelense-palestino em novembro Revista 972 que esta tecnologia estava a transformar-se numa “fábrica de assassinatos em massa”.
Citando uma fonte de inteligência, o jornal informa que o Gospel engoliu quantidades de dados, mais rapidamente do que “dezenas de milhares de agentes de inteligência”, e permitiu identificar em tempo real locais que poderiam ser locais de residência de supostos combatentes. O tipo de dados e os critérios de segmentação não foram detalhados.
Vários especialistas afirmam à AFP que o exército pode alimentar a ferramenta com imagens de drones, mensagens nas redes sociais, informações recolhidas no terreno por espiões, localizações telefónicas, em particular.
Uma vez selecionado um alvo, a tecnologia pode utilizar fontes populacionais oficiais para estimar a probabilidade de danos aos civis.
“Dados duvidosos”
Mas para Lucy Suchman, professora de antropologia da ciência e tecnologia na Universidade de Lancaster, no Reino Unido, a ideia de que mais dados produziriam uma melhor segmentação é falsa.
Os algoritmos são treinados para encontrar padrões repetidos nos dados. Cada padrão previamente identificado como alvo pode, portanto, gerar um novo alvo, explica ela. “Suposições questionáveis” na interpretação dos dados correm o risco de serem amplificadas.
“Em outras palavras, quanto mais dados questionáveis houver, pior será o sistema”, diz ela.
Os israelitas não são os primeiros a utilizar métodos automatizados de selecção de alvos em terrenos de guerra.
Durante a Guerra do Golfo, em 1990-1991, o exército americano utilizou algoritmos para melhorar os seus ataques. Também trabalhou com ferramentas de análise de dados da empresa Palantir durante a guerra no Afeganistão lançada após os atentados de 11 de setembro de 2001.
Em 1999, no Kosovo, durante a campanha de bombardeamento contra alvos militares sérvios, a OTAN começou a utilizar algoritmos para estimar o número de potenciais vítimas civis.
Essas tecnologias, entretanto, são confiáveis?
Mesmo que o exército israelita seja “um dos mais avançados tecnologicamente”, “as probabilidades de utilizar IA com tal grau de sofisticação e autonomia são muito baixas”, estimou o analista Noah Sylvia do think tank de defesa britânico Rusi no mês passado. Ele acrescentou que os humanos ainda teriam que verificar quaisquer resultados.