Meus Apps


Israel, Gaza e Inteligência Artificial: um precedente preocupante

Postado em: 30/08/2024 | Por: Emerson Alves

A guerra em Gaza, agora no nono mês de combates e com um número devastador de mortos, também marca a primeira vez em que a inteligência artificial foi amplamente utilizada em operações militares, gerando preocupações éticas e legais.

A atual guerra contra Gaza, que já dura nove meses e resultou em mais de 40 mil palestinos mortos, será lembrada por diversos motivos trágicos. Entre eles, a enorme perda de vidas civis e a transmissão ao vivo das atrocidades. No entanto, este conflito também será historicamente notável por outro motivo alarmante: o uso massivo e sistemático de inteligência artificial (IA) pelo exército israelense, um marco perturbador na história militar que levanta sérias questões éticas e legais.

Leia também: Como a inteligência artificial pode reduzir o desperdício alimentar e seus impactos.

O uso da IA em operações militares

Israel incorporou tecnologias de IA em suas operações militares de forma sem precedentes, utilizando sistemas como o Habsora e o Lavender para identificar alvos militares e rastrear indivíduos. Essas IAs são capazes de identificar edifícios e pessoas associadas ao Hamas e à Jihad Islâmica Palestina, gerando milhares de alvos militares em questão de semanas. Esse uso massivo de IA contribuiu para o aumento exponencial de vítimas e danos materiais no conflito.

As Forças de Defesa de Israel (IDF) não negaram o uso desses sistemas, mas argumentam que as IAs servem apenas como ferramentas auxiliares para os serviços de inteligência. No entanto, testemunhos indicam que a validação humana dos alvos identificados pela IA ocorre em tempo recorde, muitas vezes levando a uma aceitação quase automática dos alvos, o que levanta preocupações sobre a responsabilidade ética e legal das decisões de ataque.

Impactos éticos e legais

A introdução de IA em operações militares gera novos desafios éticos, uma vez que a tecnologia pode desumanizar o processo de tomada de decisões em situações de vida ou morte. A automatização da seleção de alvos militares, por exemplo, pode levar a uma diminuição da responsabilidade dos operadores humanos, criando o que alguns chamam de “lacuna de responsabilidade”.

Além das questões éticas, o uso de IA em conflitos armados também levanta dúvidas sobre sua compatibilidade com o Direito Internacional Humanitário (DIH). Existe um crescente debate sobre a necessidade de uma estrutura normativa que regule o uso da IA para fins militares, garantindo que seu emprego seja compatível com as leis de guerra. Alguns defendem até mesmo a proibição total do uso de IA em operações militares, citando a incompatibilidade fundamental entre essas tecnologias e os princípios do DIH.

O papel de Israel na inovação tecnológica militar

Israel tem sido um dos principais desenvolvedores de tecnologias de IA, impulsionado por um ambiente favorável à inovação e grandes investimentos em pesquisa e desenvolvimento. O país é o terceiro maior investidor em IA no mundo, atrás apenas dos Estados Unidos e da China. Este ambiente propício à inovação tecnológica tem sido amplamente explorado para o desenvolvimento de soluções militares, que posteriormente são vendidas a outras nações com o selo de “testadas em combate”.

A necessidade urgente de regulamentação

Com o rápido avanço da IA, cresce também a preocupação com os efeitos negativos e não intencionais dessas tecnologias. Diversas iniciativas acadêmicas e de pesquisa já pedem por uma regulamentação global que assegure que a IA seja desenvolvida e utilizada dentro de um quadro ético robusto, centrado nas necessidades humanas. No contexto militar, essa necessidade de regulamentação é ainda mais urgente, mas também mais difícil de ser implementada devido às pressões das principais potências militares.

O uso da IA no conflito em Gaza destaca a necessidade de uma moratória total sobre o uso dessas tecnologias para fins militares, até que uma regulamentação internacionalmente acordada esteja em vigor. Embora essa proposta pareça lógica, é improvável que seja aceita pelos principais atores globais.