O que é a IA ?
Não existe uma definição universalmente aceite de inteligência, e portanto o mesmo se passa com a inteligência artificial (IA). Pode dizer-se, de uma forma geral, que se trata de sistemas que a partir de dados complexos (texto, som, imagens, vídeos,..) produzem deduções (classificação amigo/inimigo, alvo militar/civil,..) ou tomam decisões (decisão de abater/destruir um alvo inimigo, escolha do armamento a mobilizar para uma operação, etc.) que normalmente requerem inteligência humana.
A IA não data de 2022, altura em que com o aparecimento do ChatGPT ganhou uma extraordinária notoriedade pública. O ChatGPT pertence a uma classe particular, a IA generativa. Estes sistemas são capazes de produzir documentos — ou dar respostas a perguntas — que parecem ter sido gerados por humanos. Na realidade, a maioria dos sistemas de IA hoje utilizados — na indústria, na logística, na medicina, e também o domínio militar — são de outros tipos, e têm vindo a ser aperfeiçoados há décadas. O que se segue aplica-se genericamente, e não em particular, às IA generativas.
Ao contrário dos sistemas na berra entre as décadas de 60 e 90, que tentavam imitar o raciocínio dedutivo humano, os sistemas modernos de IA aprendem a partir de dados usando processos semelhantes à aprendizagem humana: a aprendizagem empírica e a aprendizagem por realimentação. Pense-se como uma criança aprende o que é uma bola. Não lhe fornecemos uma definição abstrata, mas repetimos a palavra «bola» cada vez que ele vê uma bola. Ao fim de algum tempo, a criança terá visto muitas bolas diferentes e será capaz de reconhecer como «bola» uma que nunca tinha visto antes, mas não saberá explicar porque o faz. É este o processo de aprendizagem empírica.
Na aprendizagem por realimentação recorre-se a um grande número de ensaios e avalia-se a qualidade do resultado obtido em cada um deles, o que permite modificar a próxima tentativa, esperando que ela dê melhores resultados. A maneira como aprendemos a andar é um exemplo deste tipo de aprendizagem.
«Ao contrário dos sistemas na berra entre as décadas de 60 e 90, que tentavam imitar o raciocínio dedutivo humano, os sistemas modernos de IA aprendem a partir de dados usando processos semelhantes à aprendizagem humana: a aprendizagem empírica e a aprendizagem por realimentação.»
Faz sentido ressalvar duas observações ao que acabámos de dizer. Primeiro, em qualquer dos processos aquilo que se pretende aprender está bem definido à partida. Seja através da selecção dos exemplos, no caso da aprendizagem empírica, seja pela escolha da medida de sucesso na aprendizagem por realimentação. Em segundo lugar, é natural esperar que a aprendizagem seja tanto melhor quanto mais repetições forem efectuadas. Pode de facto demonstrar-se que a fiabilidade e robustez de um sistema de IA depende de uma maneira fundamental da quantidade e qualidade dos dados em que é treinada. Na realidade, os diferentes cenários de guerra activos neste momento, constituindo verdadeiras minas dos dados reais necessários ao desenvolvimento das aplicações militares da IA, têm conduzido a uma aceleração do seu desenvolvimento e subsequente utilização em cenários bélicos.
Antes de me debruçar sobre aplicações concretas da IA na guerra, vale a pena clarificar dois termos frequentemente utilizados quando se fala de IA.
Um é «algoritmo». O que é um algoritmo? Em termos técnicos, um algoritmo é simplesmente uma receita cujos ingredientes são operações. Um exemplo que todos conhecemos é o algoritmo da multiplicação: dados dois números decimais, sabemos que uma certa sucessão de somas e da multiplicações de inteiros conduz ao resultado da sua multiplicação. Em IA, os dados e o tipo de operações, bem como a estrutura dos cálculos que se devem realizar é muito mais complexa. Mas é basicamente a mesma coisa.
Fala-se também muito de «modelos» de IA. O que é um modelo? Em termos científicos, um modelo é uma representação de um fenómeno cujo comportamento se pretende imitar. São equações, circuitos ou programas de computador que reproduzem, pelo menos aproximadamente, a resposta de uma entidade real face a diversas situações. Por exemplo, os serviços de meteorologia recorrem a modelos computacionais baseados nas equações que descrevem os diferentes fenómenos físicos em jogo, para prever a evolução do estado do tempo. No contexto da IA, o termo «modelo» designa o resultado do treino com um certo jogo de dados. Para aqueles que têm acompanhado de perto as evoluções da IA, o modelo é por exemplo o valor dos biliões de parâmetros das redes neuronais profundas actuais. Contrariamente aos modelos científicos, como por exemplo os modelos climatéricos, os modelos da IA não se baseiam numa compreensão detalhada da relação entrada— saída que imitam, e são por isso designados de «modelos de caixa preta», ressaltando a sua opacidade, a incapacidade de se explicar de que forma a saída é construída a partir da entrada.
Limitações e potencialidades da IA do ponto de vista do DHI
Uma das limitações principais dos sistemas de IA prende-se com o facto de requerer que o treino passe por exemplos de todas as situações em que eles podem vir a funcionar. No caso dos exemplos anteriores, se uma criança vir apenas bolas vermelhas, não reconhecerá bolas amarelas, e se aprendermos a andar apenas em terreno liso e plano, teremos dificuldade em nos mover em terrenos acidentados ou íngremes. A aprendizagem humana é usualmente complementada seja por conhecimento abstrato, seja pela indicação de regras que devem ser adoptadas para a resolução de um problema. Por exemplo, que bolas são objectos esféricos, ou que durante um trajecto é preferível manter uma certa distância em relação a obstáculos vizinhos.
Para além desta exigência, muitas vezes difícil de satisfazer, os modelos de IA sofrem de outras limitações bem conhecidas.
Uma é o risco de enviesamento. Por exemplo, ao seleccionar estudantes para formações académicas, se o nosso objectivo for apenas seleccionar os estudantes que terão os melhores resultados, os filhos das classes favorecidas serão em geral preferidos, porque têm maior probabilidade de ter melhores notas. Tal como neste exemplo, os vieses destes modelos na realidade dos casos a desigualdades existentes nas nossas sociedades, e que se reflectem nos dados usados para treinar a IA. No entanto, enquanto que é fácil integrar critérios de equitabilidade em regras usadas por humanos, a correção dos vieses dos sistemas de IA é difícil.
Outra característica que levanta preocupações quanto ao uso generalizado dos sistemas de IA é a sua opacidade. Já dissemos que os modelos de IA funcionam como caixas pretas, não sendo possível explicar os resultados que produzem. Este facto, conhecido como o problema da não-explicabilidade, ou de não-transparência, torna-se particularmente importante em situações de guerra. A noção de intenção é fundamental em direito, e pressupõe actos cometidos por agentes racionais, permitindo atribuir a responsabilidade dos actos cometidos. O utilizador de um sistema de AI, que não pode perceber as razões das indicações fornecidas pelo sistema, pode dificilmente ser considerado responsável das eventuais consequências da sua utilização, criando assim uma situação de vazio legal.
«Por exemplo, os serviços de meteorologia recorrem a modelos computacionais baseados nas equações que descrevem os diferentes fenómenos físicos em jogo, para prever a evolução do estado do tempo. No contexto da IA, o termo "modelo" designa o resultado do treino com um certo jogo de dados.»
De uma forma intuitiva, pode-se dizer que a resposta de um modelo de IA a uma dada entrada é determinada pelos dados de treino que lhe são semelhantes. Na verdade, depende também de se existem muitos dados semelhantes ou não, mas deixemos este ponto de lado. Esta é talvez a mais profunda objecção à utilização de IA em cenários de guerra, em que podem estar em jogo vidas humanas. Para um modelo de IA, a decisão sobre um humano — reduzido, do ponto de vista do modelo de IA a um conjunto de números — não resulta da análise das suas características próprias, individuais, mas de informações disponíveis sobre outros humanos que o algoritmo considera como sendo «semelhantes».
Estas reservas ao uso da IA para fins militares — a possibilidade de viés, os problemas levantados pela opacidade, a não consideração singularidade de cada ser humano, — são quase unanimemente reconhecidas.
O cenário de guerra acarreta ainda outros problemas que se prendem com o DHI [Direito Humano Internacional]. O DHI é regido por 3 princípios fundamentais: o princípio de distinção, de proporcionalidade e de precaução, que visam minimizar o número de vítimas civis e os danos provocados a infra-estruturas não-militares.
Em particular, quando existem dúvidas sobre a identidade de um alvo, o DHI impõe que se considere que se trata de um «alvo civil». Assim, a incerteza da classificação de um alvo — como militar ou civil — dada por um algoritmo de IA é um factor que deve ser necessariamente tomado em conta. Infelizmente, para a avaliação dessa incerteza requer conjuntos de treino ainda maiores do que o treina do algoritmo de classificação, o que parece impossível na maioria dos contextos militares. Para além desta impossibilidade, e como salientou o Conselho dos Direitos Humanos das Nações Unidas, a recolha de dados para desenvolver instrumentos de guerra não poderá nunca ser considerada como uma acção «necessária para atingir um fim legítimo», e é ela mesma, portanto, uma violação de direitos fundamentais.
Os defensores da IA argumentam que a sua melhor performance em tarefas complexas de controlo e predição pode contribuir para um melhor respeito do Direito Humano Internacional. Na verdade, a possibilidade de dispor de melhores estimações das consequências dos actos de guerra, tanto a nível de vidas humanas como danos materiais, poderia de facto contribuir para um melhor respeito dos três princípios do DHI. Infelizmente, os relatos que nos provêm da guerra de Gaza não confirmam esta esperança, mostrando que não basta ter boa informação, é ainda necessário que ela seja usada de forma ética.
Os usos militares da IA
Não abordámos ainda os usos concretos da IA no domínio militar. Distingo aqui três grandes classes de sistemas: as Armas Autónomas Letais (AAL), os Sistemas de Ajuda à Decisão (SAD) e os instrumentos de guerra de informação, incluindo ciberataques.
As AAL são plataformas robóticas equipadas de armas, com sensores capazes de identificar os alvos que lhes são designados e accionar as suas cargas de maneira a neutralizá-los sem intervenção de um operador humano. Correspondem à ideia de «robots assassinos». Afastando o soldado do cenário da morte, estes sistemas contornam a aversão de humanos por tirar a vida de outros seres humanos. Do ponto de vista militar, as AAL permitem economizar a vida de combatentes, e prometem acções ofensivas de precisão quase cirúrgica. Contudo, existe um largo consenso internacional para exigir a sua proibição. É a recomendação de mais de 20 relatórios de organismos da ONU, que exortou (em 2024) os Estados membros a produzir textos regulando o seu desenvolvimento e utilização. Nas palavras de António Guterres, as AAL são «politicamente inaceitáveis» e «moralmente repugnantes».
Assistimos hoje a uma corrida ao desenvolvimento de novos sistemas militares por diversos países, em particular os EUA, Israel, China, Rússia, e Coreia do Sul. No que diz respeito às AAL, o nível de investimento e tecnologia necessário é muito menor do que o envolvido nas armas convencionais, e a sua proliferação pode resultar num aumento do número de conflitos.
As AAL são evoluções sofisticadas de mísseis anti-radiação como o sistema Harpy, que Israel desenvolve desde os anos 80. Equipados de carga explosiva, detectam passivamente os sinais emitidos pelos sistemas de radar inimigos, e utilizam esse mesmo sinal para se manter numa rota de colisão com ele, provocando assim a sua destruição no momento de embate. O mesmo princípio pode ser estendido a outro tipo de alvos, usando sensores e algoritmos de navegação apropriados à dinâmica dos alvos impactar. A possibilidade de manter estes sistemas permanentemente sob controlo do seu operador implica que eles deixem de ser passivos, o que os torna, portanto, mais vulneráveis. Desde pelo menos 2021 que Israel usa de forma operacional drones aéreos com armas embarcadas, capazes de voar em formação e cobrir assim extensas zonas para além da linha de combate. A sua utilização contra a Palestina em 2021 está documentada. Um dos mais recentes produtos israelitas (ROOSTER, 2025) é um robot híbrido (que se pode deslocar no solo ou de voar) capaz de operar no interior de edifícios ou em túneis subterrâneos, equipado de uma ogiva dirigida por algoritmos de IA que exploram dados de variados sensores embarcados para identificar e visar os seus alvos.
Passemos aos SAD. Enquanto as AAL agem no momento final de uso de força militar, os SAD contribuem para o processo de decisão militar. Enquanto que as AAL se substituem ao combatente humano, a função dos SAD é tornar mais eficientes e pertinentes as decisões tomadas.
Os processos que conduzem ao uso de força militar são complexos, envolvendo vários níveis, político, estratégico, operacional, táctico. Acredita-se que os SAD hoje em dia em funcionamento actuam sobretudo a nível operacional (identificação, selecção de alvos prioritários) e táctico (decisão concreta de emprego da força, com selecção dos meios operacionais e definição do calendário da operação, como o sistema Gotham da Palantir).
A IA é utilizada nos SAD em três tipos de tarefas: intelligence (automatizar e acelerar a colecta e análise em tempo real de dados), predição (caracterizar possíveis evoluções do cenário actual, avaliar o resultado de acções futuras) e prescrições (propor acções). Deve permitir, quando comparados a meios convencionais, um melhor conhecimento da situação, um tempo de resposta mais rápido, e melhor predição de eventuais danos colaterais. Segundo informações provenientes de Gaza (+972, Novembro de 2023) estes sistemas permitem de facto uma muito boa avaliação do número de civis que serão mortos, e que a inacreditável proporção de vítimas civis na Palestina não é o resultado de falta de informação, mas uma escolha deliberada de atingir a população.
«Desde pelo menos 2021 que Israel usa de forma operacional drones aéreos com armas embarcadas, capazes de voar em formação e cobrir assim extensas zonas para além da linha de combate.»
O sistema Meta Constellation da Palantir merece um relevo especial. Operacional desde a guerra na Ucrânia, este sistema selecciona em tempo real uma configuração de satélites que garante uma cobertura permanente de uma dada zona de interesse. Processando as imagens directamente nos satélites, apenas as imagens de interesse operacional são de facto transmitidas, permitindo o controlo em tempo real da neutralização das forças inimigas. Para além disso, este sistema é capaz de propor a arma mais eficaz para destruir o alvo visado e avalia o resultado da operação, que permite melhorar a sua precisão futura. Nas palavras do CEO da Palantir, Jeff Karp, trata-se de uma «cadeia digital de morte», que «aprende e melhora com cada ataque».
Necessitando de um tempo de análise muito mais curto do que um humano, o uso destes sistemas aumenta a cadência das operações militares. Enquanto que podem hoje decorrer apenas 2 a 3 minutos entre o momento que um alvo é detectado até que é «processado», o tempo requerido pelos meios clássicos é da ordem de horas. Um exemplo deste tipo de situações são o sistema Habsora (Evangelho) — nas palavras de um militar israelita uma «fábrica de assassínios em massa» — e o sistema Lavender, usado intensivamente no início da guerra de Gaza, que deixaria aos operacionais militares apenas 20 segundos para autorizar cada um dos ataques que são propostos. Como utilização inaceitável potenciada pela IA, pode-se ainda referir o sistema com o nome cínico de Where’s Daddy? que faz o seguimento de indivíduos suspeitos até às suas casas, para facilitar então a sua eliminação.
Os SAD baseados em IA levantam dois problemas principais. Em primeiro lugar, levam à concentração da atenção nos alvos humanos ou materiais designados pelo algoritmo de IA, determinados pelos seus dados de treino, sem que as razões que levaram à sua selecção possam ser explicitadas. Por outro lado, a velocidade com que o algoritmo indica novos alvos torna a sua validação de facto impossível. Aquilo que é conhecido como viés de automação — a tendência para aceitar a escolha da máquina, mesmo quando ela nos parece errada — é agravado, o humano transformando-se num validador sistemático das acções propostas pelo sistema artificial.
Em resumo, as objecções apontadas aos SAD prendem-se com a dificuldade em manter o efectivo controlo humano das operações militares, isto é, de garantir que são usados como instrumentos sofisticados de ajuda, mas que as decisões militares finais continuam a ser tomadas por humanos, que se torna plenamente responsável de todas as eventuais consequências.
A guerra trava-se, hoje em dia, também no domínio da informação, e as tecnologias de IA jogam aí um papel decisivo, seja para recolher dados, conduzir ou prevenir ciberataques, ou ainda para orquestrar campanhas de desinformação e propaganda.
As grandes empresas das novas tecnologias tornam-se assim, de facto, fornecedoras de material de guerra não convencional. O sistema Azur da Microsoft— servidores localizados na Holanda e na Irlanda — permite às forças armadas de Israel tratar os dados recolhidos pela escuta em massa das comunicações no interior da Palestina (1 milhão de chamadas por hora, segundo o Guardian, 6/08/2025), informando directamente as suas operações de guerra. Percebe-se assim que um coronel da IDF possa afirmar que a tecnologia cloud «é uma arma em todos os sentidos da palavra» como referido no relatório de Francesca Albanese sobre quem lucra com a guerra em Gaza.
«As grandes empresas das novas tecnologias tornam-se assim, de facto, fornecedoras de material de guerra não convencional.»
O mesmo pode ser dito em relação a muitas outras tecnologias de uso dual — cujo desenvolvimento, curiosamente, se encontra facilitado no âmbito do último programa quadro da UE. Muitos destes sistemas de tecnologia dual e consequentemente as infra-estruturas em que assentam são essenciais ao normal funcionamento das nossas sociedades actuais de alta tecnologia. Sabemos ao mesmo tempo que as somas de dinheiro em jogo em contratos militares não tem comparação com as que estão envolvidas naqueles que visam usos civis, o que leva a maioria das empresas a aceitar contratos militares. O facto de que estas infra-estruturas se possam tornar, por virtude, estratégias de maximização de lucro, instrumentos de guerra, transformam-nas em potenciais alvos. Parece, portanto, indispensável exigir uma separação «clínica» entre as empresas e as infra-estruturas que podem ser mobilizadas para a guerra, e aquelas que são exclusivamente dedicadas à implementação de serviços à população.
Contribui para uma boa ideia
Desde há vários anos, o AbrilAbril assume diariamente o seu compromisso com a verdade, a justiça social, a solidariedade e a paz.
O teu contributo vem reforçar o nosso projecto e consolidar a nossa presença.
Contribui aqui

