Terá sido a primeira guerra decidida por um algoritmo?
Durante décadas, iniciar uma guerra exigia decisões humanas baseadas em provas, análises estratégicas e responsabilidade política. Hoje, esse modelo está a desmoronar. Estamos a entrar numa nova era da guerra por inferência algorítmica, onde a inteligência artificial (IA) já não apenas informa, mas pode desencadear ataques.
O bombardeamento dos EUA às instalações nucleares iranianas, alegadamente justificado por uma ameaça detetada por algoritmos da Palantir Technologies, é talvez o primeiro episódio concreto dessa transformação.
A acusação de que o Irão estaria a movimentar ou a montar um dispositivo nuclear não veio de espiões, nem da Agência Internacional de Energia Atómica (IAEA), mas alegadamente de uma inferência gerada por IA, operada por uma plataforma desenvolvida pela Palantir, empresa de análise de dados com fortes ligações ao Departamento de Defesa dos EUA e aos serviços secretos israelitas.
A narrativa passou rapidamente de hipótese algorítmica à decisão de um presidente impulsivo e consequentemente à intervenção militar. Este casamento entre software e soberania levanta inevitavelmente questões, como até que ponto pode um país delegar a sua segurança a uma empresa privada? E que implicações tem isso para a geopolítica global?
As instalações de Fordow, Natanz e Isfahan foram atacadas com bombas antibunker e mísseis de cruzeiro. No entanto, as imagens de satélite que se seguiram não revelaram danos visíveis ou colapsos estruturais. Os níveis de radiação mantiveram-se estáveis e não houve sinais sísmicos. O único impacto claro foi político, com o colapso da diplomacia como primeira linha de contenção.
Este cenário levanta-nos a dúvida se estamos a delegar decisões de guerra a máquinas ou a humanos. A IA é apresentada como objetiva e neutra, mas os algoritmos não são independentes, pois refletem os dados e os critérios com que são programados e treinados. O que se define como “risco” ou “ameaça” é uma escolha humana, disfarçada de cálculo matemático.
A Palantir, que fornece as ferramentas Gotham, Foundry e AIP/Mosaic, não é neutra. É uma empresa inserida no ecossistema do complexo militar-industrial, que lucra com a antecipação de ameaças. Quando essa antecipação se torna justificativa para a guerra, a diplomacia é substituída pelo reflexo automático. E o que vimos no Irão pode bem ter sido a primeira guerra desencadeada por premonição digital.
Mais grave é a erosão do escrutínio democrático. Um ataque justificado com “inteligência algorítmica classificada” escapa ao controlo de parlamentos, à verificação jornalística e ao debate público. A opacidade já não é apenas política, é técnica. E, nesse ambiente, os algoritmos transformam-se em escudos de impunidade.
Este ataque não marca apenas a entrada dos EUA no conflito entre Israel e o Irão. Marca o fim simbólico da verificação multilateral e o início de uma geopolítica automatizada. O que antes exigia consenso e inspeção, hoje basta que seja inferido por uma máquina.
No domingo passado, abriu-se uma verdadeira Caixa de Pandora no sistema internacional. As decisões mais perigosas para a paz mundial parecem estar a ser tomadas por máquinas que projetam comportamentos, sem provas concretas, nem validação humana. A confiança cega na tecnologia, vendida como eficiência, revela o seu lado mais sombrio, o de uma guerra gerada por dados mal interpretados.
Se outrora as guerras se venciam com território e armamento, hoje discutem-se em dashboards interativos e algoritmos preditivos. O que começou com uma linha de código pode terminar com uma cadeia de destruição impossível de travar, num mundo onde o juízo humano já não é pré-requisito para a guerra, mas uma variável descartável.
Especialista em governação eletrónica