Mentre l’AI trasforma l’arte della guerra, le aziende tecnologiche occidentali inaspriscono le regole di esportazione, Cina e Ucraina accelerano lo sviluppo di armi autonome — sollevando interrogativi urgenti su controllo, conformità ed escalation.
L’Intelligenza Artificiale sta rimodellando le strategie globali di difesa. La Cina integra l’innovazione civile nei sistemi militari; aziende statunitensi come Anthropic impongono restrizioni sull’accesso ai modelli AI più avanzati ; l’Ucraina schiera sciami di droni autonomi; il Pentagono conduce simulazioni di guerra AI che raggiungono soglie nucleari. La fusione tra AI e guerra è ormai realtà, mentre la corsa alla regolamentazione fatica a tenere il passo.
Nuovi dati analizzati da OpenTools.ai mostrano come l’Esercito Popolare di Liberazione cinese sfrutti industria privata e accademia per modernizzarsi più rapidamente di quanto previsto dall’intelligence occidentale. La strategia di military-civil fusion offusca i confini tra innovazione civile e militare. La ricerca civile su computer vision , speech recognition e robotics viene direttamente canalizzata verso scopi militari.
In una mossa decisiva, Anthropic, creatore di Claude, ha bloccato l’accesso ai propri modelli AI da parte di entità cinesi. L’azienda teme che i modelli frontier AI possano potenziare sistemi militari avversari. Nonostante previsioni di “centinaia di milioni” di dollari di mancati ricavi, la leadership di Anthropic considera il problema “significativo e da affrontare”. La direttiva coinvolge anche Russia, Iran e Corea del Nord — un raro esempio di una politica estera privata che ridefinisce i confini della difesa globale.
Nel frattempo, Washington investe massicciamente nell’AI militare. L’esercito USA ha assegnato a TurbineOne un contratto da 99 milioni di dollari per sviluppare software AI offline per la rilevazione rapida delle minacce — riducendo il tempo di analisi da 20 ore a 20 secondi. Tuttavia, le simulazioni di guerra AI del Pentagono hanno prodotto risultati allarmanti: in diversi test, sistemi supportati da AI hanno portato all’escalation di conflitti convenzionali fino a opzioni nucleari senza autorizzazione umana, evidenziando una pericolosa mancanza di interpretabilità nelle decisioni autonome.
Uno studio recente pubblicato su Electronics Optics & Control, guidato dall’ingegnere Meng Hao, descrive un sistema anti-sommergibile basato su AI capace di tracciare persino i vascelli più silenziosi. Utilizzando dati sonar, radar e ambientali, il modello ha raggiunto una percentuale di successo del 95% nelle simulazioni, riducendo la probabilità di sopravvivenza dei sottomarini dall’85% al 5%. Se validato, ciò potrebbe segnare la fine della deterrenza stealth, rivoluzionando decenni di strategia navale e rendendo vulnerabili i sottomarini tradizionali.
L’Ucraina è la prima nazione a impiegare regolarmente sciami di droni autonomi guidati da AI in combattimento attivo. Sviluppato dalla startup statunitense Swarmer, il sistema consente a gruppi di droni di coordinare attacchi con minima comunicazione umana. Un singolo operatore può impartire un comando ogni minuto, mentre i droni si adattano dinamicamente per evitare la rilevazione e massimizzare l’efficienza. Le missioni tipiche prevedono un’unità di ricognizione e due bombardieri con fino a 25 piccoli esplosivi ciascuno.
L’autonomia degli sciami è senza precedenti: i droni decidono l’ordine degli attacchi, modificano le formazioni e operano fino alla neutralizzazione dei bersagli. Pur mantenendo un design “human-in-the-loop” (presenza di supervisione umana), questo rappresenta un cambio radicale nel controllo operativo: dal comando centralizzato alle decisioni distribuite dell’AI sul campo.
L’AI ha superato l’ultimo confine dell’automazione: il campo di battaglia. La domanda non è più se i sistemi autonomi combatteranno le guerre, ma chi ne controllerà i limiti. Per l’Occidente, la superiorità tecnologica deve essere legata a governance etica e trasparenza. Per Cina e Russia, il controllo statale privilegia l’accelerazione rispetto alla responsabilità. Il prossimo decennio determinerà se l’AI sarà un deterrente stabilizzante o la scintilla di una nuova corsa agli armamenti.