Ultime tendenze e sfide nell'ecosistema delle Intelligenze Artificiali - vol. 27
Ultime tendenze e sfide nell'ecosistema delle Intelligenze Artificiali - vol. 27

Ultime tendenze e sfide nell'ecosistema delle Intelligenze Artificiali - vol. 27

Autore: Daniele Grandini

Anthropic, il Pentagono e la nuova linea di frattura nell'Intelligenza Artificiale per la Difesa

Il confronto tra il Pentagono e Anthropic indica che, nella difesa, la governance dell'AI sta diventando parte integrante del prodotto, della filiera di approvvigionamento e della competizione geopolitica con la Cina.

Executive Summary

La rottura tra il Pentagono e Anthropic non è una semplice disputa contrattuale. Rappresenta una prima verifica su chi stabilisce le regole operative per la military AI: lo Stato che acquista il modello o l’azienda che lo sviluppa. Anthropic dichiara di supportare i lavori per la sicurezza nazionale e di aver già implementato Claude su sistemi classificati statunitensi, ma si è rifiutata di consentire due utilizzi: la sorveglianza domestica di massa e armi completamente autonome. Il Pentagono ha ora classificato Anthropic come “rischio della filiera di approvvigionamento” e Anthropic ha intentato causa il 9 marzo 2026.

Questo confronto sarebbe rilevante anche da solo. Tuttavia, acquista maggiore importanza perché si inserisce in un contesto di altri sviluppi: la dichiarazione di Anthropic secondo cui DeepSeek, Moonshot e MiniMax avrebbero condotto campagne di distillation (processo di estrazione delle capacità di un modello AI da un altro) su scala industriale contro Claude, e un report Reuters secondo cui funzionari statunitensi credono che DeepSeek abbia addestrato un nuovo modello su chip Nvidia Blackwell (chip di fascia alta vietati per l’esportazione in Cina) in Mongolia Interna. Il messaggio è chiaro: Washington sta esercitando pressioni su uno dei suoi laboratori di frontiera per limiti all’uso democratico, mentre la Cina è accusata di combinare evasione delle sanzioni con estrazione di capacità.

Per i dirigenti, l’implicazione è immediata: la AI governance non è più un semplice involucro politico attorno al modello. Nei mercati della difesa, delle infrastrutture critiche e delle imprese regolamentate, la governance diventa parte integrante del prodotto stesso.

Punti Chiave

    • La disputa tra Anthropic e il Pentagono ruota attorno a due linee rosse esplicite: nessuna sorveglianza domestica di massa e nessun uso di armi completamente autonome.
    • Claude era già profondamente integrato nei lavori di sicurezza nazionale statunitensi, inclusi ambienti classificati, prima della rottura dei rapporti.
    • La classificazione di Anthropic come “rischio della filiera di approvvigionamento” da parte del Pentagono è particolarmente severa per un’azienda americana e può esercitare pressioni su appaltatori e partner dell’ecosistema, non solo sul fornitore stesso.
    • Anthropic afferma che laboratori cinesi hanno utilizzato circa 24.000 account fraudolenti e più di 16 milioni di interazioni con Claude per distillare capacità nei loro modelli.
    • Reuters riporta che un alto funzionario dell’amministrazione Trump ha affermato che DeepSeek ha utilizzato chip Nvidia Blackwell, vietati per l’esportazione in Cina, per addestrare il suo nuovo modello.
    • La questione strategica non è più se l’AI di frontiera verrà utilizzata nella difesa, ma quali aziende stabiliranno limiti applicabili e se questi limiti resisteranno alle pressioni politiche.

Analisi Approfondita

Il Pentagono trasforma la prudenza di Anthropic in un segnale di mercato

C’è una ragione per cui questo episodio risuona oltre Washington. Nei mercati aziendali, gli acquirenti affermano di volere modelli potenti ma con controlli rigorosi. La posizione di Anthropic offre una prova concreta: quando sottoposta a pressioni, ha scelto di mantenere due restrizioni precise anziché accettare un uso militare illimitato. Per alcuni acquirenti governativi ciò è motivo di esclusione; per molti consigli d’amministrazione, banche, gruppi sanitari e operatori di infrastrutture critiche, è la dimostrazione che i guardrails dell’azienda non sono solo branding.

Ecco perché la mossa del Pentagono potrebbe diventare involontariamente una pubblicità positiva. Un fornitore punito per aver rifiutato la sorveglianza di massa e sistemi di armi completamente autonome potrebbe apparire, agli occhi dei clienti commerciali, meno come un rischio e più come un partner serio in materia di governance. Più l’AI si integra nei processi sensibili, più questa percezione conta.

L’AI per la difesa si sposta dalla performance dei modelli all’architettura delle regole d’uso

Il vecchio paradigma era modello contro modello: accuratezza, latenza, performance multimodale, costo per token. Gli acquirenti della difesa continuano a considerare questi aspetti. Tuttavia, questo scontro mostra che il prossimo livello di procurement è l’architettura delle regole d’uso: chi controlla la distribuzione, chi può scavalcare le salvaguardie, dove è obbligatoria la supervisione umana e se tali condizioni sono contrattuali, tecniche o solo politiche.

La posizione di Anthropic è particolarmente esplicita. OpenAI, dopo critiche sul proprio accordo con il Pentagono, ha dichiarato che il suo contratto continua a bloccare sorveglianza e armi autonome tramite controlli tecnici, contrattuali e del personale. Google, invece, ha aggiornato i suoi AI Principles nel febbraio 2025, eliminando le precedenti dichiarazioni contro armi e sorveglianza, orientandosi più apertamente verso la sicurezza nazionale. Il campo competitivo, quindi, non è “etico” contro “non etico”, ma una gamma di fornitori che offrono modelli di governance molto diversi allo Stato.

Questa distinzione conta a livello commerciale. Un dipartimento della difesa può sostituire i modelli più facilmente di quanto possa modificare la dipendenza istituzionale. Una volta che un’agenzia progetta processi, sistemi di approvazione e missioni attorno a una struttura di governance, quella scelta si riflette su procurement, compliance e interoperabilità tra alleanze.

Il presunto piano cinese accentua la contraddizione

Il caso Anthropic sarebbe già significativo senza la Cina. Con la Cina, diventa strategicamente problematico per Washington. Anthropic sostiene che DeepSeek, Moonshot e MiniMax abbiano utilizzato distillation su scala industriale per estrarre le capacità di Claude, adattandosi rapidamente dopo ogni nuova release. Anthropic afferma che i sistemi distillati possono trasportare capacità senza le salvaguardie originali.

Quasi contemporaneamente, Reuters ha riportato che un alto funzionario statunitense ha accusato DeepSeek di aver addestrato un nuovo modello su chip Blackwell in Cina, malgrado i divieti di esportazione. Tale affermazione rimane per ora un'ipotesi, ma se dovesse trovare conferma, il quadro sarebbe chiaro: l'uso di hardware limitato, unito all'adozione di soluzioni prese in prestito dai modelli all'avanguardia, sta diventando una strategia di “fast-follow” praticabile.

Questo crea la contraddizione centrale. Il problema strategico degli Stati Uniti non è che i suoi laboratori abbiano troppe linee rosse, ma che i sistemi concorrenti possano raggiungere capacità di frontiera tramite evasione delle sanzioni, estrazione di capacità e salvaguardie più deboli. Penalizzare un fornitore domestico per aver rifiutato due usi specifici rischia di inviare il segnale di mercato sbagliato nel momento sbagliato.

Il vero standard: i governi democratici tollerano limiti imposti dai fornitori?

Questa è l’implicazione più profonda per l’AI nella difesa. La domanda non è se i militari debbano usare modelli di frontiera; lo fanno già. La questione è se i governi democratici accetteranno che fornitori privati possano imporre limiti chiari e comprensibili sull’uso da parte dello Stato.

Se la risposta è no, il mercato favorirà i fornitori disposti a firmare clausole per “tutti gli scopi leciti” e a risolvere la governance successivamente. Se la risposta è sì, l’AI per la difesa potrebbe evolversi come l’aviazione o la cybersecurity: sistemi ad alte prestazioni, ma dentro vincoli operativi espliciti, auditabilità e controlli stratificati. Anthropic sta portando questa scelta alla luce del sole.

Implicazioni per il Business

I consigli d'amministrazione dovrebbero interpretare questo episodio come un evento di procurement e platform governance, non solo come una controversia di Washington.

  • Primo, la selezione dei modelli nei settori sensibili dipenderà sempre più da restrizioni d’uso applicabili, non solo dalla performance di benchmark.
  • Secondo, il “rischio della filiera di approvvigionamento” si sta ampliando dai chip e hardware di telecomunicazioni alle dipendenze da foundation models, il che implica che team legali, fornitori e responsabili della continuità debbano mappare dove i modelli di frontiera sono integrati nei prodotti e nei flussi di lavoro.
  • Terzo, i controlli all’esportazione non bastano più. Se la distillation e l’accesso fraudolento possono replicare capacità su larga scala, la postura di sicurezza del modello diventa parte della resilienza geopolitica.

Per i principali player della difesa, piattaforme cloud e aziende di software enterprise, ciò significa che lo stack dell’AI si sta frammentando in almeno tre categorie: fornitori governati rigidamente, fornitori flessibili disposti a soddisfare le richieste statali più ampie, e sfidanti stranieri accusati di comprimere i cicli di sviluppo tramite copying e fuga delle sanzioni. Questa frammentazione plasmerà le strategie di partnership, le scelte di alleanza e le roadmap di prodotto nei prossimi 12-24 mesi.

Perché è Importante

Questa battaglia riguarda la possibilità che l’Occidente costruisca un ecosistema di defense AI che sia utile militarmente e difendibile politicamente. La posizione di Anthropic non respinge il lavoro per la difesa; il suo record pubblico dimostra il contrario. Ciò che respinge è l’idea che ogni uso lecito debba automaticamente diventare un uso accettabile del prodotto. In un mercato inondato di discorsi sulla “responsible AI”, questo è un raro momento in cui la governance è diventata costosa.

Ecco perché l’episodio ha implicazioni che vanno ben oltre Anthropic. Se la politica americana punisce i laboratori domestici per aver posto limiti democratici precisi mentre i concorrenti cinesi sono accusati di rubare capacità e aggirare i controlli sui chip, gli Stati Uniti rischiano di ottimizzare la compliance a scapito della qualità strategica.

Lo standard migliore non consiste nell'indebolire le misure di salvaguardia, bensì nel rafforzare i fornitori nazionali, nell'intensificare l'applicazione delle norme tecniche e nel stipulare contratti nel settore della difesa che garantiscano la responsabilità umana senza cedere alcun vantaggio ai paesi autoritari che seguono rapidamente l'esempio.

 

Daniele Grandini

Daniele Grandini

Ha più di 30 anni di esperienza nel campo delle applicazioni e dei sistemi distribuiti, con competenze in sviluppo software, architetture di monitoring, progettazione di servizi gestiti e soluzioni cloud ibride.
È Microsoft MVP dal 2009 e speaker in diverse conferenze nazionali.
In qualità di Chief Innovation Officer, coordina le iniziative per i servizi gestiti e data analytics e AI in Impresoft 4ward.