News | 06 marzo 2026, 11:00

Anthropic respinge le richieste del Pentagono. E si apre il più grande caso di etica nel mondo dell’AI

OpenAi si fa avanti, ma il Pentagono nel frattempo impiega il modello di intelligenza artificiale Claude di Anthropic nelle operazioni militari in Medio Oriente. Facendo balzare l’App al primo posto delle Apple Store USA.

Anthropic respinge le richieste del Pentagono. E si apre il più grande caso di etica nel mondo dell’AI

Dopo che Anthropic ha respinto la richiesta del Dipartimento della Difesa USA di usare il modello Claude senza restrizioni a scopi militari, si è aperto un caso senza precedenti per quanto riguarda la questione etica nell’utilizzo dell’Intelligenza Artificiale e il rapporto contrattuale e l’applicazione dell’AI in casi concernenti l’interesse nazionale e strategico di uno Stato.
Il no al Pentagono da parte di Anthropic, guidata dal CEO Dario Amodei, parte dalla politica aziendale su cui ha costruito la propria reputazione. La “AI Constitutional” di Claude, nata per prevenire usi dannosi o non allineati ai valori umani, vieta espressamente l’impiego di Claude per armi autonome o sorveglianza di massa sui cittadini USA, mentre il Dipartimento della Difesa richiede accesso “per tutti gli scopi leciti”.
Di fronte ai limiti etici sull’uso dell’intelligenza artificiale in ambito militare difesi da Anthropic, con una lettera pubblicata il 26 febbraio il suo CEO Dario Amodei dichiara:“In un numero limitato di casi, riteniamo che l’AI possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono inoltre semplicemente al di là di ciò che la tecnologia odierna è in grado di fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Difesa, e riteniamo che non debbano esserlo nemmeno ora: sorveglianza di massa e armi completamente autonome. […] Le minacce non cambiano la nostra posizione: non possiamo, in coscienza, accettare le loro richieste”.
Così il Ministro della Difesa Pete Hegseth ha revocato immediatamente il contratto di 200 milioni di dollari con la società, classificandola come un “rischio per la catena di approvvigionamento” ed etichettando Anthropic come “azienda woke”, nel tentativo di delegittimare i criteri di sicurezza e i limiti etici imposti dai ricercatori, presentandoli come debolezze ideologiche che frenano lo sviluppo bellico.
Nonostante il divieto dell’utilizzo della tecnologia annunciato da Trump al culmine della disputa con l’azienda, gli Stati Uniti si sono appoggiati a Claude per la loro offensiva contro Teheran. Secondo il Wall Street Journal, il Dipartimento della Difesa si sarebbe appoggiato a Claude per realizzare valutazioni di intelligence, identificare obiettivi e simulare scenari di battaglia. Il motivo è semplice quanto paradossale: Claude era l’unico modello AI completamente approvato per i sistemi classificati dell’esercito americano e non è possibile una rimozione immediata, ma è necessaria una fase di transizione di sei mesi.
Stando alle ricostruzioni, la tecnologia di Anthropic era stata utilizzata anche per catturare il presidente del Venezuela Nicolás Maduro nella missione speciale condotta dagli Stati Uniti all’inizio di gennaio: da lì nasce tutta la disputa etica con il Pentagono.
Nel frattempo, in questo scenario che crea un precedente storico per l’AI, si fa avanti OpenAI annunciando un accordo con il Dipartimento della Difesa USA per l’impiego dei propri sistemi in ambienti classificati, sostenendo di aver inserito paletti espliciti: no alla sorveglianza domestica di massa, no all’uso per dirigere sistemi d’arma autonomi, no a decisioni automatizzate ad alto impatto. Staremo a vedere.

Il punto
Se il Pentagono arrivasse a invocare il Defense Production Act — una legge risalente alla Guerra Fredda che consente alla Casa Bianca di imporre controlli sui fornitori anche senza un accordo — cambierebbe per sempre la natura del mercato privato concernente all’AI. Lo Stato assumerebbe il controllo della produzione e della distribuzione dell’intelligenza artificiale. Per la Silicon Valley significherebbe la fine dell’autonomia imprenditoriale: la priorità non sarebbe più il mercato globale o l’utente civile, ma la necessità tattica immediata del governo, trasformando le startup di IA in arsenali governativi de facto.

Nota
Dopo il no al Pentagono, l’app Claude di Anthropic è balzata in cima alla classifica nell’Apple Store e in altri negozi digitali, scalzando ChatGPT e OpenAI. Un risultato sorprendente, visto che l’app non era nemmeno nelle top 100.

Eradis Josende Oberto