Una disputa da 200 milioni di dollari che ridefinisce i confini dell'AI nel settore bellico

Il Pentagono contro Anthropic: la battaglia sui limiti etici dell'intelligenza artificiale militare

Anthropic è un'azienda leader nello sviluppo di intelligenza artificiale. Il rifiuto di Anthropic di concedere al Pentagono accesso incontrollato al proprio modello di AI Claude per applicazioni militari solleva una questione etica di enorme portata
16 febbraio 2026
Redazione PeaceLink

Il Dipartimento della Difesa degli Stati Uniti sta valutando la rescissione di un contratto da 200 milioni di dollari con Anthropic, azienda leader nello sviluppo di intelligenza artificiale. Al centro della controversia: il rifiuto di Anthropic di concedere al Pentagono accesso incontrollato al proprio modello di AI Claude per applicazioni militari.

La tensione tra l'amministrazione americana e l'azienda tecnologica solleva questioni fondamentali sul futuro dell'intelligenza artificiale in ambito militare e sui limiti etici che le aziende private possono – o devono – imporre ai governi.

Il Pentagono e le linee rosse di Anthropic

Nel luglio 2025, il Dipartimento della Difesa ha sottoscritto contratti con quattro importanti fornitori di AI: Anthropic, OpenAI, Google e xAI. L'obiettivo era integrare sistemi di intelligenza artificiale avanzati nelle operazioni militari e tattiche belliche.

Tuttavia, Anthropic si è distinta dalle altre aziende imponendo categorie di veto categorico che proibiscono:
- la sorveglianza di massa dei cittadini americani;
- sistemi d'arma completamente autonomi;
- l'uso di Claude in operazioni letali senza supervisione umana.

Questi limiti contrastano frontalmente con la richiesta del Pentagono di tecnologie disponibili per "tutte le applicazioni legali", inclusi progettazione di sistemi d'arma, operazioni di spionaggio e attività tattiche sul campo.

L'equivoco delle "applicazioni legali"

Il riferimento alle “applicazioni legali” dell’intelligenza artificiale in ambito militare appare estremamente vago. La nozione di legalità, infatti, dipende dagli impegni internazionali sottoscritti e dall’interpretazione del diritto bellico: proprio su questo terreno gli Stati Uniti hanno storicamente mantenuto ampi margini di discrezionalità. Washington non ha ratificato alcuni strumenti chiave del diritto umanitario e del controllo degli armamenti, preferendo preservare flessibilità operativa. Tra i trattati non ratificati o non pienamente accettati figurano il Protocollo aggiuntivo I alle Convenzioni di Ginevra (1977), che rafforza la protezione dei civili nei conflitti armati; lo Ottawa Treaty contro le mine antipersona; la Convention on Cluster Munitions sulle munizioni a grappolo; e lo Rome Statute of the International Criminal Court, che istituisce la Corte penale internazionale. Questa posizione consente agli USA di evitare vincoli che potrebbero limitare l’impiego di nuove tecnologie militari.

Gli Stati Uniti hanno inoltre finora evitato di firmare trattati internazionali vincolanti che vietino lo sviluppo e l'uso di armi autonome (le cosiddette Lethal Autonomous Weapons Systems o LAWS). La posizione americana si basa sulla preferenza per misure non vincolanti e sul mantenimento della libertà d'azione tecnologica.

Il caso Venezuela: quando l'AI entra in operazioni militari reali

La disputa si è intensificata dopo le rivelazioni del Wall Street Journal sull'operazione "Maduro" di gennaio 2026. Secondo i report, il modello Claude sarebbe stato utilizzato durante l'operazione di cattura del presidente venezuelano Nicolás Maduro, che ha incluso anche bombardamenti su obiettivi a Caracas.

Un dipendente di Anthropic avrebbe avviato un'indagine interna per comprendere il ruolo specifico di Claude nell'operazione in Venezuela, sollevando preoccupazioni interne sull'uso militare del modello di Intelligenza Artificiale.

Le posizioni a confronto

Il Pentagono: flessibilità operativa non negoziabile

Il Dipartimento della Difesa sostiene che i sistemi intelligenti adattivi per intelligence, logistica e supporto decisionale non possono accettare restrizioni tecniche imposte unilateralmente dai fornitori. Il Segretario alla Difesa Pete Hegseth ha dichiarato esplicitamente che il Pentagono non impiegherà modelli di AI che limitino le capacità belliche.

La posizione militare è chiara: la flessibilità operativa è essenziale e le restrizioni etiche imposte dalle aziende rappresentano ostacoli operativi durante missioni critiche.

Anthropic: principi etici non negoziabili

Il capo di Anthropic, Dario Amodei, ha espresso specifiche preoccupazioni riguardo all'impiego dell'AI in operazioni letali autonome e nella sorveglianza di massa, identificandoli come due punti critici di attrito nelle negoziazioni con il Pentagono.

Amodei ha anche avvertito che un impiego militare dell'AI senza restrizioni rischia di far assomigliare gli stati democratici agli avversari autoritari. La sua posizione si distingue da quella di altri leader del settore per la richiesta pubblica di maggiori regolamentazioni in campo militare.

Anthropic ritiene che tutti gli usi della sua piattaforma di Intelligenza Artificiale, ossia Claude, devono conformarsi alle politiche d'uso dichiarate come accettabili, indipendentemente dal contesto governativo, e insiste sulla valutazione caso per caso piuttosto che su autorizzazioni generali.

Le alternative del Pentagono

Il Pentagono ha diverse alternative ad Anthropic:
- Partnership con OpenAI/Google che hanno standard d'uso più ampi;
- Fornitori di piattaforme integrate;
- Modelli open-source;
- Sviluppo interno che però richiede infrastrutture, tempo e competenze rare.

OpenAI e Google hanno dimostrato maggiore flessibilità nell'accettare i termini militari, posizionando Anthropic come anomalia nel panorama dei contratti governativi. Nonostante le pressioni, Anthropic ha mantenuto per ora i propri confini etici.

Il successo commerciale di Anthropic

Paradossalmente, mentre si confronta con il Pentagono, Anthropic ha registrato un notevole successo commerciale. 

Questo successo dimostra la percorribilità commerciale dell'azienda indipendentemente dalle applicazioni militari.

La posta in gioco: chi definisce i limiti?

La disputa tra Anthropic e il Pentagono trascende uno scontro bilaterale di visioni, aprendo domande profonde sulla regolamentazione, la governance e i ruoli condivisi che imprese, stati e opinione pubblica devono assumere nella gestione strategica dell'Intelligenza artificiale.

---

Glossario

Anthropic
Anthropic è un'azienda di intelligenza artificiale fondata da ex membri di OpenAI, tra cui Dario Amodei. L'azienda si posiziona come leader nello sviluppo "responsabile" dell'AI, con particolare enfasi sulla sicurezza e sui limiti etici. Anthropic ha sviluppato Claude, uno dei modelli di linguaggio più avanzati al mondo. La società è valutata 380 miliardi di dollari dopo un raddoppio in sei mesi [source:zk48w19qqt8hnrekxa7i]. Nonostante le dichiarazioni pubbliche orientate alla sicurezza, l'azienda ha vissuto tensioni interne con dipendenti che l'hanno accusata di dare priorità alla crescita rispetto agli impegni per lo sviluppo responsabile dell'AI [source:riv26y7sm2m1jtkzykgt].

Claude
Claude è il modello di intelligenza artificiale conversazionale sviluppato da Anthropic. Si tratta di un sistema di AI generativa simile a ChatGPT di OpenAI o Gemini di Google, capace di comprendere e generare testo, analizzare documenti, assistere in compiti di ricerca e molto altro. Le politiche d'uso di Claude proibiscono esplicitamente la facilitazione della violenza, lo sviluppo di armi e la sorveglianza domestica [source:riv26y7sm2m1jtkzykgt]. Claude è stato reso disponibile ai circa tre milioni di membri del personale militare statunitense per analisi di documenti, generazione di report e supporto alla ricerca [source:riv26y7sm2m1jtkzykgt].

Dario Amodei
Dario Amodei è il CEO e cofondatore di Anthropic. In precedenza ha lavorato presso OpenAI, da cui si è separato insieme ad altri collaboratori per creare una narrativa di divergenza competitiva/filosofica attorno allo sviluppo responsabile dell'AI versus la commercializzazione orientata alla crescita [source:riv26y7sm2m1jtkzykgt]. Amodei si distingue dai suoi pari del settore per l'advocacy pubblica a favore di maggiori regolamentazioni dell'AI, salvaguardie di sicurezza e controlli sull'esportazione di chip per l'AI [source:riv26y7sm2m1jtkzykgt]. Ha pubblicato un saggio di 38 pagine avvertendo l'umanità sui rischi dell'AI dalla prospettiva di un costruttore di modelli di frontiera, sostenendo che l'attuale traiettoria tecnologica potrebbe produrre danni su scala civilizzazionale entro anni senza controlli e limiti più rigorosi [source:mnkujd8zf2iafza78cw2].

Pete Hegseth
Pete Hegseth è l'attuale Segretario alla Difesa degli Stati Uniti. Ha dichiarato pubblicamente che il Pentagono non impiegherà modelli di AI che non consentano capacità belliche, un commento che fa diretto riferimento alle negoziazioni con Anthropic e segnala le aspettative dell'amministrazione per l'allineamento dei contractor di AI con gli obiettivi militari [source:riv26y7sm2m1jtkzykgt].

---

Per PeaceLink questa vicenda rappresenta un caso di studio fondamentale sul ruolo dell'etica aziendale nel limitare usi militari della tecnologia e sulla tensione tra profitto, sicurezza nazionale e principi pacifisti. La posizione di Anthropic, pur commercialmente rischiosa, dimostra che esistono ancora spazi per imporre limiti alle applicazioni belliche dell'intelligenza artificiale, aprendo un dibattito necessario sui confini democratici della militarizzazione tecnologica.

Note: Fonti

https://www.ansa.it/canale_tecnologia/notizie/tecnologia/2026/02/16/pentagono-minaccia-di-tagliare-anthropic-disputa-su-limiti-a-ia_e59a8ddc-0f75-4a1f-88ac-0895cdddd42e.html

https://www.italian.tech/2026/02/16/news/pentagono-chiede-intelligenza-artificiale-senza-limiti-scopi-militari-antrhopic-dice-no-425162689/

https://www.ilsoftware.it/dipartimento-difesa-usa-e-anthropic-contrordine-sulluso-militare-di-claude/

https://www.hdblog.it/mercato/articoli/n648449/pentagono-anthropic-ai-militare/

https://www.milanofinanza.it/news/il-pentagono-ha-utilizzato-claude-di-anthropic-nel-raid-di-maduro-in-venezuela-202602161026095761

Articoli correlati

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.8.31 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)