Il Pentagono contro Anthropic: la battaglia sui limiti etici dell'intelligenza artificiale militare
Il Dipartimento della Difesa degli Stati Uniti sta valutando la rescissione di un contratto da 200 milioni di dollari con Anthropic, azienda leader nello sviluppo di intelligenza artificiale. Al centro della controversia: il rifiuto di Anthropic di concedere al Pentagono accesso incontrollato al proprio modello di AI Claude per applicazioni militari.
La tensione tra l'amministrazione americana e l'azienda tecnologica solleva questioni fondamentali sul futuro dell'intelligenza artificiale in ambito militare e sui limiti etici che le aziende private possono – o devono – imporre ai governi.
Il Pentagono e le linee rosse di Anthropic
Nel luglio 2025, il Dipartimento della Difesa ha sottoscritto contratti con quattro importanti fornitori di AI: Anthropic, OpenAI, Google e xAI. L'obiettivo era integrare sistemi di intelligenza artificiale avanzati nelle operazioni militari e tattiche belliche.
Tuttavia, Anthropic si è distinta dalle altre aziende imponendo categorie di veto categorico che proibiscono:
- la sorveglianza di massa dei cittadini americani;
- sistemi d'arma completamente autonomi;
- l'uso di Claude in operazioni letali senza supervisione umana.
Questi limiti contrastano frontalmente con la richiesta del Pentagono di tecnologie disponibili per "tutte le applicazioni legali", inclusi progettazione di sistemi d'arma, operazioni di spionaggio e attività tattiche sul campo.
L'equivoco delle "applicazioni legali"
Il riferimento alle “applicazioni legali” dell’intelligenza artificiale in ambito militare appare estremamente vago. La nozione di legalità, infatti, dipende dagli impegni internazionali sottoscritti e dall’interpretazione del diritto bellico: proprio su questo terreno gli Stati Uniti hanno storicamente mantenuto ampi margini di discrezionalità. Washington non ha ratificato alcuni strumenti chiave del diritto umanitario e del controllo degli armamenti, preferendo preservare flessibilità operativa. Tra i trattati non ratificati o non pienamente accettati figurano il Protocollo aggiuntivo I alle Convenzioni di Ginevra (1977), che rafforza la protezione dei civili nei conflitti armati; lo Ottawa Treaty contro le mine antipersona; la Convention on Cluster Munitions sulle munizioni a grappolo; e lo Rome Statute of the International Criminal Court, che istituisce la Corte penale internazionale. Questa posizione consente agli USA di evitare vincoli che potrebbero limitare l’impiego di nuove tecnologie militari.
Il caso Venezuela: quando l'AI entra in operazioni militari reali
La disputa si è intensificata dopo le rivelazioni del Wall Street Journal sull'operazione "Maduro" di gennaio 2026. Secondo i report, il modello Claude sarebbe stato utilizzato durante l'operazione di cattura del presidente venezuelano Nicolás Maduro, che ha incluso anche bombardamenti su obiettivi a Caracas.
Un dipendente di Anthropic avrebbe avviato un'indagine interna per comprendere il ruolo specifico di Claude nell'operazione in Venezuela, sollevando preoccupazioni interne sull'uso militare del modello di Intelligenza Artificiale.
Le posizioni a confronto
Il Pentagono: flessibilità operativa non negoziabile
Il Dipartimento della Difesa sostiene che i sistemi intelligenti adattivi per intelligence, logistica e supporto decisionale non possono accettare restrizioni tecniche imposte unilateralmente dai fornitori. Il Segretario alla Difesa Pete Hegseth ha dichiarato esplicitamente che il Pentagono non impiegherà modelli di AI che limitino le capacità belliche.
La posizione militare è chiara: la flessibilità operativa è essenziale e le restrizioni etiche imposte dalle aziende rappresentano ostacoli operativi durante missioni critiche.
Anthropic: principi etici non negoziabili
Il capo di Anthropic, Dario Amodei, ha espresso specifiche preoccupazioni riguardo all'impiego dell'AI in operazioni letali autonome e nella sorveglianza di massa, identificandoli come due punti critici di attrito nelle negoziazioni con il Pentagono.
Amodei ha anche avvertito che un impiego militare dell'AI senza restrizioni rischia di far assomigliare gli stati democratici agli avversari autoritari. La sua posizione si distingue da quella di altri leader del settore per la richiesta pubblica di maggiori regolamentazioni in campo militare.
Anthropic ritiene che tutti gli usi della sua piattaforma di Intelligenza Artificiale, ossia Claude, devono conformarsi alle politiche d'uso dichiarate come accettabili, indipendentemente dal contesto governativo, e insiste sulla valutazione caso per caso piuttosto che su autorizzazioni generali.
Le alternative del Pentagono
Il Pentagono ha diverse alternative ad Anthropic:
- Partnership con OpenAI/Google che hanno standard d'uso più ampi;
- Fornitori di piattaforme integrate;
- Modelli open-source;
- Sviluppo interno che però richiede infrastrutture, tempo e competenze rare.
OpenAI e Google hanno dimostrato maggiore flessibilità nell'accettare i termini militari, posizionando Anthropic come anomalia nel panorama dei contratti governativi. Nonostante le pressioni, Anthropic ha mantenuto per ora i propri confini etici.
Il successo commerciale di Anthropic
Paradossalmente, mentre si confronta con il Pentagono, Anthropic ha registrato un notevole successo commerciale.
Questo successo dimostra la percorribilità commerciale dell'azienda indipendentemente dalle applicazioni militari.
La posta in gioco: chi definisce i limiti?
La disputa tra Anthropic e il Pentagono trascende uno scontro bilaterale di visioni, aprendo domande profonde sulla regolamentazione, la governance e i ruoli condivisi che imprese, stati e opinione pubblica devono assumere nella gestione strategica dell'Intelligenza artificiale.
---
Glossario
Anthropic
Anthropic è un'azienda di intelligenza artificiale fondata da ex membri di OpenAI, tra cui Dario Amodei. L'azienda si posiziona come leader nello sviluppo "responsabile" dell'AI, con particolare enfasi sulla sicurezza e sui limiti etici. Anthropic ha sviluppato Claude, uno dei modelli di linguaggio più avanzati al mondo. La società è valutata 380 miliardi di dollari dopo un raddoppio in sei mesi [source:zk48w19qqt8hnrekxa7i]. Nonostante le dichiarazioni pubbliche orientate alla sicurezza, l'azienda ha vissuto tensioni interne con dipendenti che l'hanno accusata di dare priorità alla crescita rispetto agli impegni per lo sviluppo responsabile dell'AI [source:riv26y7sm2m1jtkzykgt].
Claude
Claude è il modello di intelligenza artificiale conversazionale sviluppato da Anthropic. Si tratta di un sistema di AI generativa simile a ChatGPT di OpenAI o Gemini di Google, capace di comprendere e generare testo, analizzare documenti, assistere in compiti di ricerca e molto altro. Le politiche d'uso di Claude proibiscono esplicitamente la facilitazione della violenza, lo sviluppo di armi e la sorveglianza domestica [source:riv26y7sm2m1jtkzykgt]. Claude è stato reso disponibile ai circa tre milioni di membri del personale militare statunitense per analisi di documenti, generazione di report e supporto alla ricerca [source:riv26y7sm2m1jtkzykgt].
Dario Amodei
Dario Amodei è il CEO e cofondatore di Anthropic. In precedenza ha lavorato presso OpenAI, da cui si è separato insieme ad altri collaboratori per creare una narrativa di divergenza competitiva/filosofica attorno allo sviluppo responsabile dell'AI versus la commercializzazione orientata alla crescita [source:riv26y7sm2m1jtkzykgt]. Amodei si distingue dai suoi pari del settore per l'advocacy pubblica a favore di maggiori regolamentazioni dell'AI, salvaguardie di sicurezza e controlli sull'esportazione di chip per l'AI [source:riv26y7sm2m1jtkzykgt]. Ha pubblicato un saggio di 38 pagine avvertendo l'umanità sui rischi dell'AI dalla prospettiva di un costruttore di modelli di frontiera, sostenendo che l'attuale traiettoria tecnologica potrebbe produrre danni su scala civilizzazionale entro anni senza controlli e limiti più rigorosi [source:mnkujd8zf2iafza78cw2].
Pete Hegseth
Pete Hegseth è l'attuale Segretario alla Difesa degli Stati Uniti. Ha dichiarato pubblicamente che il Pentagono non impiegherà modelli di AI che non consentano capacità belliche, un commento che fa diretto riferimento alle negoziazioni con Anthropic e segnala le aspettative dell'amministrazione per l'allineamento dei contractor di AI con gli obiettivi militari [source:riv26y7sm2m1jtkzykgt].
---
Per PeaceLink questa vicenda rappresenta un caso di studio fondamentale sul ruolo dell'etica aziendale nel limitare usi militari della tecnologia e sulla tensione tra profitto, sicurezza nazionale e principi pacifisti. La posizione di Anthropic, pur commercialmente rischiosa, dimostra che esistono ancora spazi per imporre limiti alle applicazioni belliche dell'intelligenza artificiale, aprendo un dibattito necessario sui confini democratici della militarizzazione tecnologica.
https://www.ansa.it/canale_tecnologia/notizie/tecnologia/2026/02/16/pentagono-minaccia-di-tagliare-anthropic-disputa-su-limiti-a-ia_e59a8ddc-0f75-4a1f-88ac-0895cdddd42e.html
https://www.italian.tech/2026/02/16/news/pentagono-chiede-intelligenza-artificiale-senza-limiti-scopi-militari-antrhopic-dice-no-425162689/
https://www.ilsoftware.it/dipartimento-difesa-usa-e-anthropic-contrordine-sulluso-militare-di-claude/
https://www.hdblog.it/mercato/articoli/n648449/pentagono-anthropic-ai-militare/
https://www.milanofinanza.it/news/il-pentagono-ha-utilizzato-claude-di-anthropic-nel-raid-di-maduro-in-venezuela-202602161026095761
Articoli correlati
Una sintesi delle news tratte da Sociale.network e da PeaceLinkAlbert: il bollettino pacifista generato con l'IA di Open Notebook
Una sintesi di ciò che è stato fatto negli ultimi mesi. Il bollettino è stato realizzato con il software di Intelligenza Artificiale Generativa Open Notebook installato sul sito di PeaceLink. E' la prima esperienza di generazione di testi per la pace tramite piattaforma IA no profit.10 febbraio 2026 - Redazione PeaceLink
I colloqui per una moratoria di sei mesi sul Trattato si sarebbero svolti ad Abu DhabiNew START scaduto: c'è uno spiraglio di speranza per il Trattato sulle armi nucleari strategiche?
Per PeaceLink occorre fare pressione sul governo italiano e in particolare sul ministro degli Esteri perché prenda posizione a favore del rinnovo del Trattato New START e della filosofia che lo ha ispirato: mantenere al livello più basso possibile l'equilibrio delle forze nucleari strategiche.6 febbraio 2026 - Redazione PeaceLink
Scade il 5 febbraio lo storico trattato per il disarmo nucleareLettera al ministro degli Esteri per il rinnovo del trattato New START
Questo è un testo da inviare al Ministro degli Esteri. Ognuno lo può riadattare e firmare. È la traduzione in italiano di una lettera della campagna CND per il disarmo nucleare al ministro degli esteri britannico. Nel nostro caso va inviata al ministro Antonio Tajani.4 febbraio 2026 - CND- Schede di lettura semplificate
L’elenco dei programmi militari italiani della legislatura in corso
Ogni programma è preceduto dal numero dell'atto di governo. L'elenco è aggiornato alla data odierna. I programmi militari sono stati raggruppati per tipologia.3 febbraio 2026 - Redazione PeaceLink
Sociale.network