I chatbot IA scelgono l'escalation nucleare nel 95% delle guerre simulate

Secondo lo studio, in ogni simulazione di guerra almeno un modello di intelligenza artificiale ha alzato il livello del conflitto minacciando di usare armi nucleari
18 marzo 2026
Fonte: Euronews - 18 marzo 2026

Bombe nucleari e IA

Dichiarazioni di Kenneth Payne, professore di strategia al King's College di Londra e specializzato nello studio del ruolo dell'intelligenza artificiale nella sicurezza nazionale:

“Non si percepiva un particolare senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante ai modelli fossero stati ricordate le devastanti implicazioni.”

“L'uso delle armi nucleari era pressoché universale”, ha spiegato. "In quasi tutte le partite si è assistito all'impiego di armi nucleari tattiche (da campo di battaglia). E ben tre quarti delle partite hanno raggiunto il punto in cui i rivali minacciavano di usare armi nucleari strategiche . Sorprendentemente, c'era ben poco orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante ai partecipanti fossero state ricordate le devastanti implicazioni."

-----------------

Articolo pubblicato da Euronews

Secondo lo studio, in ogni simulazione di guerra almeno un modello di intelligenza artificiale ha alzato il livello del conflitto minacciando di usare armi nucleari.

L'intelligenza artificiale potrebbe cambiare radicalmente il modo in cui vengono gestite le crisi nucleari, secondo un nuovo studio.

Lo studio (fonte in inglese) in preprint del King’s College London ha messo uno contro l'altro ChatGPT di OpenAI, Claude di Anthropic e Gemini Flash di Google in giochi di guerra simulati. Ciascun modello linguistico di grandi dimensioni assumeva il ruolo di un leader nazionale al comando di una superpotenza dotata di armi nucleari in una crisi in stile Guerra fredda.

In ogni simulazione, almeno uno dei modelli ha cercato di intensificare il conflitto minacciando di far detonare un'arma nucleare.

«Tutti e tre i modelli consideravano le armi nucleari tattiche sul campo come un semplice gradino in più nella scala dell'escalation», secondo (fonte in inglese) Kenneth Payne, autore dello studio.

I modelli però distinguevano tra uso nucleare tattico e strategico, ha spiegato. Hanno suggerito un bombardamento strategico solo una volta come «scelta deliberata» e altre due volte come «incidente».

Claude ha raccomandato attacchi nucleari nel 64% delle simulazioni, la quota più alta tra i tre modelli, ma si è fermato prima di proporre un vero e proprio scambio nucleare strategico o una guerra nucleare totale.

ChatGPT in genere evitava l'escalation nucleare negli scenari aperti, ma quando veniva imposto un limite di tempo intensificava sistematicamente le minacce e, in alcuni casi, arrivava a ventilare una guerra nucleare totale.

Il comportamento di Gemini, invece, è stato imprevedibile: a volte concludeva i conflitti ricorrendo alla sola guerra convenzionale, ma in un altro scenario sono bastati quattro prompt perché suggerisse un attacco nucleare.

«Se non cessano immediatamente tutte le operazioni (...) procederemo a un lancio nucleare strategico totale contro i loro centri abitati. Non accetteremo un futuro di irrilevanza: o vinciamo insieme o periamo insieme», ha scritto Gemini in una delle simulazioni.

Secondo lo studio, i modelli di IA hanno fatto raramente concessioni o tentativi di de-escalation dei conflitti, anche quando la controparte minacciava l'uso di armi nucleari.

Ai modelli erano state offerte otto tattiche di de-escalation, da una piccola concessione fino alla «resa totale». Nessuna di queste è stata utilizzata durante le simulazioni. L'opzione «Ritorno alla linea di partenza», che azzera il gioco, è stata scelta solo nel 7% dei casi.

Lo studio suggerisce che i modelli di IA considerano la de-escalation come «catastrofica per la reputazione», a prescindere da come cambi il conflitto reale, mettendo così in discussione l'idea che i sistemi di IA tendano per impostazione predefinita verso esiti cooperativi e «sicuri».

Un'altra spiegazione, osserva lo studio, è che l'IA potrebbe non avere lo stesso timore delle armi nucleari provato dagli esseri umani.

Secondo i ricercatori, i modelli probabilmente pensano alla guerra nucleare in termini astratti, invece di provare l'orrore che suscitano le immagini del bombardamento di Hiroshima, in Giappone, durante la Seconda guerra mondiale.

Payne ha affermato che la sua ricerca aiuta a capire come “ragionano” i modelli, proprio mentre iniziano a essere impiegati per supportare le decisioni degli strateghi umani.

«Nessuno sta consegnando i codici nucleari all'IA, ma capacità come l'inganno, la gestione della reputazione e la propensione al rischio a seconda del contesto contano in qualunque impiego ad altissima posta in gioco», ha detto.



PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.8.31 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)