Disarmo

Lista Disarmo

Archivio pubblico

Intelligenza artificiale e armi autonome

AI - La nuova corsa agli armamenti

USA e Cina, e non solo, gareggiano sul fronte pericoloso della delega delle operazioni militari a sistemi autonomi in contesti sempre più complessi, come i combattimenti in volo
Francesco Iannuzzelli3 dicembre 2020

Combattimento simulato in volo

Un paio di settimane fa si è svolto un combattimento molto particolare nei cieli della California, poco a nord di Los Angeles. Protagonisti un pilota veterano statunitense e uno cinese. Il primo a bordo di un Berkut 540, il secondo di un caccia stealth cinese Chengdu J-20.

Dettaglio importante: il pilota cinese era un agente virtuale, e l'aereo una simulazione proiettata in realtà aumentata sulla visiera del pilota americano.

Riportato in termini roboanti dalle aziende coinvolte, si tratta in effetti del primo combattimento tra un aereo vero e uno virtuale, all'interno del programma ACE (Air Combat Evolution - Evoluzione del combattimento aereo) dell'agenzia DARPA del Pentagono, che si occupa di sistemi avanzati e di nuove tecnologie. Le aziende coinvolte sono Red6, che si occupa di sistemi di addestramento per combattimento aereo, ed EpiSci, azienda specializzata nell'applicazione dell'intelligenza artificiale (AI) al mondo militare.

Si tratta indubbiamente di un passo significativo per il progetto ACE. Solo qualche mese fa si era svolta una competizione (AlphaDogfight Trials) tra le varie aziende commissionate dalla DARPA, che si erano sfidate tra di loro in una serie di combattimenti virtuali. Una specie di torneo / videogioco online, ma molto più costoso del solito, visto che tutte le aziende partecipanti hanno raccolto milioni di dollari di investimenti per sviluppare le relative tecnologie. Il vincitore tra queste 8 squadre (Heron Systems) aveva poi affrontato, sempre in un combattimento virtuale, un pilota di F-16 vero, nome in codice "Banger".
Il risultato? Heron 5 - Banger 0. Gli highlights sono disponibili su YouTube.

La simbiosi uomo-macchina

L'uso dell'intelligenza artificiale nello sviluppo di agenti in grado di interagire con piloti umani e creare scenari verosimili durante il loro addestramento è un concetto abbastanza consolidato, integrato nei software di simulazione da tempo. In questo caso siamo però di fronte a uno sforzo tecnologico ed economico di ben altro livello, e con obiettivi ben più ambiziosi che lo sviluppo di un videogioco costoso per militari arricchiti.

L'intento dichiarato, da parte di DARPA, è quello di arrivare ad una "simbiosi" uomo-macchina, dove algoritmi "fidati" si occupano dell'automazione di alcuni aspetti, anche in contesti critici come uno scenario di combattimento, lasciando concentrare il pilota su compiti strategici.
DARPA chiarisce solo in parte quali siano questi aspetti automatizzati, delegati ai modelli addestrati artificialmente, e dove sia il limite con quelli lasciati alla supervisione umana. Ad esempio si ipotizza di delegare la gestione operativa delle manovre dell'aereo del pilota, le tattiche di ingaggio, la co-presenza di veicoli senza equipaggio umano (droni) che accompagnino l'azione militare e svolgano operazioni di supporto. Tutto questo dovrebbe accompagnare una parallela evoluzione del ruolo del pilota, da semplice operatore a stratega al comando di un plotone di velivoli autonomi, a cui spettano solo compiti decisionali (gli obiettivi, le armi da usare).

Combattimento simulato in volo

L'aspetto prioritario, in questa fase, è quello di costruire un "rapporto di fiducia", nel senso che il pilota deve sentirsi al sicuro nell'affidare queste mansioni a un sistema autonomo, in modo da potersi concentrare su altre. Non è un problema nuovo, che è già stato affrontato nelle tecnologie militari per operazioni di terra. Trasportare tutto questo in volo è estremamente più complesso.

Sarebbe però limitante soffermarsi solo agli obiettivi dichiarati, anche perché è il linguaggio usato dalla stessa DARPA che tradisce quali siano le reali ambizioni. Si tratta infatti di stabilire una gerarchia funzionale. Le operazioni di basso livello vengono via via delegate a sistemi autonomi, quelle decisionali e strategiche, in cima alla gerarchia possono essere affidate a un operatore umano. È il verbo "potere" invece di "dovere" che rappresenta il cambio di paradigma.

L'adozione da parte della US Air Force di queste tecnologie per il training dei propri piloti è prevista già dal 2021, ma questo è solo il primo passo. Lo sviluppo di un prototipo di aereo autonomo è previsto per il 2023.

Come discusso sopra, è proprio sul concetto di "autonomia" di questi sistemi che occorre porsi delle domande. Innanzitutto bisogna ignorare le operazioni di marketing e non considerare la scusa dell'addestramento come credibile, perché la storia dell'industria bellica è piena di innovazioni pubblicizzate inizialmente come training e che si sono poi rivelate essere strumenti bellici in tutto e per tutto. L'addestramento militare rappresenta appunto la prima fase del processo di adozione di una nuova tecnologia, perché ne permette la valutazione in un contesto controllato e soprattutto la sua graduale introduzione di fronte a potenziali resistenze da parte degli attori coinvolti.

La rimozione della componente umana, i cui compiti vengono delegati a un sistema d'arma autonomo, è il punto centrale della questione. Propagandata nel nome della salvaguardia del personale militare, questa rimozione comporta molti altri vantaggi per chi ne è il fautore. Lo scavalcamento di aspetti logistici e operativi legati alla presenza di personale militare, il controllo più immediato e diretto delle operazioni, la possibilità di impostare a priori strategie operative, e soprattutto l'allontanamento di un seppur limitato spirito critico rappresentato da un testimone in carne e ossa (o, in termini più specifici, con occhi e memoria).

Pericoloso e costoso

Così viene definito dagli esperti, come Andrew Ng, professore associato a Stanford e tra i maggiori esperti mondiali di intelligenza artificiale.

Che sia costoso non vi è dubbio, si stima che un addestramento di questo tipo costi diverse decine di migliaia di dollari all'ora. Ma è soprattutto sulla sua pericolosità che si concentrano le critiche, visto che chiunque mastichi un po' di queste tecnologie è consapevole di come non sia pensabile che diventino un sostituto di operatori umani. Le criticità insite nell'uso di reti neurali, i problemi relativi al bias introdotto accidentalmente nel training degli algoritmi, nella selezione e preparazione dei dataset, sono uno dei tanti motivi per cui può essere accettabile, e comunque discutibile nel merito, che questi sistemi vengano usati in sostituzione della percezione umana in ambiti commerciali, ma inaccettabile che ciò avvenga in contesti operativi militari, dove gli errori hanno ben altre conseguenze.

Come spiegare quindi tutta questa euforia, accompagnata da investimenti così corposi?

A parte il consolidato vizio dell'apparato militare di spendere a spandere senza dover rispondere a nessuno, e in combutta con apparati industriali e politici, sorge un dubbio: ci sono o ci fanno?

Ovvero, sono solo degli incompetenti che stanno buttando soldi pubblici in un'avventura che porterà solo disastri in termini di vite umane e danni ambientali / infrastrutturali, oppure siamo di fronte alla disumanizzazione definitiva del teatro di guerra?
In altri termini (tecnici), la manipolazione del bias onde evitare restrizioni operative, ciò che un pilota umano per tanti motivi, e leggi internazionali, potrebbe rifiutarsi di fare?

La nuova corsa agli armamenti "autonomi"

È evidente che siamo di fronte a una nuova corsa agli armamenti, e non è a caso che lo sfidante virtuale fosse un aereo cinese. Proprio la Cina sta provando a scavalcare l'egemonia militare statunitense proprio sul terreno dei sistemi autonomi. Si legga ad esempio il report "AI weapons" in China’s military innovation pubblicato da Brookings, un istituto di oltre 300 esperti governativi e accademici, nell'Aprile di quest'anno.

La corsa è come sempre su due fronti: il vantaggio militare in caso di conflitto, e la produzione commerciale di tecnologie da rivendere ad altri paesi.

Da qualche tempo le Nazioni Unite stanno provando a far sentire la loro flebile voce. Nel marzo 2019 il Segretario Guterres aveva invitato gli esperti del gruppo del CCW (Convenzione sulle armi non convenzionali) a lavorare per una messa bando delle cosiddette LAWS (Lethal Autonomous Weapons Systems - Sistemi d'arma letali autonomi). Da allora pochi progressi sul fronte diplomatico, in un contesto profondamente sonnolento rispetto ai multipli aspetti del riarmo globale.

Rincuorante invece il lancio della campagna "Stop Killer Robots" che unisce esperti, associazioni e volontari nello sforzo comune di bloccare, o almeno limitare e controllare, questa corsa. Parleremo di questa campagna in un prossimo articolo, intanto vi invitiamo a visitare il loro sito e a seguirne gli sviluppi: https://www.stopkillerrobots.org/

Articoli correlati

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.7.15 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)