Pace

Lista Pace

Archivio pubblico

C'è un buco legislativo rispetto ai ‘Robot Killer’

I robot armati di domani: veri 007, con licenza di uccidere

La prossima generazione di armi negli arsenali militari potrebbe essere costituita da “robot killer”, macchine che selezionerebbero e distruggerebbero un target specifico senza bisogno dell’intervento umano. Ma se un robot infrangesse la legge, chi ne sarebbe ritenuto responsabile? Bisognerebbe mandare davanti ad un tribunale il programmatore, il produttore, il comandante militare o... il robot?
11 aprile 2015
Russell Christian (HRW), traduzione di Carmela Palombi
Tradotto da per PeaceLink

killer robots: veri 007, con licenza di uccidere

 Programmatori, produttori e reparti militari potrebbero sottrarsi alle loro responsabilità penali per le morti illegali e le lesioni provocate dai loro sistemi automatizzati di armi, o “Robot Killer”, avverte Human Rights Watch in un rapporto diffuso oggi. Il rapporto è stato emesso prima di un incontro multilaterale sulle armi tenutosi alle Nazioni Unite a Ginevra.

Il rapporto, di 38 pagine, “Mind the Gap: The Lack of Accountability for Killer Robots,” mostra in dettaglio i significativi ostacoli esistenti all’attribuzione della responsabilità personale per le azioni dei sistemi automatizzati di armi sia nel diritto civile che in quello penale. Getta luce, inoltre, sulle conseguenze dell’omissione nell’imputare la responsabilità legale. Il rapporto è stato pubblicato congiuntamente da Human Rights Watch e la Harvard Law School’s International Human Rights Clinic.

“Omettere di attribuire le responsabilità civili e penali per un determinato tipo di uccisione significa non fornire un deterrente per i crimini futuri, nessuna retribuzione per le vittime, nessuna condanna sociale dei responsabili,” ha affermato
Bonnie Docherty , ricercatrice senior della divisione Armi alla Human Rights Watch e principale autrice del rapporto. “I molti ostacoli alla giustizia per le vittime potenziali dimostrano il perché sia urgente proibire i sistemi automatizzati di armi”.

I sistemi automatizzati di armi andrebbero oltre i droni controllati a distanza già esistenti, in quanto sarebbero in grado di selezionare e mirare ad un target senza il bisogno di un significativo controllo umano. Benché non esistano ancora, la rapida evoluzione della tecnologia in questa direzione ha attratto l’attenzione e la preoccupazione internazionali.

Human Rights Watch è co-promotrice della
Campagna per Fermare i Robot Killer di cui è anche coordinatrice.

La coalizione internazionale di oltre 50 organismi non governativi richiede un veto preventivo sullo sviluppo, la produzione e l’uso dei sistemi automatizzati di armi.

Il rapporto sarà distribuito in occasione di un’importante
riunione internazionale sui “sistemi automatizzati letali di armi” alle Nazioni Unite a Ginevra dal 13 al 17 Aprile 2015. Si prevede che molti dei 120 paesi che hanno partecipato alla Convention sulle armi convenzionali siano presenti all’incontro con gli esperti sull’argomento, i quali porteranno avanti le disamine iniziate durante un primo incontro che ha avuto luogo a maggio 2014.

Human Rights Watch è convinta che gli accordi al fine di lavorare su queste armi durante il forum della Convention sulle Armi Convenzionali potrebbe finalmente condurre a nuove leggi che proibiscano le armi completamente automatizzate. Nel 1995 la Convention sulle Armi Convenzionali ha proibito, come misura preventiva, l’utilizzo di laser accecanti.

Una delle preoccupazioni maggiori riguardo i sistemi di armi automatizzate è che potrebbero causare delle vittime tra i civili, in violazione della legislazione umanitaria internazionale e della legge sui diritti umani. La mancanza di un significativo controllo umano, che caratterizza questo tipo di armi, renderebbe difficile incriminare penalmente chiunque si rendesse responsabile di tali azioni illegali.

I comandanti militari o gli esecutori materiali potrebbero essere ritenuti colpevoli se concepissero un sistema automatizzato di armi al fine di commettere un crimine, afferma Human Rights Watch. Ma, molto probabilmente, sfuggirebbero alla giustizia nell’evenienza, più comune, nella quale non potessero prevedere un attacco da parte di un robot automatizzato e/o non potessero impedirlo.

“Un sistema automatizzato di armi potrebbe commettere atti che aumenterebbero il numero dei “crimini di guerra”, se fosse una persona a compierli; ma ci potrebbe essere nessun colpevole punito per questi crimini,” asserisce Docherty, che insegna anche alla Harvard Law School clinic.”Chiamare tali atti “incidenti” o “intoppi” banalizzerebbe il danno letale che potrebbero causare.”

Gli ostacoli alla responsabilità penale sarebbero altrettanto difficili da superare nell’ambito del diritto civile, dichiara Human Rights Watch. La responsabilità civile sarebbe praticamente impossibile, almeno negli Stati Uniti, a causa dell’immunità garantita dalla legge alle forze militari ed ai loro appaltatori e gli ostacoli probatori nei processi per la responsabilità civile. Molti altri paesi hanno sistemi simili di immunità sovrana.

Anche in caso di vittoria, un processo civile avrebbe efficacia limitata come strumento di responsabilità. L’obiettivo primario delle sanzioni civili è quello di risarcire le vittime, non quello di punire i colpevoli. Per quanto un risarcimento monetario possa essere di beneficio alle vittime, non può sostituire la responsabilità penale in quanto deterrente.

Potremmo immaginare delle leggi che consentano alle vittime di ricevere un compenso senza che sia provata una colpevolezza specifica davanti ad un tribunale; ma non risolverebbe la mancanza di responsabilità personale e, comunque, la maggior parte dei governi sarebbe poco incline ad adottare un tale sistema di compensazione, afferma Human Rights Watch.

Il buco legislativo nella responsabilità penale è solo uno di una serie di preoccupazioni suscitate dai sistemi automatizzati di armi. In altre pubblicazioni, Human Rights Watch ha studiato le difficoltà che l’uso di queste armi costituirebbe nel rispettare la legge umanitaria internazionale e la legge sui diritti umani. Ha inoltre posto l’accento sulla possibilità di una corsa agli armamenti, la prospettiva della loro proliferazione, e si è interrogata su quanto possa essere etico che delle macchine prendano decisioni di vita o di morte sul campo di battaglia.

“La mancanza di responsabilità è un motivo che si somma a quelli legali, morali e tecnologici contro l’uso di sistemi automatizzati di armi per rinforzare, sul piano del Diritto, gli appelli di vietare totalmente questi sistemi,” afferma Docherty.

Note: Mind the Gap, The Lack of Accountability for Killer Robots, April 9, 2015, Human Rights Watch: http://www.hrw.org/news/2015/04/08/killer-robots-accountability-gap

articolo (© 2015) di Russell Christian di Human Rights Watch, traduttrice Carmela Palombi

Articoli correlati

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.7.15 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)