Disarmo

Lista Disarmo

Archivio pubblico

Angoscia e domande aperte sull'uso militare dell'intelligenza artificiale

AI: dalla licenza di uccidere alle diagnosi mediche

Da un report del Consiglio di sicurezza delle Nazioni Unite apprendiamo che in Libia sono state impiegate armi autonome, cioè non controllate dall’essere umano
Maria Pastore27 ottobre 2021

drone In un recente report del Consiglio di sicurezza delle Nazioni Unite si rende noto che l’anno scorso, in Libia, sono state impiegate armi autonome, cioè non controllate dall’essere umano.
Sebbene siano sperimentate da tempo all’interno dei laboratori, si tratterebbe del primo utilizzo sul campo.
Non è chiaro come i droni riescano a riconoscere i loro bersagli nel caos di un campo di guerra, e come e a chi imputare le responsabilità quando un algoritmo ucciderà per sbaglio delle persone. 

La Convenzione delle Nazioni Unite sulle armi non convenzionali (Ccw) (1) sta discutendo di armi autonome da pochissimo, dal 2013. In questi anni non si è raggiunto alcun accordo, alcuni Paesi (Stati Uniti, Francia, Israele, Regno Unito e Russia) hanno invocato la libertà di ricerca sull’intelligenza artificiale.
Per queste armi l’esercito statunitense ha messo a bilancio, tra il 2016 e il 2020, 18 miliardi di dollari.

Nel 2015, figure di spicco della tecnologia come il CEO di Tesla (TSLA) Elon Musk e il co-fondatore di Apple (AAPL) Steve Wozniak, più migliaia di ricercatori di intelligenza artificiale, hanno firmato una lettera aperta chiedendo il divieto di tali armi. 

Al momento oltre 180 organizzazioni non governative di tutto il mondo stanno portando avanti la campagna “Stop killer robots”, chiedendo di limitarne l’uso almeno in fase offensiva. 

La grande sfida è pensare a strumenti che ci aiutino a fare delle scelte invece di suggerircele in modo passivo


Il professor Dino Pedreschi, ordinario di Informatica dell'Università di Pisa precisa che chi appartiene al filone della human-centered AI (2) crede fermamente che non si possa delegare a un algoritmo qualunque scelta che abbia una valenza etica o legale.

Le strategie di apprendimento sono così complesse (il cosiddetto deep learning) da sfuggire alla comprensione degli stessi programmatori. Il rischio è quindi di trovarsi in compagnia di vere e proprie scatole nere che forniscono risposte senza che sia ben chiaro il percorso che hanno compiuto per arrivarci. Sempre secondo il prof. Pedreschi la sfida per il futuro è quella di creare nuovi modelli di machine learning progettati in “explainable AI”, intelligenza artificiale in grado di decodificare il senso delle scelte in modo comprensibile a sviluppatori ed esperti.

I programmatori possono essere animati dalle migliori intenzioni, ma, inserire in un dato contesto un’intelligenza non in grado di recepire tutto quello che serve per avere le risposte desiderate, può creare guai seri. Un esperimento che ben esemplifica questo problema riguarda l’apprendimento della differenza tra husky e lupi: alla macchina è stata mostrata un’enorme quantità di immagini dei due animali. A un certo punto, si è osservato che l’intelligenza artificiale sbagliava su alcune foto ritenute semplici, senza che fosse chiaro il ragionamento alla base dell’errore. Alcuni ricercatori hanno provato ad “aprire” questa black box, scoprendo che tutte le immagini proposte alla macchina per l’apprendimento collocavano il lupo sulla neve. In presenza di questa, quindi, l’AI catalogava l’animale come “lupo”.

Siamo all'alba di una nuova era, in cui la tecnologia può essere pensata e organizzata al servizio dell'essere umano. La grande sfida è pensare a strumenti che ci aiutino a fare delle scelte invece di suggerircele in modo passivo.

Ma per disegnare un digitale europeo di aiuto agli esseri umani dobbiamo prima costruire una società inclusiva e migliore



L’intelligenza artificiale sviluppata finora ha dei grandi punti di forza, può aiutare gli esseri umani a coordinarsi per raggiungere determinati obiettivi nel modo migliore possibile.
È in grado, per esempio, di analizzare grandi quantità di dati in poco tempo, ha capacità di calcolo molto potenti.
Un oncologo vedrà un gran numero di tumori nella sua vita, ma questa casistica sarà solo una piccolissima percentuale di quelli che si possono dare in pasto a un algoritmo, e che il medico potrà consultare, sperimentando un processo decisionale condiviso con la macchina.


In Europa, nell’ultimo periodo, sono stati elaborati documenti importanti come il libro bianco sull’AI, il documento sulla strategia dei dati, quello sul digitale europeo. Ma per disegnare un digitale europeo di aiuto agli esseri umani dobbiamo prima costruire una società inclusiva e migliore.

Nel 2016 fece la sua apparizione su Twitter Tay, un bot (cioè un account dietro il quale si cela un programma automatico) progettato da Microsoft per interagire con i giovani americani, imparando dal confronto con gli utenti. Non finì benissimo: dopo appena 24 ore Tay simpatizzava con i comportamenti di Hitler e diffondeva fake news. L’esperimento fu bloccato, regalandoci due preziosi insegnamenti: le intelligenze, anche quelle artificiali, apprendono dalle esperienze umane. Se queste non sono di qualità, perché contengono magari pregiudizi più o meno espliciti, le macchine si comporteranno di conseguenza.


Note: Articoli/Fonte per questo articolo
https://oggiscienza.it/2020/08/03/che-razza-di-intelligenza-artificiale-vogliamo/
https://oggiscienza.it/2021/10/25/licenza-di-uccidere/

(1) La Ccw si occupa di regolamentare, tra le altre cose, le mine anti-uomo e i laser accecanti
(2) L'intelligenza artificiale che pone al centro l’essere umano

Articoli correlati

  • Italiani per Hale
    PeaceLink
    L’obiezione di coscienza di Daniel Hale

    Italiani per Hale

    L’ex analista dell'intelligence Usa è in carcere perché ha svelato i danni collaterali dei droni. Ha detto: "Abbiamo ucciso persone che non c’entravano nulla con l’11 settembre". Alex Zanotelli aderisce a questa campagna e dice: “Daniel Hale è un eroe del nostro tempo, è un dovere sostenerlo".
    10 ottobre 2021 - Alessandro Marescotti
  • Non solo Assange, Daniel Hale e la verità sui droni Usa
    Disarmo
    Il 27 luglio 2021, è stato condannato lo specialista di droni Daniel Hale a 45 mesi di prigione

    Non solo Assange, Daniel Hale e la verità sui droni Usa

    Hale ha detto a un giudice federale di sentirsi obbligato a far trapelare informazioni a un giornalista per il senso di colpa per la propria partecipazione a un programma che stava uccidendo indiscriminatamente civili in Afghanistan lontano dal campo di battaglia. Civili ! contro ogni convenzione.
    29 ottobre 2021 - Laura Tussi
  • Il drone americano a Kabul ha fatto una strage di civili
    Disarmo
    Il Pentagono finalmente ammette l’«orribile errore»

    Il drone americano a Kabul ha fatto una strage di civili

    Un missile americano il 29 agosto ha ucciso 10 persone innocenti. Zamarai Ahmadi, obiettivo del drone, lavorava per una organizzazione umanitaria Usa. Non trasportava esplosivo, ma «taniche d’acqua per la sua famiglia». Il generale Mark Milley aveva inizialmente definito l’attacco «giusto».
    19 settembre 2021 - Marina Catucci
  • «Abbiamo ucciso persone che non c’entravano nulla con l’11 settembre»
    MediaWatch
    Droni, l’ex analista Usa che ha svelato i danni collaterali

    «Abbiamo ucciso persone che non c’entravano nulla con l’11 settembre»

    Un caso di coscienza. Daniel Hale, figlio di un battista della Virginia, è stato condannato a quattro anni di reclusione per aver rivelato informazioni segrete sulle operazioni anti terrorismo durante l’amministrazione Obama. «Non un giorno senza rimorso»
    15 settembre 2021 - Redazione PeaceLink
PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.7.15 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)