Il dibattito europeo sull'Intelligenza Artificiale

In Europa pareri divergenti sull'AI Act

La proposta di AI Act prevede livelli di regolamentazione elevati per alcune applicazioni dell'intelligenza artificiale che possono avere un impatto sui diritti fondamentali delle persone. Ma Francia, Germania e Italia stanno operando uno strappo proponendo un approccio più gradito alle aziende.
27 gennaio 2024
Redazione PeaceLink

Sembrava che tutti fossero d'accordo e invece no. Francia, Germania e Italia remano - paradossalmente - contro l'Europa. Sull'Intelligenza Artificiale l'Europa si sta dividendo e l'IA Act che sembrava definire un quadro generale condiviso viene invece svuotato da un accordo trilaterale che si pone al di fuori delle regole di condivisione comunitarie.

In un articolo di Barbara Calderini pubblicato sul sito agendadigitale.eu, si esaminano i due approcci alla regolamentazione dell'intelligenza artificiale (IA): quello proposto dall'Unione Europea (UE) attraverso l'AI Act e quello proposto da un accordo trilaterale tra Francia, Germania e Italia.

L'AI Act è un regolamento che si pone l'obiettivo di garantire un alto livello di sicurezza e di tutela dei diritti fondamentali attraverso un controllo ex ante. Per questo motivo, il regolamento classifica i modelli di IA in base al livello di rischio che presentano e impone agli sviluppatori di adottare misure di mitigazione specifiche per ogni livello di rischio.

L'accordo trilaterale, invece, propone un approccio basato sulla responsabilità "a valle" degli sviluppatori di IA, incentivando l'adozione di codici di condotta settoriali. Questo approccio permette una maggiore flessibilità e adattabilità alle esigenze specifiche delle varie applicazioni AI, ma si contrappone al modello più rigido e omogeneo proposto dall'AI Act.

Il confronto tra questi due approcci solleva alcune questioni giuridiche. In particolare, l'AI Act prevede un controllo ex ante, mentre l'accordo trilaterale sembra puntare su una regolamentazione ex post, facendo leva sulla capacità autoregolativa del settore. Questa discrepanza potrebbe generare problemi di coerenza e armonizzazione tra le normative degli Stati membri e quelle dell'UE, oltre a sollevare dubbi sull'efficacia della supervisione e dell'applicazione delle regole.

L'accordo trilaterale si fonda su due capisaldi: l'imposizione di codici di condotta agli stessi operatori e la diffusione di model cards.

I codici di condotta sono documenti sviluppati dagli stessi creatori dei modelli di IA che offrono una descrizione dettagliata del funzionamento, delle capacità e dei limiti dei loro sistemi. La creazione di una model card è un esercizio di riflessione critica che di fatto costringe gli sviluppatori ad analizzare e a documentare le prestazioni e i potenziali bias dei loro sistemi. Questo processo dovrebbe, in teoria, incoraggiare la progettazione di sistemi più giusti e sicuri dal lato degli stessi operatori economici.

Tuttavia, l'obbligo di pubblicare le model cards non è ancora chiaro, né è chiaro se gli sviluppatori siano obbligati a pubblicare anche i codici sorgente delle singole applicazioni di IA.

In buona sostanza i due approcci alla regolamentazione dell'IA rispecchiano due visioni: una dalla parte dei cittadini (che privilegia i diritti) e una dalla parte della aziende (che privilegia l'innovazione e l'autoregolamentazione). L'AI Act è un regolamento che si pone l'obiettivo di garantire un alto livello di sicurezza e di tutela dei diritti fondamentali attraverso un controllo ex ante, mentre l'accordo trilaterale propone un approccio basato sulla responsabilità "a valle" degli sviluppatori di IA, incentivando l'adozione di codici di condotta settoriali.

E' in discussione l'AI Act e ho letto che ci sono pareri divergenti in merito in Europa. Perché? AI act

RISPOSTA DI BARD

I pareri divergenti sull'AI Act in Europa riguardano principalmente due aspetti: il livello di regolamentazione e il bilanciamento tra gli interessi di sicurezza e quelli di innovazione.

Livello di regolamentazione

La proposta di AI Act prevede un livello di regolamentazione molto elevato per alcune applicazioni dell'intelligenza artificiale, come quelle che possono avere un impatto significativo sui diritti fondamentali delle persone, sulla sicurezza o sull'ambiente. Queste applicazioni sono classificate come "a rischio elevato" e sono soggette a una serie di requisiti rigorosi, tra cui la trasparenza, la responsabilità e il divieto di utilizzo per determinate finalità, come la profilazione razziale o la sorveglianza di massa.

Alcuni soggetti, come le imprese tecnologiche, ritengono che questo livello di regolamentazione sia eccessivamente restrittivo e possa ostacolare l'innovazione. Altri, invece, come le organizzazioni non governative, ritengono che non sia abbastanza stringente e che non garantisca adeguatamente la protezione dei diritti fondamentali.

Bilanciamento tra sicurezza e innovazione

Un altro aspetto controverso dell'AI Act è il bilanciamento tra gli interessi di sicurezza e quelli di innovazione. La proposta prevede che le autorità governative possano utilizzare applicazioni di intelligenza artificiale a rischio elevato per scopi di sicurezza, ma solo se rispettano determinati requisiti.

Alcuni soggetti, come le organizzazioni per i diritti umani, ritengono che questo equilibrio sia sbilanciato a favore della sicurezza e che possa portare a un uso eccessivo dell'intelligenza artificiale per scopi di sorveglianza. Altri, invece, ritengono che sia necessario garantire alle autorità governative gli strumenti necessari per proteggere la sicurezza dei cittadini.

In conclusione, i pareri divergenti sull'AI Act in Europa riflettono la complessità e la portata delle questioni sollevate da questa tecnologia. La proposta di regolamento è un passo importante verso la regolamentazione dell'intelligenza artificiale in Europa, ma è probabile che il dibattito sui suoi contenuti continuerà anche dopo l'approvazione definitiva.

RISPOSTA DI COPILOT

L’AI Act è una proposta legislativa dell’Unione Europea che mira a regolamentare l’uso dell’intelligenza artificiale (IA). Questa proposta classifica i sistemi di IA in base al rischio e impone vari requisiti di sviluppo e utilizzo12.

Tuttavia, ci sono pareri divergenti in merito per vari motivi:

  1. Innovazione e Sovranità Tecnologica: Alcune aziende europee sostengono che la legislazione potrebbe influire sulla competitività e sulla sovranità tecnologica dell’Europa2. Temono che le regole proposte possano ostacolare l’innovazione e l’adozione dell’IA.

  2. Bilanciamento dei Rischi: L’AI Act adotta un approccio basato sul rischio: più alto è il rischio, più severe sono le regole1. Questo può portare a discussioni su come valutare correttamente il rischio e su quali sistemi di IA dovrebbero essere considerati ad alto rischio.

  3. Questioni Etiche e di Implementazione: L’AI Act mira anche a risolvere questioni etiche e sfide di implementazione in vari settori2. Questo può portare a dibattiti su come garantire la qualità dei dati, la trasparenza, la supervisione umana e la responsabilità.

  4. Modifiche alla Proposta Iniziale: Sono state apportate modifiche più rigorose alla proposta iniziale dell’AI Act, tra cui il divieto di utilizzare la tecnologia IA nella sorveglianza biometrica e l’obbligo per i sistemi di IA generativi di divulgare i contenuti generati dall’IA2. Queste modifiche hanno suscitato ulteriori discussioni.

In sintesi, mentre l’AI Act è un’iniziativa legislativa importante con il potenziale di promuovere lo sviluppo e l’adozione di un’IA sicura e affidabile in tutta l’UE, le sue implicazioni per l’innovazione, la sovranità tecnologica e le questioni etiche stanno alimentando un dibattito in corso12.

Note: Testo realizzato con l'ausilio dell'AI generativa

Sulle divergenze che emergono in Europa in merito alle norme da mettere in campo si veda questa approfondita analisi:

L'Italia vuole deregolamentare l'IA generativa, ecco come - Agenda Digitale

https://www.agendadigitale.eu/sicurezza/privacy/litalia-vuole-deregolamentare-lia-generativa-ecco-come/

Articoli correlati

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.7.15 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)