mercoledì 22 Mag, 2024

All’AI servono regole a prova di futuro

Meglio una regolamentazione orizzontale o verticale? Un orizzonte locale o globale? E i dati? Ne parliamo con Giusella Finocchiaro, giurista dell’Università di Bologna

L’Intelligenza Artificiale è in mezzo a noi, che ne siamo consapevoli o meno. In banca si occupa di una miriade di servizi tra cui le previsioni e analisi strategiche, la gestione del portafoglio dei clienti, l’analisi dei dati. In sanità velocizza indagini diagnostiche e di conseguenza la possibilità di intervenire in situazioni critiche sul paziente in tempi più rapidi. Nel campo della legge l’AI generativa può condurre in pochi secondi ricerche su sentenze, precedenti e fonti che altrimenti richiederebbero giorni. Solo alcuni esempi. 

Di Intelligenza Artificiale si parla e si scrive molto. Tendenzialmente per diffondere, appunto, conoscenza sulle numerose applicazioni che sono già operative nei contesti più diversi. Ma anche per interrogarsi sulla pervasività culturale del fenomeno, con un dibattito che oscilla fra la fiducia nelle “magnifiche sorti” di un mondo già avviato nella direzione di una diffusione massiccia delle applicazioni e all’opposto quel senso di timore che può suscitare proprio l’idea di una diffusione incontrollata. Diventa indispensabile parlare di regole. Un utile strumento per tracciare alcuni punti fermi, ma anche per capire quali norme esistono già e quali siano in via di approvazione, tenendo conto del fatto che ci muoviamo in uno scenario internazionale,  è il libro Intelligenza artificiale. Quali regole? (Società Editrice Il Mulino), scritto da Giusella Finocchiaro, avvocata, giurista, professoressa ordinaria di diritto privato e diritto di Internet all’Università di Bologna. 

Meglio una regolamentazione orizzontale o verticale? A chi va imputata la responsabilità per le conseguenze dei processi compiuti dall’intelligenza artificiale? L’intelligenza artificiale si nutre di dati che devono essere raccolti e trattati nel rispetto di alcuni principi fondamentali, ma come facciamo ad essere sicuri che sia così? Tutti grandi nodi che il libro affronta, nella consapevolezza che siamo di fronte a un fenomeno in continua evoluzione, rilevante anche dal punto di vista delle grandi imprese nel mondo che producono sistemi di intelligenza artificiale e senza dimenticare gli investimenti nel settore fatti dai paesi tecnologicamente più avanzati. Abbiamo chiesto all’autrice di aiutarci a trovare le risposte a partire dalle pagine del suo libro. 

Foto Michele Nucci/LaPresse 1 Giugno 2021 – Bologna, Italia – cronaca nella foto: Prof GIUSELLA FINOCCHIARO candidata a rettore università di Bologna Photo Michele Nucci/LaPresse June 2, 2021 – Bologna, Italy – news in the pic: Prof GIUSELLA FINOCCHIARO candidate for rector of the University of Bologna – BO – 010621 – Intervista GIUSELLA FINOCCHIARO candidata rettore università – fotografo: Michele Nucci

Professoressa, qual è in generale l’approccio più utile per raggiungere l’obiettivo di regolamentare l’Intelligenza Artificiale nei settori più diversi?

Alcune regole esistono già quindi non dobbiamo pensare di normare una pagina completamente bianca. Non dobbiamo pensare neanche di poter normare qualunque aspetto della nostra vita che sia impattato dall’intelligenza artificiale. Una regolamentazione deve, secondo me, innanzitutto essere future proof, a prova di futuro, in grado cioè di recepire i nuovi sviluppi tecnologici dell’Intelligenza Artificiale che oggi non possiamo conoscere o prevedere. Inoltre dobbiamo tutelare i diritti fondamentali, cercando di avere uno sguardo più ampio e neutro possibile e dettando regole che possano essere utilizzate anche in futuro. 

Qual è invece la difficoltà principale da superare per mettere in campo una regolamentazione utile?   

In questo momento le difficoltà sono due. Una è l’inevitabile tentazione di normare l’esistente senza pensare che in futuro ci potranno essere delle nuove applicazioni. Diverse da quelle di oggi. Quando l’ Europa ha discusso una prima proposta di regolamento sull’AI, questa non includeva l’AI cosiddetta generativa. Poi nell’autunno 2022 è arrivata Chat GPT e la proposta di regolamento è stata rivista per includere, appunto, l’intelligenza artificiale generativa. Il legislatore può avere difficoltà in un certo momento storico a normare ciò che ancora non c’è. 

Quale approccio è meglio adottare in questi casi??

L’approccio migliore sta nel cercare di non normare la tecnologia presente ma dettare regole più generali. Questo approccio è stato seguito, ad esempio, dalla Commissione delle Nazione Unite per il regolamento sul commercio elettronico. 

E l’altra difficoltà a cui faceva riferimento?

La seconda difficoltà è che la regolamentazione deve essere, almeno per alcuni aspetti, globale. Il tema dell’AI è globale. La legge italiana e quella europea hanno una loro efficacia, ma limitata. Dobbiamo cercare un coordinamento internazionale per discutere le regole. È complicato quanto necessario. Per riassumere, le criticità da superare per non fare una regolamentazione inutile sono procedere ad una normazione non descrittiva del presente e la necessità di un coordinamento internazionale. 

Come possiamo definire l’AI e come può incidere la narrazione dell’AI sull’approccio giuridico?

Ci sono molte definizioni a partire dagli anni ‘50. Da quella che ne dà Alan Turing fino a quella dell’Ocse e del regolamento europeo. L’espressione Intelligenza Artificiale può essere fuorviante, perché quando parliamo di intelligenza presupponiamo che ci sia un essere intelligente. Ma in realtà stiamo parlando di una tecnologia software che non è un soggetto, non è una persona. L’uso di certe parole ha inevitabilmente una conseguenza e può essere condizionante dal punto di vista culturale e quindi riflettersi nelle scelte giuridiche. 

Quali sono gli aspetti principali che caratterizzano l’approccio europeo alla regolamentazione dell’ Intelligenza Artificiale?

La sovranità digitale è un obiettivo dell’Europa, Von der Leyen ne parla dal 2020. L’AI act vuole essere un modello di riferimento globale. Dal punto di vista normativo si prevede una classificazione del rischio che può essere cagionato dai sistemi di intelligenza artificiale, in quattro categorie: rischio inaccettabile, alto, basso e minimo.

I sistemi a rischio inaccettabile sono vietati dalla legislazione europea, ad esempio i sistemi di social scoring che attribuiscono un punteggio ai cittadini in base ai loro comportamenti. Come accade in Cina dove se un cittadino non è puntuale nel pagamento delle sanzioni, o in generale ha dei comportamenti non consoni, gli viene assegnato un punteggio che può influenzare tutta la sua vita, ad esempio nell’accesso alle scuole, nella possibilità di avere un finanziamento. Questa classificazione in Europa è vietata perché presenta un rischio inaccettabile per la dignità umana.

Poi ci sono i sistemi ad alto rischio, che non sono vietati ma per essere immessi nel mercato europeo devono soddisfare determinati requisiti, una lista lunghissima. Ad esempio riguardano la sicurezza, la protezione dei dati personali, l’organizzazione aziendale. Poi ci sono i sistemi a rischio basso e a rischio minimo per i quali sono previsti soltanto alcuni requisiti di trasparenza e di obbligo informativo. 

Quali limiti sono ravvisabili nel modello europeo di regolamentazione dell’AI? Ce ne sono in particolare a carico delle imprese? 

Il primo problema è quello relativo alla classificazione di prodotti e sistemi che dovrà essere continuamente aggiornata col passare del tempo, perché ci saranno sempre degli sviluppi e dei cambiamenti. L’ altra criticità è la spesa. Quanto costerà per le imprese adeguarsi? Ci saranno dei costi di compliance che potranno essere meglio sopportati da grandi imprese, ma con più fatica dalle piccole. 

Anche gli Stati Uniti e la Cina sono impegnati sul fronte delle regole, quali sono le specificità dei due approcci e le differenze?

Negli Usa l’approccio è di co-regolamentazione. Ad agosto 2023 il presidente Biden, insieme ai sette più grandi produttori di AI come OpenAI, Google e Microsoft ha individuato alcuni principi fondamentali. L’approccio è finalizzato a definire insieme a loro questi principi e l’Executive Order emanato da Biden nell’ottobre 2023 li riflette. Il regolatore americano sostiene la sua industria e i produttori statunitensi. In fondo anche l’industria ha l’esigenza di avere regole. La Cina ha ripreso alcuni principi fondamentali che sono nella legislazione europea e nell’Executive Order e li ha declinati con un approccio politico completamente differente. Nella legislazione cinese troviamo il riferimento ai principi del socialismo cinese e qualche riferimento al confucianesimo. 

La regolamentazione dell’AI è anche uno strumento di affermazione in chiave geopolitica? 

Certo. È una affermazione di tipo economico, sia gli Stati Uniti che la Cina hanno investito molto nella tecnologia, nella ricerca e nell’industria per l’intelligenza artificiale, mentre l’Europa ha investito molto di meno.
Una affermazione di tipo politico perché chi detta le regole del gioco ha una forza nello scenario mondiale.
È chiaro che le regole devono riflettere cultura e valori di quella parte del mondo che le esprime. In questo momento lo scenario geopolitico vede questi grandissimi attori tutti in campo. Inevitabilmente, a mio giudizio, si dovrà andare verso una qualche forma di coordinamento internazionale, come è stato  chiesto anche durante l’ultimo G7. Il prossimo sarà a guida italiana, speriamo di avanzare in questa direzione. 

L’AI act europeo 

Il Parlamento Europeo lo scorso marzo ha approvato la legge sull’intelligenza artificiale, che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione.

I deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni. L’obiettivo è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo ‘’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto.

«Entrerà in vigore per la maggior parte delle disposizioni nel 2026, ma alcune disposizioni potranno essere anticipate ed essere efficaci già sei mesi dopo la pubblicazione», spiega Finocchiaro. «Il regolamento arriva al termine di un percorso lunghissimo iniziato nel 2018. Il dibattito ha sicuramente contribuito a creare una cultura comune sull’AI, individuando le parole chiave e i temi più importanti».

Scopri subito la nuova edizione di

Tecnologia & Innovazione