giovedì 17 Feb, 2022

Un’intelligenza artificiale “affidabile” per realizzare l’industria 5.0

17/02/2022

L’approccio umano-centrico, sostenibile e resiliente dell’Ue

“Un’Unione più ambiziosa per un approccio europeo coordinato alle implicazioni umane ed etiche dell’intelligenza artificiale”. Così Ursula von der Leyen nel luglio del 2019, in qualità di candidata alla presidenza della Commissione europea. In questo contesto, l’attuale presidente dell’organo esecutivo dell’Ue tracciava gli obiettivi da perseguire in caso di elezione.

A poco più di un anno dall’inizio del suo mandato, il 21 aprile scorso, la Commissione europea ha presentato una proposta di regolamento sull’intelligenza artificiale (IA), o Artifcial Intelligence Act, per creare il primo quadro giuridico al mondo che disciplini l’utilizzo delle tecnologie dell’intelligenza artificiale in maniera integrata ed uniforme a livello europeo. “Un quadro giuridico solido e flessibile”, si legge nella relazione di accompagnamento alla proposta, che garantisca il rispetto dei diritti dei cittadini e allo stesso tempo stimoli gli investimenti delle imprese in queste tecnologie per rendere l’Europa “il nuovo centro nevralgico dell’IA affidabile”.

Dall’Industria 4.0 a quella 5.0: l’innovazione come motore per una transizione verso un’industria europea sostenibile, umano-centrica e resiliente

Il regolamento sull’intelligenza artificiale è uno degli strumenti adottati dalle istituzioni europee per promuovere la transizione dall’Industria 4.0 all’Industria 5.0. Quest’ultima è definita come la diretta evoluzione della prima: “L’Industria 5.0 completa l’attuale paradigma dell’Industria 4.0 facendo della ricerca e dell’innovazione i motori per una transizione verso un’industria europea sostenibile, umano-centrica e resiliente”, si legge nel report “Towards a sustainable, human-centric and resilient European industry”, pubblicato dalla Commissione europea nel gennaio scorso.
Detto in altri termini, perché l’industria continui a svolgere il suo secolare compito di driver nelle transizioni economiche e sociali, è necessario che, oltre all’efficienza e alla produttività, insegua anche e soprattutto il benessere degli esseri umani e dell’ambiente.

L’Industria 5.0, dunque, deve raggiungere obiettivi sociali oltre il lavoro e la crescita per diventare un canale di ricchezza resiliente che rispetta il pianeta e i diritti dell’uomo. Nell’Industria 5.0 i bisogni e gli interessi dell’uomo sono al centro dei processi produttivi. Cambia il paradigma dell’Industria 4.0: piuttosto che “cosa possiamo fare con le nuove tecnologie?”, nell’Industria 5.0 la domanda diventa “cosa può fare la tecnologia per noi?”.

Per questo la tecnologia diviene anche lo strumento da sfruttare per la formazione dei lavoratori e per guidarli nelle loro mansioni. Industria umano-centrica significa soprattutto assicurarsi che l’uso delle nuove tecnologie non vada ad intaccare i diritti fondamentali dei lavoratori, come il diritto alla privacy, all’autonomia e alla dignità umana.

Una proposta di regolamento basata sul rischio dell’IA per la salute, la sicurezza e i
diritti fondamentali

La proposta di regolamento disegna un sistema normativo basato sulla La proposta di regolamento disegna un sistema normativo basato sulla classificazione dei rischi dei sistemi di intelligenza artificiale per la salute e la sicurezza o per i diritti fondamentali delle persone. In questo senso, la normativa differenzia tra gli usi dell’IA che creano: 1) un rischio inaccettabile; 2) un rischio alto; 3) un rischio limitato; 4) un rischio minimo.
Le IA a rischio inaccettabile includono tutti quei sistemi o applicazioni di tecnologie che manipolano il comportamento umano attraverso tecniche subliminali, dunque senza che le persone in questione ne siano consapevoli, oppure che sfruttano delle vulnerabilità di specifici gruppi, come minori o persone con disabilità, tali da provocare danni psicologici o fisici a loro o ad altri.

La proposta vieta anche l’attribuzione di un punteggio sociale basato sull’IA per finalità generali da parte di autorità pubbliche
(come accade, per esempio, in Cina con il Social credit score). dei rischi dei sistemi di intelligenza artificiale per la salute e la sicurezza o per i diritti fondamentali delle persone. In questo senso, la normativa differenzia tra gli usi dell’IA che creano: 1) un rischio inaccettabile; 2) un rischio alto; 3) un rischio limitato; 4) un rischio minimo.
Le IA a rischio inaccettabile includono tutti quei sistemi o applicazioni di tecnologie che manipolano il comportamento umano attraverso tecniche subliminali, dunque senza che le persone in questione ne siano consapevoli, oppure che sfruttano delle vulnerabilità di specifici gruppi, come minori o persone con disabilità, tali da provocare danni psicologici o fisici a loro o ad altri.
La proposta vieta anche l’attribuzione di un punteggio sociale basato sull’IA per finalità generali da parte di autorità pubbliche
(come accade, per esempio, in Cina con il Social credit score).

Il livello di rischio alto, invece, include le tecnologie dell’intelligenza artifciale applicate:

• nella gestione o funzionamento delle infrastrutture critiche, come i trasporti, poiché potrebbero rappresentare un pericolo per la vita e per la salute dei cittadini;
• nell’istruzione o nella formazione professionale, intervenendo nell’accesso all’istruzione e nei percorsi professionali delle pesone;
• nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo, in particolare per l’assunzione del personale, per la cessazione di un contratto o per la valutazione dei dipendenti;
• nell’accesso ai servizi pubblici e privati essenziali;
• nelle azioni delle autorità di contrasto, che possono portare alla sorveglianza, all’arresto o alla privazione della libertà di una
persona fisica, o altri impatti negativi sui diritti fondamentali;
• nella gestione della migrazione, dell’asilo o del controllo delle frontiere, come la verifica dei documenti di viaggio;
• nell’amministrazione della giustizia o dei processi democratici, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale.

I sistemi di IA ad alto rischio dovranno rispettare requisiti obbligatori e seguire dettagliate procedure di valutazione della conformità prima di essere immessi sul mercato. “Obblighi prevedibili, proporzionati e chiari – si legge nel testo dell’atto – sono posti in capo anche a fornitori e utenti di tali sistemi con l’obiettivo di assicurare la sicurezza e il rispetto della normativa vigente che tutela i diritti fondamentali durante l’intero ciclo di vita dei sistemi di IA”.

Per le tecnologie di intelligenza artificiale a rischio limitato, invece, sono proposti solo obblighi minimi di trasparenza. In particolare, si prevedono specifici obblighi nell’utilizzo di chatbot, cioè operatori virtuali con cui gli utenti comunicano via chat, o “deep fake”, ovvero video e audio creati con software di intelligenza artifciale a partire da contenuti reali che riescono a modificare o
ricreare fedelmente le caratteristiche e i movimenti di un corpo, nonché imitare le voci. Infine, le tecnologie di IA a rischio minimo
(videogiochi o filtri spam) possono essere utilizzate liberamente.

La responsabilità civile dell’IA: verso la definizione di una disciplina

La diffusione delle tecnologie IA pone un problema di natura giuridica legato ai rischi che può generare l’utilizzo dei dispositivi che le impiegano. Il tema della responsabilità civile dell’IA è da tempo oggetto di dibattito a livello europeo ma ancora non si è giunti ad una regolamentazione compiuta. Il 20 ottobre 2020, il Parlamento europeo approvava una risoluzione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale. Nella proposta di regolamento sull’intelligenza artificiale dell’aprile scorso, il profilo attinente alla natura o al grado di responsabilità non viene affrontato in modo diretto, ma si tracciano delle linee guida per norme future.

Il Capo tre dell’atto reca gli “Obblighi dei fornitori e degli utenti dei sistemi di IA ad alto rischio e di altre parti”, fornendo, dunque, indirettamente un quadro indicativo delle responsabilità dei vari operatori. In attesa di una disciplina ad hoc sulla responsabilità civile dei sistemi di IA, nell’Artifcial Intelligence Act si osserva un approccio di tipo “top-down”: viene individuato un rischio, o una categoria di soggetti e settori ai quali è associato, e si impongono degli obblighi. L’obiettivo è chiaro: responsabilizzare i soggetti che operano nei sistemi di IA.

In considerazione della classificazione dei rischi nell’utilizzo dei sistemi di intelligenza artificiale, la proposta di regolamento
chiarisce che “è opportuno che una specifica persona fisica o giuridica, definita come il fornitore, si assuma la responsabilità dell’immissione sul mercato o della messa in servizio di un sistema di IA ad alto rischio, a prescindere dal fatto che tale persona fisica o giuridica sia la persona che ha progettato o sviluppato il sistema”.

Il fornitore dovrà:
• istituire un solido sistema di gestione della qualità;
• garantire il compimento della procedura di valutazione della conformità richiesta;
• redigere la documentazione necessaria;
• istituire un insieme di regole per il monitoraggio successivo all’immissione sul mercato del sistema di IA.
Non solo fornitori: la proposta precisa che “è opportuno stabilire obblighi specifici per gli operatori economici pertinenti, quali importatori e distributori, al fine di garantire la certezza del diritto e facilitare il rispetto della normativa da parte di tali operatori”.

In questo senso, anche gli utenti svolgono un ruolo fondamentale: “In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo […] è opportuno stabilire responsabilità specifiche per
gli utenti”. Questi ultimi dovranno seguire pedissequamente le istruzioni per l’uso dei sistemi di intelligenza artificiale ad alto rischio, nonché le regole previste per il monitoraggio.

Parola d’ordine: fiducia

La parola d’ordine del testo presentato dalla Commissione al Parlamento europeo è “fiducia”. La proposta, infatti, vuole sviluppare un cosiddetto “ecosistema di fiducia”: nelle intenzioni delle istituzioni europee le nuove regole devono incentivare le imprese a sviluppare ed utilizzare soluzioni basate sull’IA perché pongono le loro basi sulla tutela indiscussa della salute, della sicurezza e dei diritti fondamentali dei cittadini. L’IA diventa quindi uno strumento per le persone e un fattore positivo per la società che ha come fine principale quello di migliorare il benessere degli esseri umani. Assistiamo dunque
ad un cambio di paradigma nel rapporto uomo-macchina, o meglio, un’evoluzione in senso sociale dello stesso: la dimensione tecnoeconomica viene integrata da una visione umano-centrica, sostenibile e resiliente, in cui gli impatti sociali della crescita possano produrre un benessere diffuso.

Scopri subito la nuova edizione di

Tecnologia & Innovazione