giovedì 11 Mag, 2023

Quale etica per l’AI – Intervista a Enrico Panai

Il ruolo morale dell’essere umano nello sviluppo e nell’implementazione dei sistemi di intelligenza artificiale. Intervista a Enrico Panai

Enrico Panai è uno specialista in etica dell’intelligenza artificiale e dell’interazione uomo-macchina nel settore dell’informazione con esperienza pluridecennale. Il percorso da lui intrapreso, sin dai primi studi universitari a Sassari, è stato di stampo filosofico e orientato alla disciplina etica. Un percorso che lo ha portato ad occuparsi di standard e politiche relative all’intelligenza artificiale, prodotte da un’analisi delle situazioni morali che si generano in conseguenza dell’implementazione di suddetti sistemi su ogni livello, quotidiano, professionale e cognitivo. La professione di eticista svolta da Panai lo vede ricoprire diversi ruoli accademici e istituzionali, come l’insegnamento dell’etica dell’IA alla Emylon Business School di Parigi e il ruolo di project leader del gruppo JTC21 (Joint Technical Committee 21), specializzato sull’interazione tra i processi cognitivi umani e l’IA (per esempio le leve sfruttate dagli algoritmi per farci restare più a lungo su una pagina) e afferente al CEN-CENELEC, il comitato europeo che si occupa di stabilire gli standard per la creazione di sistemi intelligenti conformi alla legislazione europea.

Prof. Panai, nella percezione comune l’IA è vista come un operatore onnisciente e onnipresente. È una questione di educazione?

Il nome “intelligenza artificiale” è stato utile per dare una prima idea di che cosa si trattasse e dal punto di vista del marketing che si è avvantaggiato di una definizione potente, ma in realtà si tratta di statistica. La differenza principale con l’informatica precedente all’ingresso dell’IA si riscontra nel modo in cui i modelli emergono ora dai dati, mentre prima ne alimentavano uno creato dall’uomo. La paura nasce dalla sproporzione tra la probabilità di errore e l’enormità delle possibili conseguenze. Anche in uno scenario in cui l’errore è ridotto, diciamo, all’1%, quella stessa cifra potrebbe rappresentare, nella realtà, un caso grave. A questo possiamo aggiungere il fatto che l’IA svolge molteplici compiti simultaneamente e in maniera diffusa, magari su più piattaforme, dando quindi un’impressione di onnipresenza e onnipotenza. Per questo serve uno standard per rendere subito chiaro agli utenti che sono davanti ad un software e consentirgli così di dare il giusto peso a ciò che viene prodotto dal sistema.

Come si assicura la veridicità dei dati e la tutela dalla produzione di informazioni non autentiche? 

Si possono creare sistemi per controllare i processi messi in atto dall’intelligenza artificiale ma, se si tratta di due sistemi aperti e magari anche il controllore è un IA, allora si possono scatenare conflitti che renderebbero il suo utilizzo poco conveniente compromettendo la coesistenza di velocità e precisione. Proprio qui entra in gioco l’essere umano e il concetto che prende il nome di “Human in the loop”, che indica l’inserimento del contributo umano nel processo di produzione dell’informazione. Il contributo prende forma di supervisione e diviene ancora più centrale nel momento in cui ci si confronta con un modello di apprendimento linguistico che reagisce in base alla statistica delle parole, dove se rimproverato di aver sbagliato dopo aver composto un testo di 5 righe (numero) e suggerito di scriverlo correttamente utilizzando cinque righe (lettere), il bot si scusa e ricompone un testo della medesima lunghezza del primo. Il bot non ha sbagliato, tuttavia non ha inteso. 

Ma, al di là della supervisione, ci sarà anche un altro ruolo per l’agente umano? 

Si potrebbe verificare, in un prossimo futuro, un momento di crisi legato non tanto alla produzione di informazioni non veritiere ma alla produzione di contenuti privi di analisi e troppo superficiali. Quello che abbiamo di fronte in termini di intelligenza artificiale non può creare significati profondi perché la base dati non glielo consente, non essendo disponibili elementi precisi da cui attingere per spingersi oltre ad una semplice serie di interpretazioni plausibili. 

Veniamo ora alla privacy dei dati sensibili, per esempio quelli legati al corpo, che si possono inferire dalle strumentazioni smart utilizzate in ambito industriale.

Durante gli anni ’90 abbiamo assistito ad una stratificazione del corpo con i livelli di analisi che si sono moltiplicati e hanno prodotto radiografie e documenti su ogni aspetto di un soggetto. È sempre stato necessario, anche ai fini della tutela personale, rendere disponibili alcune informazioni su di noi, ma ora c’è una differenza sostanziale: si possono analizzare gli stati durante il tempo e continuamente. Qui sorge il pericolo della datificazione e di come alcuni dati che sono neutri se messi assieme creano più valore. Qui c’è il problema, si torna a come vengono utilizzati i sistemi e, soprattutto, all’individuazione delle possibili combinazioni tossiche che rendono l’accumulo di dati dannoso. La privacy, per essere tutelata, va implementata a livello di design: se i dati vengono trattati opportunamente e protetti a livello strutturale il pericolo si argina sul nascere.

Su quali progetti di legge si sta lavorando attualmente?

La strada concettuale sulla quale ci si sta indirizzando è quella di generare degli standard che ci consentano di utilizzare sistemi ad alto rischio. Dal punto di vista legislativo, l’Unione europea ha elaborato una scaletta che parte dalla proposta, contenuta nell’UE AI Act, di categorizzare i sistemi di intelligenza artificiale in base al grado di rischio. Ognuna delle categorie avrà obblighi legali specifici con vincoli e richieste specifiche per chi vuole utilizzare un determinato software o strumento. Il pacchetto legislativo ha il ruolo di stabilire diversi gradi di governance e slegarla dalla proprietà. Un progetto governativo che possa competere con ciò che viene prodotto dai giganti del settore è difficile da realizzare e non avrebbe nemmeno senso. Occorre quindi trovare normative condivise in grado di rendere i sistemi basati su intelligenza artificiale più trasparenti lasciando da parte la competizione economico-finanziaria.

Scopri subito la nuova edizione di

Tecnologia & Innovazione