venerdì 09 Ott, 2020

Explainable artificial intelligence: dentro la scatola nera del machine learning

 

Negli ultimi anni è cresciuta sempre più l’attenzione verso le tecnologie di intelligenza artificiale, in particolare quelle di machine learning, o apprendimento automatico, cioè quelle tecniche capaci di analizzare grosse quantità di dati e formulare un modello, un algoritmo, utile a generare automaticamente il comportamento appreso.

 

Si tratta di una vasta gamma di metodi, tra cui i più noti anche ai non addetti al lavoro sono probabilmente le reti neurali artificiali, ma anche alberi decisionali, clustering e algoritmi adattivi.

Le applicazioni, come possiamo leggere anche dalla stampa, sono quasi infinite. Possiamo insegnare ad un algoritmo a prevedere il meteo in base ai dati climatici attuali, oppure costruire una telecamera capace di leggere testi scritti a mano, o ancora applicare un filtro automatico di riconoscimento spam.

In tutti questi casi quindi, dovremmo trovare un grande dataset detto di apprendimento, grazie al quale il nostro algoritmo impara ad associare un certo input (i dati meteorologici di un certo giorno, ad esempio), a un certo output (il meteo del giorno successivo), per poi utilizzare queste informazioni in una fase successiva, per compiere previsioni in situazioni mai viste prima.

In un certo senso, possiamo dire che a differenza della programmazione tradizionale, dove a una macchina venivano impartite istruzioni esplicite, nell’apprendimento si consente all’algoritmo di trovare da sé le regole decisionali.

È fondamentale quindi tenere sempre a mente l’importanza dei dati di apprendimento, sia in termini di qualità, quantità ma anche di correttezza nella rappresentazione del modello che vogliamo descrivere. Basti pensare che la gran parte degli algoritmi di machine learning oggi utilizzati, sono stati concepiti già a partire dagli anni ‘60, ma mai hanno trovato applicazione e sviluppo come ora proprio per l’assenza di grosse moli di dati – big data – con cui poter funzionare. Spesso il machine learning viene considerato una sorta di sfera di cristallo, capace di dare risultati oggettivi, neutrali e certi, ma la verità è che il risultato di un processo di apprendimento è fortemente dipendente dai dati utilizzati, e questi possono portare eventuali distorsioni, o i cosiddetti bias.

Proprio per far capire questo aspetto con un esempio semplice, tre ricercatori dell’Università di Washington hanno progettato nel 2016 una rete neurale per la classificazione delle immagini. In particolare, l’algoritmo è stato addestrato per distinguere le foto di husky da quelle di lupi. I ricercatori hanno quindi fornito al software migliaia di foto di entrambi gli animali, etichettate con la giusta classificazione.

Dopo una fase di addestramento, sono state sottoposte all’algoritmo nuove foto, diverse da quelle viste fino ad allora, e stavolta prive della corrispondente etichetta. Il modello così addestrato si era rivelato efficiente: l’algoritmo riusciva a distinguere i cani dai lupi in molti casi. Quello che poi i ricercatori hanno però dimostrato, era che se si andava a vedere il motivo per cui i lupi venivano classificati come tali era la presenza di neve sullo sfondo. Questo significa che la maggior parte delle foto di lupi, per motivi di habitat, erano state scattate in presenza di neve, e questo era quindi diventato un elemento distintivo per distinguere gli animali, era insomma una sorta di distorsione dovuta al dataset scelto, appunto un bias.

Chiaramente la ricerca di Washington era una sorta di provocazione, o meglio, uno studio compiuto per dimostrare questo aspetto

del machine learning, ma la letteratura e la cronaca sono piene di casi recenti di software e modelli di apprendimento che si sono rivelati problematici perché contenenti distorsioni di questo tipo. Inoltre, quando si vuole progettare un algoritmo di apprendimento automatico, si deve prima essere certi che tra i dati di ingresso e quelli in uscita vi sia non solo una correlazione statistica (i primi variano al variare dei secondi), ma anche un principio di connessione, di causalità.

Uno degli slogan più noti nella cultura matematica è proprio “correlation is not enough”, la correlazione non basta da sé, e come alcuni siti dimostrano, ad esempio il divertente Spurious Correlations, è molto facile incontrare buone correlazioni tra fenomeni che chiaramente non hanno nulla a che vedere tra loro, come gli incidenti automobilistici avvenuti in California e le comparse cinematografiche di Nicolas Cage.

Queste motivazioni, unite alla diffusione delle tecnologie di machine learning, hanno portato negli ultimi anni a far nascere una nuova corrente di ricerca in questo ambito, la cosiddetta Explainable Artificial Intelligence (XAI), cioè quella metodologia del machine learning che prova a costruire modelli “spiegabili”, che consentano quindi al programmatore di capire quali siano i criteri che portano l’algoritmo a prendere una scelta piuttosto che un’altra.

È un settore in pieno sviluppo, affrontato anche da gruppi di ricerca dell’Università e del CNR di Pisa, che in un paper pubblicato nel 2018 hanno riportato motivazioni e metodi per aprire la “scatola nera” dell’intelligenza artificiale.

Nello studio si affronta, ad esempio, il problema dell’applicazione di queste tecnologie all’ambito sanitario, dove oltre a dover disporre di algoritmi capaci di identificare ad esempio un tumore dall’analisi di una lastra, è anche fondamentale capire su che basi il modello ha compiuto questa scelta. Inoltre, la comprensione dei meccanismi di apprendimento diventa un aspetto fondamentale considerando le nuove regolamentazioni in materia di algoritmi.

Nel Regolamento Generale per la Protezione dei Dati (GDPR), entrato in vigore in Europa il 25 maggio 2018, viene introdotto un

“right of explanation” – un “diritto alla spiegazione” – per quelle tecnologie utilizzate nel prendere decisioni. Si tratta del diritto di un individuo di ottenere “informazioni comprensibili della logica utilizzata” verso i software che comportano con le loro scelte effetti legali o sociali.

Chiaramente questo ha una ricaduta sulle grandi piattaforme, che sono quindi tenute a dover spiegare come funzionano i loro

processi, ma pone un problema qualora la tecnologia interessata sia intrinsecamente opaca. In altre parole, come scritto dai ricercatori, senza uno sviluppo di tecnologie di machine learning comprensibili, quello del diritto alla spiegazione diventa un concetto vuoto, non applicabile.

In definitiva, il machine learning è certamente uno strumento potentissimo e utile in una variegata possibilità di circostanze. Come ogni strumento valido, spesso si può rischiare di fraintenderne le possibilità o il campo di azione.

Scegliere di affidarsi a uno strumento di questo tipo comporta avere chiaro in mente quali sono gli eventuali rischi se non si applica un buon metodo, sia per la rappresentazione che per la raccolta dati. Di conseguenza, questo comporta anche la necessità, per sviluppare questo tipo di tecnologie, di affiancare esperti di varie discipline, sia con competenze tecniche ma anche epistemologiche.

Più le tecnologie si fanno complesse, più rischiamo di creare e utilizzare sistemi di decisione automatizzati che non comprendiamo veramente. Questo comporta problemi quindi sulla sicurezza, la responsabilità e l’efficacia del risultato.

Le aziende stanno commercializzando sempre più servizi e prodotti che fanno uso di componenti di machine learning, spesso in settori dove la sicurezza è estremamente importante, come nel caso della domotica o delle macchine a guida autonoma. Il rischio di una scelta sbagliata o incomprensibile potrebbe portare in questi casi a rischi mortali, come d’altronde è già successo durante una sperimentazione da parte di Uber di automobili intelligenti.

Infine, per il mondo della ricerca, è fondamentale sviluppare metodi non solo funzionanti, ma anche interrogabili, per poter comprendere, laddove le tecnologie falliscono, perché lo fanno e in che direzione continuare la ricerca.

Scopri subito la nuova edizione di

Tecnologia & Innovazione