martedì 23 Lug, 2024

Nessuna tecnologia è inevitabile

Il dibattito sull’etica e l’AI è offuscato da una corsa in velocità che mette in ombra responsabilità e rischi. Ne parliamo con la studiosa Diletta Huyskes

A pochi mesi dall’approvazione dell’AI Act, l’Unione Europea decide di promuovere l’AI Pact, un network europeo nato per incoraggiare le aziende a uniformarsi e a rispondere ai requisiti dell’AI Act. Tra le realtà imprenditoriali che aderiscono al patto, c’è Immanence, un’azienda italiana nata nel 2023 per sostenere le organizzazioni pubbliche e private nella gestione dell’impatto dei sistemi di IA sulla società. Immanence ha aderito perché “un approccio etico e responsabile verso le tecnologie non è basato su una mera questione di compliance: è necessario andare oltre”.

A parlare è Diletta Huyskes, che oltre a essere co-founder dell’azienda, è anche dottoranda in Sociologia digitale all’Università degli studi di Milano. Huyskes studia l’utilizzo di algoritmi da parte di enti pubblici per automatizzare le proprie decisioni. Nel frattempo, ha scritto il suo primo libro per Il Saggiatore, che si intitola “Tecnologia della rivoluzione”. Il libro veicola un messaggio di fondo, ovvero che “nessuna tecnologia è inevitabile”: “Perché spesso la tecnologia non ci appare come il frutto delle scelte che l’hanno realizzata, ma come qualcosa di immutabile. Diamo per scontato che esista un’unica forma possibile in cui può funzionare” Spiega Huyskes, che invita a “resistere all’inevitabile” ed esorta a chiederci: “Ma è davvero così?”

La risposta ce l’hai già data, è no: nessuna tecnologia è inevitabile. Ma cosa intendi di preciso?

Intendo dire che ogni scelta progettuale è uno spazio di possibilità come le direzioni che prendiamo nelle nostre vite. Le scelte a nostra disposizione sono tutti mondi possibili, mondi alternativi. In ambito tecnologico, ogni scelta implica un alto livello di responsabilità che va giustificato. L’attenzione va spostata sulla responsabilità e il controllo che alcuni gruppi di attori hanno. Si tratta di governi, aziende, decisori, designer e di tutto il team che può lavorare alla progettazione e alla costruzione di una determinata tecnologia. C’è una distribuzione di responsabilità che va chiarita, sottolineata: vanno esplicitate le scelte progettuali.

Nessuna tecnologia è inevitabile

E noi utenti che ruolo abbiamo?

Come fruitori di tecnologie possiamo provare a essere un po’ curiosi e curiose di fronte a una tecnologia o un processo automatizzato, e chiederci: perché una tecnologia, un processo ha assunto una particolare forma? Perché funziona in un determinato modo? È questa l’unica forma possibile in cui può funzionare? Ci sono pochi usi dell’AI che andrebbero radicalmente vietati, come quelli di sorveglianza, di controllo anche biometrico, o usi in contesto di conflitto, in contesti militari. Negli altri casi l’importante è capire come si fa, e non tanto se si fa: sono le modalità, le procedure, la metodologia e la governance di questi progetti che dobbiamo osservare.

Nel tuo libro fai riferimento ad alcuni casi di utilizzo discriminatorio dell’AI da parte del governo olandese. La rete Privacy Network, di cui sei responsabile advocacy, ha un osservatorio, “Amministrazione automatizzata”, che coordina la prima mappatura nazionale degli algoritmi usati dalla pubblica amministrazione e dal governo. Qual è la situazione in Italia? Ci sono già stati casi in questo senso?

Sull’osservatorio ci sono già dei casi, e stiamo lavorando a un report che idealmente uscirà ogni anno. Grazie alla mia ricerca accademica mi sto scontrando con il fatto che esiste questa situazione anche in Italia. Esistono diversi algoritmi e modelli usati da diverse PA, più o meno sofisticati, ma le cui conseguenze possono essere comunque molto problematiche sulle persone se non vengono gestite in modo responsabile. 

Con l’avvento dell’AI generativa, di strumenti come ChatGPT, stiamo affrontando questioni etiche diverse rispetto alla tradizionale AI?

Un altro tratto dell’apparente inevitabilità delle tecnologie che descrivo nel mio libro è che nel corso della storia si tendono sempre a isolare gli sviluppi tecnologici gli uni dagli altri, ma in realtà non è così. L’AI generativa ha delle radici in tecniche di AI ormai datate, che hanno a che fare con la traduzione, con modelli del linguaggio che sono nati anche più di dieci anni fa. L’AI generativa utilizza tecniche che sono basate sulla statistica, come tutti gli altri sistemi di AI.

I problemi etici che fanno emergere hanno quindi a che fare con l’utilizzo di big data per l’addestramento, con l’analisi di dataset molto grandi che contengono al loro interno un po’ di tutto. Questi modelli ragionano per metriche statistiche, come media, varianza, probabilità, e le associano alla normalità. È naturale allora che quello che ci viene restituito abbia a che fare con lo status quo, con quello che queste tecniche di analisi dati e generazione di contenuti vedono più spesso.

Se hanno più peso i dati più frequenti, allora assistiamo a una discriminazione delle minoranze. In generale, posto che i dati su cui vengono addestrate vengono da un input umano, allora le AI amplificano anche quelli che vengono chiamati i bias umani, come stereotipi e pregiudizi. È così?

Dagli anni ‘50 in poi, quando si è costituito il campo di ricerca sull’AI, abbiamo deciso di basare questa tecnologia su logiche statistiche. Quindi l’AI non può fare altro che riportare ciò che è più presente nei dati di addestramento. Nel mio libro faccio una provocazione: se è questa la base di partenza tecnica, come fa un modello a non discriminare? Ci sono varie cose che si possono fare ma servono innanzitutto consapevolezza, valutazione dell’impatto e precise scelte progettuali.

A questo aggiungiamo il fatto che i lavoratori assunti dalle aziende per etichettare dati necessari all’addestramento dei modelli di AI svolgono queste mansioni in maniera ripetitiva e con un salario basso. Quali sono i rischi? 

Sono soprattutto le big tech che usano lavoratori a bassissimo costo, sfruttandoli con delle nuove forme di schiavitù sul mercato del lavoro: è come se fosse un caporalato digitale. Questo fenomeno colpisce alcune parti del mondo, soprattutto il Sud globale: purtroppo non è un rischio, ma è la realtà. Ed è su queste etichettature che moltissima della conoscenza dei modelli di AI si basa. Per ora la regolamentazione non sta intervenendo in questo processo.

A proposito di normative, rispetto alla tua esperienza in Immanence, le aziende italiane come vedono l’AI Act e in generale gli aspetti etici dell’AI? 

Siamo molto felici di essere partite per prime sul mercato, di essere arrivate in anticipo, perché oltre all’aspetto business abbiamo anche questo obiettivo culturale, di cambiare l’approccio alla tecnologia. Occorre prendersi il tempo necessario per questo. In Immanence ci occupiamo di governance, di valutazione di impatto e valutazione dei rischi etici e sociali dell’AI a 360 gradi, ma è molto interessante vedere che ci sono alcune realtà che ci chiedono più verticalmente di supportarle nelle strategie e nelle mitigazioni dei rischi di discriminazione, quindi qualcosa di molto specifico. 

Un aspetto su cui l’AI Act interviene esplicitamente è quello dell’AI literacy: chi utilizza modelli di AI deve ricevere una certa formazione. Cosa vuol dire adottare tecnologie di intelligenza artificiale senza una formazione che ne mostri rischi e potenzialità?

Vuol dire non essere consapevoli di quello che potrebbe succedere, e questo purtroppo è lo scenario più diffuso. Se non sappiamo quali sono i rischi, non ci si responsabilizza per evitare che succedano. Una volta che i nostri clienti hanno deciso di lavorare con noi, quasi li obblighiamo a prendere parte a dei workshop. Durante questi workshop noi forniamo le basi tecniche e un certo scenario. Essendo loro poi a dover progettare e gestire i loro progetti tecnologici, devono essere loro a capire quali sono le implicazioni. Osservare come le persone si comportano nelle diverse situazioni è una parte molto preziosa del nostro lavoro, perché in questo modo capiamo quanto grande è l’impatto che può avere l’inconsapevolezza rispetto a questi temi.

CHI È – Diletta Huyskes

Dopo essersi laureata in Filosofia e aver conseguito un master in Philosophy, Politics and Economics, ha lavorato come assistente ricercatrice sul tema dell’etica e la protezione dei dati nei processi di innovazione digitale alla Fondazione Bruno Kessler. Oggi è dottoranda in Sociologia Digitale all’Università degli Studi di Milano. Dal 2019 è la responsabile Advocacy & Policy di Privacy Network, associazione italiana nata per la tutela dei diritti digitali e fondamentali. Nel 2023 ha co-fondato ed è co-Ceo di Immanence, società benefit che lavora insieme a organizzazioni private e pubbliche per valutare le loro tecnologie digitali e le AI, offrendo soluzioni per renderle etiche, non discriminatorie e responsabili. È autrice del libro “Tecnologia della rivoluzione”, uscito nel 2024 per Il Saggiatore.

Scopri subito la nuova edizione di

Tecnologia & Innovazione