Abbiamo chiesto ad alcuni firmatari dell’appello per lo stop di sei mesi quali sono i timori e i rischi più concreti: senza regole vincerà il più forte
La serrata cronologia degli eventi suggerisce solo una certezza: la battaglia su ChatGPT non è iniziata quest’anno, ma viene da lontano ed è destinata a svilupparsi ancora per molto tempo. Vale la pena ripercorrere le tappe più rilevanti.
A fine marzo un migliaio di accademici, ricercatori e imprenditori (oggi sono oltre 20mila) hanno firmato una lettera pubblica per chiedere uno stop di almeno sei mesi al training dei sistemi più potenti di ChatGPT-4. “I sistemi di AI dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità”, scrivevano nel testo reso noto dal Future of Life Institute (FLI). “Ciò non significa una pausa nello sviluppo dell’AI in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli di black-box sempre più imprevedibili”. La priorità, suggerivano, dovrebbe essere data al “rendere questi sistemi più accurati, sicuri, interpretabili, trasparenti e affidabili” lavorando insieme ai policy maker per “accelerare lo sviluppo di solidi sistemi di AI governance”.
A pochi giorni di distanza dalla pubblicazione dell’appello, il Garante della privacy, com’è noto, ha bloccato ChatGPT in Italia disponendo “con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani”. Secondo il Garante della privacy (GPDP), il sistema manca di una informativa agli utenti ed è privo di filtri per la verifica dell’età, ma ha dato tempo alla società OpenAI, che ha sviluppato ChatGPT, di rispondere alle prescrizioni entro il 30 aprile.
Nel frattempo, oltreoceano, il fondatore e amministratore delegato di OpenAI Sam Altman ha dichiarato di aver “congelato” lo sviluppo di Gpt-5, la versione potenziata del celebre chatbot. Lui stesso, prima dell’appello del Future of Life Institute, aveva chiesto prudenza e messo in guardia dai rischi più gravi connessi all’uso delle tecnologie general purpose. Salvo poi diffondere ChatGpt-4 in un ambiente completamente de-regolamentato.
Quanto agli aspetti da chiarire pubblicamente, l’Italia si è mossa per prima, ma sono tanti i Paesi che stanno cominciando a prendere la cosa sul serio. Il Center for AI and Digital policy, organizzazione di ricerca no-profit statunitense, ha inviato una denuncia alla Federal Trade Commission, l’agenzia federale che si occupa di antitrust e tutela della privacy, chiedendo di indagare su OpenAI e sospendere il rilascio di modelli linguistici come ChatGPT perché costituiscono “un rischio per la privacy e la sicurezza pubblica”. Anche il Canada ha aperto un’indagine su OpenAI, che è indagata per raccolta, utilizzo e diffusione di dati personali senza consenso. Francia, Germania e Irlanda stanno valutando l’opportunità di bloccare ChatGPT per le stesse motivazioni.
“Ecco perché ho firmato la lettera”
In questo scenario, abbiamo cercato di far luce sul dibattito che si è aperto con alcuni degli attori italiani coinvolti. Nicola Guarino, Paolo Zuccon, Domenico Talia, Gianluigi Greco si occupano di Intelligenza artificiale (AI) e concordano sul fatto che c’è bisogno di regolamentare questo tipo di tecnologie. I primi tre sono tra i firmatari dell’appello per lo “stop”, mentre il quarto ha una posizione diversa.
“Perché ho firmato la lettera? La risposta più onesta e più sintetica è: perché ho paura di questa tecnologia – spiega Nicola Guarino, dirigente di ricerca CNR responsabile della sede di Trento dell’Istituto di Scienze e Tecnologie della cognizione -. Perché una tecnologia sia utile e affidabile è necessario che sia anche socialmente controllabile. Per quanto riguarda i sistemi di AI, ciò significa che questi devono essere capaci di esporre in termini cognitivamente comprensibili la propria struttura interna e i propri meccanismi decisionali. Ma, come sottolineato nell’appello, neanche i creatori di questi grandi sistemi hanno oggi modo di capire, predire e controllare il loro funzionamento. Sono quindi molto d’accordo sull’invito a ri-focalizzare l’attività di ricerca in AI sulla realizzazione di sistemi che possano essere più accurati, sicuri, interpretabili, trasparenti, robusti e affidabili, nonché sulla necessità di implementare un sistema di controllo sociale dello sviluppo e delle applicazioni delle tecnologie di Intelligenza artificiale”.
“In questa lettera non chiediamo né uno stop alla ricerca né uno stop ai sistemi di Intelligenza artificiale, ma chiediamo una pausa alla messa a disposizione al pubblico di strumenti di AI come ChatGPT – afferma il Paolo Zuccon, professore associato del Dipartimento di Fisica dell’Università di Trento -. C’è una grandissima competizione tra diverse aziende che stanno producendo software di Intelligenza artificiale sempre più evoluti e temiamo che la pressione commerciale a vincere la concorrenza porti gli sviluppatori a saltare alcuni passaggi chiave nell’addestramento di questi prodotti. Passaggi che servono a garantire la loro sicurezza, ovvero a porre delle limitazioni ad usi scorretti o illegali degli stessi. La proposta è dunque quella di fermarsi per sei mesi in modo tale da favorire uno sviluppo più armonico di questi sistemi”. “Al di là della proposta in sé – svela Zuccon -, l’obiettivo principale dell’appello è quello di portare la discussione dal piano degli addetti ai lavori a quello pubblico. E mi sembra che questo intento sia già stato raggiunto”.
“È proprio l’intento di stimolare un dibattito pubblico e l’intervento dei governi ad aver mosso molti dei firmatari – sostiene Domenico Talia, professore ordinario di Sistemi di elaborazione delle informazioni presso la Facoltà di Ingegneria dell’Università della Calabria -. C’è la necessità di discutere pubblicamente di tali questioni. In questo senso, una moratoria di sei mesi non è che risolva il problema, ma aiuterebbe a prendersi del tempo per riflettere”.
La posizione cauta dell’associazione AIxIA
“Questa è una lettera molto importante perché firmata da alcune delle personalità che più hanno determinato l’avanzamento dell’Intelligenza artificiale negli ultimi anni a livello mondiale – spiega Gianluigi Greco, presidente dell’associazione AIxIA (Associazione italiana per l’Intelligenza artificiale) -. Contiene vari spunti interessanti, delle posizioni sicuramente condivisibili, ma ha anche delle ombre, tant’è che la nostra associazione ha deciso di non prendere una posizione ufficiale in merito alla sottoscrizione, lasciando liberi gli associati di scegliere autonomamente”.
“Uno stop di sei mesi non può essere interpretato come una vera soluzione ad una problematica di questo tipo” aggiunge Greco. “Riteniamo che sia assolutamente irrealistico e non realizzabile. Dall’altra parte, però, l’appello rappresenta un potente invito ad una riflessione sociale e politica di cui abbiamo estremo bisogno. Da tecnico, ChatGpt non fa alcuna impressione – dice ancora il presidente di AIxIA -. Qualcuno, riferendosi a questi sistemi di AI, ha parlato di ‘pappagallo stocastico’, e penso abbia ragione. Non si tratta di forme di intelligenza creative in grado di generare pensieri nuovi. Se ci si pensa, nella maggior parte dei casi la gente si è divertita ad usare ChatGpt per vedere se sbagliava, e ChatGpt sbagliava. Ma è normale che sbagli, perché non è stata creata per quello. È un sistema che non è in grado di elaborare e di analizzare, quindi ha un campo d’azione che, tutto sommato, è molto limitato”. E chiosa: “Innegabile la necessità di una regolamentazione dei sistemi AI. Ma l’approccio dello spauracchio per regolamentare queste tecnologie credo sia assolutamente fallimentare”.
“Quando ho sottoscritto l’appello non pensavo minimamente ad un intervento del Garante della privacy italiano – riprende Talia -. Probabilmente l’Autorità stava già lavorando a questo provvedimento, o forse è la nostra lettera ad aver stimolato o velocizzato la sua iniziativa contro OpenAI. Al di là di questo, è indubbio che tale concomitanza sia interessante: alcune perplessità espresse nella lettera trovano conferma nelle dichiarazioni rilasciate dal Garante”. “La questione della gestione dei dati, e dunque della privacy delle persone, del mancato controllo dell’identità e dell’età degli utenti – prosegue Talia – è un aspetto critico di ChatGPT, così come di altre piattaforme digitali, che deve essere chiarito. Vero è che se rimane solo un’iniziativa del GPDP italiano, la situazione non cambierà di molto”.
Il dibattito europeo e le regole
Anche il presidente di AIxIA concorda sul punto: “Chi utilizza questi sistemi che siano ChatGPT, social o altro, deve sapere in maniera trasparente, semplice e intellegibile quali sono i dati che sta mettendo a disposizione e quali sono i rischi a cui si espone”, afferma Greco. “Dunque, il principio generale dell’intervento certamente va fatto salvo. Ma – aggiunge – c’è un altro aspetto sul quale dobbiamo interrogarci, che riguarda i dati utilizzati da questi sistemi per allenarsi prima dell’interazione con gli utenti. Tali dati sono quasi totalmente presi da internet, dalle nostre pagine personali, dai nostri blog, dalle nostre interazioni social. La domanda che dobbiamo farci è: questi dati, pubblici perché sono sul web, possono o non possono essere utilizzati in maniera così libera per addestrare questi algoritmi? La risposta non è scontata”.
“È arrivato il momento di regolamentare una volta per tutte questi sistemi – conclude Gianluigi Greco -, partendo però dal presupposto che viviamo in un ecosistema globale e che dunque l’Italia non può avere una posizione diversa dagli altri Stati. Serve una visione comune a livello internazionale”.
In Europa la discussione sull’AI Act è nel vivo e si basa, appunto, su una scala di valutazione dei rischi. Gran parte del dibattito ruota attorno a una domanda, emersa già due anni fa, ovvero: cosa fare con sistemi di AI general purpose, cioè che possono essere utilizzati per un’ampia varietà di applicazioni, sia a basso che ad alto rischio? Come dovrebbero essere regolamentati? Il Parlamento Europeo ne sta già discutendo, e al dibattito politico si è affiancata la recente decisione del Comitato europeo per la protezione dei dati (Edpb), l’organo che riunisce i Garanti della privacy dell’Unione, di istituire una task force per vigilare su ChatGPT.
I giorni passano, i dialoghi internazionali procedono mentre in rete altre chat simili si diffondono, le VPN spopolano e il mondo va avanti con la sua sfacciata velocità. In Cina la grande compagnia Alibaba ha annunciato l’intenzione di lanciare il proprio ChatGPT: si chiamerà Tongyi Qianwen. In fondo sembra che sia la competizione cinese, più di ogni altro timore di tipo etico-esistenziale, a preoccupare maggiormente le Big Tech occidentali. E sembra di sentire il cigolio del proverbiale cancello chiuso quando i buoi sono già usciti. A breve non basterà più dire: “Scusate, non siamo pronti”.