lunedì 15 Dic, 2025

Il vero problema dell’AI è la concentrazione nelle mani di pochi

Cosa accadrebbe se l’AI diventasse capace di accelerare autonomamente la propria evoluzione? Ne abbiamo parlato con il prof. Domenico Talia

Gli esperti e i superforecaster restano divisi sul futuro dell’AI, oscillando tra aspettative di progressi senza precedenti e timori di possibili esiti catastrofici. Al centro del dibattito c’è una domanda cruciale: cosa accadrebbe se l’AI diventasse capace di accelerare autonomamente la propria evoluzione? Un recente studio pilota del METR ha iniziato a esplorare questa possibilità, valutando probabilità e impatti attraverso tecniche di judgmental forecasting.

Per approfondire le implicazioni di questi scenari, abbiamo intervistato il professor Domenico Talia, docente di Sistemi di Elaborazione dei Dati all’Università della Calabria, esperto del settore e autore di diversi volumi sui Big Data, che ha risposto ad alcune nostre domande.

Se un’AI potesse davvero accelerare la propria evoluzione, quali sarebbero i benefici pratici più immediati? E quali i rischi più probabili?

I benefici dell’uso dei sistemi di AI li stiamo osservando in tantissimi ambiti e in tutti i settori industriali. Nella pratica abbiamo sistemi di AI usati per identificare malattie, per definire nuove cure, per l’innovazione nella PA, per il risparmio energetico, per l’agricoltura di precisione e per molto altro. Ulteriori evoluzioni, che certamente ci saranno, potranno permetterci di risolvere altri problemi che riguardano la vita delle persone e l’organizzazione della società. Tuttavia, i rischi non sono pochi di fronte a sistemi con maggiore autonomia e maggiore capacità risolutive autonome. Va considerato che i sistemi di AI più avanzati sono in mano a pochi soggetti che hanno dei vantaggi enormi anche rispetto agli Stati. Inoltre, l’uso di questi sistemi non orientato al bene delle persone e delle collettività introduce nuove disuguaglianze e esercizi non controllati del loro nuovo potere di manipolazione.

Prof. Domenico Talia, docente di Sistemi di Elaborazione delle Informazioni presso l’Università della Calabria. Esperto in sistemi di elaborazione delle informazioni e Big Data

Quali sarebbero i principali rischi legati a un’AI che sviluppa nuove capacità senza supervisione umana? Quali strumenti di governance o controllo potrebbero essere necessari per regolamentare l’AI in caso essa sia in grado di rendere autonoma la propria evoluzione?

L’approccio “sostitutivo” che alcuni grandi player hanno scelto nella realizzazione dei sistemi di AI è altamente rischioso per il ruolo degli umani sulla Terra e per l’organizzazione delle società democratiche. Si sta spingendo molto su sistemi, anche robotici, che rimpiazzino totalmente gli esseri umani, mentre i sistemi di AI dovrebbero essere di ausilio per le persone. Sappiamo che sono certamente di grande aiuto, ma la loro potenziale autonomia mette in dubbio il modo con cui le società hanno funzionato finora. Per questa ragione sono necessarie norme chiare e pubbliche che definiscano i limiti dell’autonomia dei sistemi di AI che vengono sviluppati e venduti. Allo stesso tempo, anche chi sviluppa questi sistemi dovrebbe darsi delle regole (etiche e professionali) per lasciare spazio al controllo umano nel funzionamento e nell’uso di questi sistemi.

È tecnicamente possibile creare un “freno di emergenza” su sistemi che si auto-modificano?

Non parlerei di “freno di emergenza”, ma di sviluppo etico e human-centric. I sistemi di AI avanzati non devono poter fare tutto da soli, non dovrebbero avere capacità di auto-evoluzioni libere dal controllo umano “by design”. Insomma, credo che non si tratti di inserire nei sistemi un’uscita di emergenza, ma di progettarli e realizzarli in modo che debbano comunque riferirsi alle persone che le usano quando ritengono di dover fare delle scelte decisionali su loro stessi e sugli altri. Questa è una questione complessa che va comunque affrontata per evitare futuri effetti negativi.

Se l’AI potesse accelerare la propria evoluzione, potremmo assistere a una democratizzazione della ricerca (accesso più ampio a scoperte) o al contrario a una concentrazione del potere in poche mani?

La concentrazione del potere nelle mani di pochi soggetti che sviluppano e commercializzano i sistemi di AI è già una realtà alla quale è necessario porre un limite. Questi soggetti hanno un vantaggio competitivo straordinario che assegna loro anche un ruolo politico di influenza di grandi masse di persone che non è accettabile in democrazia. In quanto alla democratizzazione della ricerca, si può realizzare se i risultati delle nuove attività di ricerca sostenute dall’AI verranno resi disponibili a tutti e saranno replicabili da tutti. In questa direzione l’uso di sistemi di AI aperti e la disponibilità pubblica dei dati sono elementi fondamentali.

Riguardo la ricerca scientifica, possiamo parlare di autonomia della ricerca senza la capacità dell’AI di definire e valutare ipotesi scientifiche? Quanto siamo lontani da questo traguardo?

I sistemi di AI hanno già “vinto” due premi Nobel nel 2024 (per la fisica e per la chimica) e questo è già una prova formidabile di come l’AI stia modificando i processi della ricerca scientifica. Non siamo affatto lontani dalla capacità dei sistemi di machine learning e AI generativa di formulare nuove ipotesi e di ricercare soluzioni innovative sulla base dell’enorme patrimonio di contenuti scientifici a cui possono accedere. Nel mondo ci sono diversi progetti per realizzare “virtual scientists” capaci di fare ricerca e trovare nuovi risultati scientifici in autonomia. Naturalmente, occorre stare molto attenti ai risultati che loro producono, perché i sistemi di AI non sono perfetti, hanno ancora tassi di errori significativi e potrebbero portare a grandi errori senza la sovrintendenza umana.

Come si potrebbe garantire la robustezza e la trasparenza dei risultati prodotti da un’AI che modifica i propri modelli? Quanto è plausibile che l’AI sviluppi ricerche e teorie scientifiche corrette?

Sulla possibilità che i sistemi di AI sviluppino ricerche e teorie scientifiche plausibili, ho già detto e confermo il fatto che l’AI sta cambiando in maniera significativa il modo di fare ricerca nei laboratori e nelle università. Robustezza e trasparenza richiedono seri investimenti verso lo sviluppo di sistemi di AI sicuri e responsabili. La safety e l’accountability sono temi di ricerca e sviluppo importanti nell’ambito dell’AI e sarà necessario aumentare gli investimenti su questi temi di coloro che sviluppano sistemi di apprendimento automatico. Allo stesso tempo, le leggi e le norme che vengono varate da governi e parlamenti devono enfatizzare particolarmente questi aspetti per vincolare le aziende a realizzare sistemi sicuri e affidabili.

Scopri subito la nuova edizione di

Tecnologia & Innovazione