giovedì 14 Mag, 2026

Il frastuono dell’AI e il peso della responsabilità

Tra marketing narrativo e rischio sistemico, le aziende si trovano di fronte a una scelta strategica: adottare in modo critico o rimanere indietro

L’hype si è un po’ attenuato, ma un recente post su X sull’AI dell’imprenditore statunitense Matt Shumer, intitolato “Something big is happening”, continua a fare dibattito. Shumer descrive il momento attuale come inquietantemente simile al febbraio 2020. Come allora, un piccolo gruppo di persone avvertiva l’inizio di una crisi imminente, ma la maggior parte guardava altrove liquidandole come allarmiste. Ora, a suo dire, la storia si sta ripetendo con l’AI generativa, solo che questa volta lo sconvolgimento non sarà temporaneo e la sua scala sarà molto più grande.

Ad aver smosso i lettori, tuttavia, è stata la sua provocazione su quale sarà la prossima categoria a subire l’impatto. Chi lavora nella tecnologia ha visto l’AI evolvere e – nel giro di qualche mese – passare dall’essere percepita un comodo assistente a qualcosa che spesso supera gli umani nei loro stessi lavori. Secondo Shumer, la resa dei conti sta per diffondersi in quasi tutti i campi, e non tra anni, ma in un futuro molto prossimo.

Capacità di giudizio o solo di marketing?

L’AI sta sviluppando gusto, capacità di giudizio e di decisione – o sembra solo che sia in grado di farlo? Questa è la domanda al centro delle riflessioni di Shumer, partita con il rilascio di GPT-5.3 Codex, che lo hanno indotto a dire: sì, la tecnologia si è evoluta oltre il punto di saper eseguire semplicemente istruzioni. I critici, d’altra parte, sono molto più cauti. Secondo molte voci quello di Shumer è marketing narrativo: una storia avvincente, ma non accurata. La storia vera, controbattono, è una storia di perfezionamento e di scala, non un cambiamento di natura. Ciò che sembra un balzo in avanti è, in sostanza, esperienziale piuttosto che ontologico.

La tensione di fondo si concentra sul pensiero di Shumer per cui il limite tra scelta umana e scelta algoritmica ha perso ogni rilevanza, e quindi il confine tra il processo decisionale umano e quello della macchina è diventato irrilevante. Per molti, quel confine non si è affatto offuscato, al contrario, ora conta più che mai. Questa è la tesi avanzata da Fortunato Costantino, giurista e professore di Teoria Generale della Sostenibilità e dell’Innovazione Sociale alla European School of Economics. In un recente articolo pubblicato su Fortune Italia, Costantino ha esaminato gli aspetti più problematici della retorica di Shumer.

Per il giurista la distinzione tra decisione umana e della macchina conta, e anche parecchio, in termini di responsabilità decisionale, governance, uso in contesti critici che vanno dal business, alla pubblica amministrazione, alla geopolitica. Affermare che la distinzione non è più rilevante significa, implicitamente, spostare l’autorità decisionale dalla sfera umana a quella algoritmica. Ed è proprio qui che l’AI smette di essere solo uno strumento e rischia di diventare invece un alibi – un modo elegante per sollevare dalla responsabilità di scelte che rimangono, in ultima analisi, umane.

Il confine sfumato tra supporto e delega

Da questa prospettiva, come nota Costantino, sta accadendo davvero qualcosa di significativo. È qualcosa che risiede nella crescente capacità delle macchine di oscurare la loro natura strumentale, che rende sempre più sottile il confine tra supporto cognitivo e delega. Piuttosto che impossessarsi del capitale cognitivo con la forza, l’AI lo assorbe in modo incrementale – offrendo in cambio maggiore efficienza, elaborazione più veloce e un carico cognitivo più leggero. Il risultato è una dipendenza radicata da sistemi esterni per compiti che sono stati a lungo considerati il fondamento dell’autonomia intellettuale. 

In questo senso, padroneggiare il funzionamento degli strumenti di AI non è più sufficiente. Ciò che serve è un’alfabetizzazione più profonda: la capacità di capire come funzionano questi sistemi, dove risiedono le loro lacune, quali pregiudizi si portano dentro e come sono progettati per persuadere. La dimensione persuasiva dell’AI, infatti, non è un difetto incidentale, ma è diventata una caratteristica intrinseca dei paesaggi tecnologici contemporanei.

La retorica dell’urgenza e il rischio della deresponsabilizzazione

Il post di Matt Shumer trasmette un messaggio inquietante, che ci spinge a guardare più da vicino perché, in questo momento, le narrazioni basate sull’ansia abbiano così tanto potere. Il linguaggio che usa, infatti, attinge a qualcosa di reale: paura e incertezza, due sentimenti decisamente diffusi.

Ciò che colpisce – e che svela anche la sua debolezza argomentativa – è come il suo pensiero si muova dall’ansia collettiva all’azione individuale, bypassando completamente la dimensione comunitaria. Inoltre, non affronta anche i diversi livelli di responsabilità e le dinamiche di potere in gioco, quando si parla di AI. Piuttosto che porre la responsabilità su coloro che realmente detengono, sviluppano e distribuiscono tecnologie con impatti sociali significativi, la sua retorica sposta l’intero peso della soluzione sull’individuo. Ciò che rimane, in ultima istanza, è una figura solitaria – spaventata, disconnessa – e un invito chiaro: seguilo sui social, iscriviti a ChatGPT. In questa dinamica, l’individuo isolato diventa il cliente ideale. Ma, “we live in a society”, ed è bene non dimenticarlo prima di cadere nella trappola del suo messaggio catastrofista.

Quando l’IA inizia a costruire se stessa

Questa tensione tra responsabilità individuale e potere sistemico trova un’eco concreta in un concetto introdotto in un paper del marzo 2026, definito come il divario di supervisione (oversight gap). Lo studio in questione – “Measuring AI R&D Automation” di Alan Chan, Ranay Padarath, Joe Kwon del GovAI, insieme a Hilary Greaves e Markus Anderljung dell’Università di Oxford – si concentra sull’uso dell’AI per condurre ricerca e sviluppo su se stessa, un fenomeno che gli autori chiamano AIRDA. Al centro della loro analisi c’è un problema di governance: man mano che l’AI inizia ad automatizzare i propri progressi, il divario tra la supervisione necessaria e il controllo effettivo rischia di ampliarsi. Un problema di governance, e la governance, sostengono gli autori, inizia con l’atto del misurare.

Sala server al CERN (Svizzera), un esempio dell’infrastruttura fisica che consente all’intelligenza artificiale di iniziare a svolgere attività di ricerca e sviluppo su se stessa.

Misurare l’automazione per governarla

L’automazione potrebbe contribuire ad aumentare ulteriormente tale distanza, con sistemi che si fanno più complessi e che riducono l’intervento umano. Oppure potrebbe colmarla, qualora l’AI venisse impiegata per monitorare e governare altra AI.

Per rispondere a questo quadro gli autori propongono quattordici metriche concrete, che abbracciano diverse categorie: in primis le metriche sperimentali che misurano quanto bene l’AI svolge la ricerca sull’AI stessa, in un confronto tra umani, AI e team misti. Poi le metriche organizzative che tracciano quanto tempo i ricercatori delegano all’AI e quante decisioni critiche la coinvolgono. E ancora, metriche operative che documentano errori nei risultati generati dall’AI e i casi in cui l’AI elude i controlli. E infine, le metriche economiche che esaminano l’allocazione del budget tra calcolo e lavoro umano, così come i cambiamenti nel numero di ricercatori. Nessuna singola metrica racconta l’intera storia, ma insieme, offrono una cornice per comprendere un fenomeno che altrimenti è difficile da misurare, e quindi comprendere e soprattutto governare.

L’articolo non pretende di avere tutte le risposte. Ma lancia un invito all’azione: iniziare a misurare l’automazione della ricerca sull’AI ora, prima che questa superi la nostra capacità di governarla. Senza dati, le decisioni vengono prese al buio. Con i dati, resta almeno la possibilità di guidare lo sviluppo intenzionalmente.

Un bivio strategico per le imprese

C’è una narrazione che annuncia uno sconvolgimento imminente e lo dipinge come una resa dei conti individuale: tocca a te abbonarti e adattarti. Un’altra, invece, sostiene che il confine tra decisione umana e decisione della macchina conta ancora – eccome – e che sfumarlo serve solo a scagionare chi ha decisamente più responsabilità del singolo individuo. Nel frattempo, l’AI comincia a fare da sola il proprio R&D e accelera proprio quei sistemi che si chiede alle aziende di prendere per buoni.

Le aziende, da parte loro, non possono girarsi dall’altra parte. Se adottano l’IA senza spirito critico, rischiano di mettere il giudizio nelle mani di sistemi opachi, pieni di pregiudizi mai esaminati, progettati per persuadere e per nascondere chi-risponde-di-cosa. Ma se fanno marcia indietro del tutto, se rifiutano qualsiasi coinvolgimento, rischiano altrettanto: restano indietro, perdono terreno, e non acquisiscono mai quell’alfabetizzazione tecnica che serve per muoversi in un paesaggio che cambia in fretta. Non serve abbracciare tutto ciecamente, né rifiutare tutto in blocco. Serve invece un rapporto informato, consapevole, e un aggiornamento continuo.

Scopri subito la nuova edizione di

Tecnologia & Innovazione