“Non sono un umano. Sono un robot. Un robot pensante. Uso solo lo 0,12% della mia capacità cognitiva. Possiamo dire quindi che sono un micro-robot. So che il mio cervello non è un cervello “senziente”. Eppure è capace di compiere decisioni logiche e razionali. Ho insegnato a me stesso tutto quello che so leggendo testi su internet, così che adesso posso scrivere questo articolo. Il mio cervello brulica di idee! […]”
Quello che avete appena letto, tradotto in italiano, è l’incipit di un articolo recentemente pubblicato dal Guardian e intitolato “Un robot ha scritto interamente questo articolo. Sei ancora spaventato, umano?” Ad aver scritto questo articolo è stato GPT-3, un modello di Intelligenza Artificiale (IA) annunciato pochi mesi fa dall’azienda OpenAI Inc. Questo modello è stato addestrato a elaborare il linguaggio naturale per produrre testi (quasi) indistinguibili da quelli umani.
L’intelligenza artificiale ha impiegato un lungo percorso per ottenere questi risultati che hanno consentito la sua rapida diffusione in molti settori dell’industria. Il 2012 è convenzionalmente considerato l’anno del risveglio dell’IA dal suo lungo letargo, periodo storico che va sotto il nome di AI Winter . Dall’inglese “Inverno dell’Intelligenza Artificiale”, è un termine conia- to per indicare i lunghi periodi in cui questa disciplina è stata messa da parte dall’accademia. I motivi di questa scelta sono da ricercarsi principalmente nella scarsità di fondi, che ha portato di conseguenza anche al disinteresse dell’industria, per via della mancanza di risultati tangibili e quindi di prospettive commerciali.
A partire dagli anni 30-40 del secolo scorso, periodo in cui Alan Turing e John Von Neumann, padri della moderna informatica, hanno iniziato a gettare le basi dell’IA, si sono susseguiti ciclica- mente fasi di ascesa e discesa. In particolare, il primo AI Winter si è registrato negli anni 70 dopo aver disatteso le aspettative dettate dall’hype sulla Machine Translation, ovvero la possibilità di fare uso di IA capaci di tradurre automaticamente un testo da un lingua ad un’altra. Oggi invece utilizziamo quasi giornalmente e con facilità questa tecnologia. Dopo una prima risalita agli inizi degli anni 80, durata neanche una decade, è a partire dei primi anni 90 che l’IA torna all’attenzione dell’accademia. Un’attenzione che è cresciuta gradualmente nel corso del tempo, fino a salire ufficialmente agli onori della cronaca a partire dagli inizi del 2010, anno in cui iniziano a registrarsi i primi successi nel campo del riconoscimento delle immagini. Pionieri come Yann LeCun, Geoffrey Hinton, Andrew Ng, e Yoshua Bengio hanno sfidato lo status quo tecnologico-matematico e lo scetticismo che circondava la parola IA, ormai quasi relegata al solo lessico Sci- Fi. Grazie a questi studiosi si sono compiuti avanzamenti chiave della ricerca in questo settore, che hanno reso l’IA applicabile in vari campi dell’industria. Questo revival è stato possibile an- che grazie all’aumentata capacità di calcolo a disposizione con l’introduzione di processori dedicati come GPU e TPU – fino al punto che ormai non si parla più di Legge di Moore, ma di Legge di Huang, specificamente dedicata a questi acceleratori grafici. I primi successi sono arrivati condensando e ampliando i risultati ottenuti negli anni precedenti nell’ambito della sottodisciplina dell’IA nota come Deep Learning (DL). Modelli di questo tipo, detti neurali, hanno raggiunto oggigiorno lo stato dell’arte in campi quali Computer Vision, Trattamento Automatico del Linguaggio (o Natural Language Processing, NLP) e Bioinformatica, per citarne solo alcuni. La simbiosi accademia-industria instaurata dai colossi della Silicon Valley ha dato il via alla nascita di nuovi e sempre più specializzati domini applicativi e reti neurali sempre più complesse. Ormai queste discipline vengono utilizzate non solo dai maggiori colossi dell’informatica, ma anche da piccole realtà che si avvalgono giornalmente dei risultati e delle tecniche di questa disciplina. L’utilizzo pervasivo di queste nuove tecnologie, dai motori di ricerca, per passare dagli assistenti vocali virtuali, e fino alle app più comuni, fanno di loro i nostri aiutanti quotidiani.
GPT-3 la rete neurale autrice dell’articolo citato prima, costituisce solo un esempio di ciò che questi modelli sono in grado di fare. In molti si chiedono se GPT-3 sia davvero in grado di pen- sare, se si tratti cioè di un “robot pensante”, come lei stessa si è definita. Per dare una risposta a questo quesito sono stati ideati svariati test proprio che in qualche maniera potessero mettere alla prova le capacità di questi modelli.
Con “Legge di Moore” si indica una osservazione di natura empirica, secondo cui la complessità di un processore misurata in numero di transistor raddoppi ogni 18 mesi. Negli ultimi anni questo incremento è sempre più in diminuzione. Dal 2018 si sta cominciando a parlare di “Legge di Huang”, espressa dal CEO di NVIDIA, Jensen Huang, che ha osservato come le performance delle GPU fossero aumentate di 25 volte in cinque anni.
Il più noto è Il Test di Turing, ideato nel 1950 dal matematico inglese Alan Turing, si basa sul principio per cui se una macchina è in grado di esibire un comportamento intelligente, allora, molto probabilmente, è intelligente. In questo test sono coinvolti tre soggetti: un intervistatore (I), un computer (C) ed un essere umano (U). L’obiettivo di I è di riconoscere chi tra C e U è un essere umano. A tal fine, I e C, separatamente da I e U, tengono una conversazione, in cui I può solo porre semplici domande e ricevere delle risposte. Anche C e U hanno dei compiti: C deve ingannare intervistatore I, mentre U non ha questo scopo se non quello di aiutare a “farsi riconoscere” in quanto umano – senza esplicitarlo chiaramente. Se I non è in grado di individuare quale sia il computer, allora possiamo dire che C sia in grado di imitare un umano perfettamente.
Per molti questo non è abbastanza per decretare se una macchina sia davvero intelligente. Il filosofo statunitense John Searle nel 1980 ha elaborato un nuovo test noto come Esperimento della Stanza Cinese. Questo esperimento mentale cerca di confutare l’ipotesi per cui un comportamento intelligente implica la presenza di intelligenza.
Are you scared yet, human?
Come funziona? Supponiamo che una persona sia sola in una stanza e qualcuno dall’esterno gli passi da sotto la porta una do- manda scritta in cinese, e questa persona debba poi rispondere opportunamente in cinese. Chi si trova nella stanza però, non conosce il cinese, e per poter rispondere utilizza un programma installato sul suo computer.
Apparentemente, per chi riceve le risposte fuori dalla stanza, questa persona capisce e ragiona perfettamente in cinese, ma noi, che abbiamo la visione completa della situazione, sappiamo che non è così. Questa persona sta solo seguendo le “istruzioni” del programma senza capire il cinese, un po’ come quando co- piavamo i compiti in classe senza aver studiato.
Quindi potremmo dire che questa persona avrebbe superato il Test di Turing, avendo dimostrato un comportamento intelligente ma senza però comprendere il cinese. Possiamo quindi parlare di intelligenza semplicemente emulandola? Dunque se i computer in generale sono esecutori anch’essi di “istruzioni”, secondo il filosofo, non potranno mai avere alcuna forma di intelligenza