Da outsider a Nobel: storia dei pionieri dell'intelligenza artificiale - Lucy
articolo

Andrea Daniele Signorelli

Da outsider a Nobel: storia dei pionieri dell’intelligenza artificiale

14 Ottobre 2024

Quest'anno i premi Nobel per la fisica e la chimica sono stati assegnati agli studi su deep learning e reti neurali, ovvero i meccanismi alla base della recente esplosione delle IA. Per Geoffrey Hinton e gli altri pionieri del campo è stato un riscatto dopo anni di incomprensioni con il resto della comunità scientifica.

Nel 2018, il sistema di intelligenza artificiale AlphaFold partecipò per la prima volta al Critical Assessment of Protein Structure (CASP), il concorso scientifico organizzato fin dagli anni Novanta per mettere in competizione i vari sistemi informatici che prevedano la struttura tridimensionale delle proteine.

Capire il modo in cui una proteina si dispone nello spazio non è semplice. La sua conformazione dipende dagli amminoacidi che la compongono ma anche dalla sua funzione specifica. Esistono dei metodi sperimentali che permettono di dedurre direttamente le strutture tridimensionali delle proteine, ma sono procedure di laboratorio molto lunghe e complesse: osservata al microscopio, infatti, la proteina appare come se fosse bidimensionale e ricavare la sua forma tridimensionale richiede agli scienziati anni di lavoro, con il rischio che tutto il loro impegno non porti da nessuna parte. Per i ricercatori è più semplice sviluppare dei modelli che, con una approssimazione decente, riescano a prevedere, appunto, la forma della molecola.

Interpretare correttamente la configurazione tridimensionale di una proteina è essenziale per la ricerca biologica, perché rivela informazioni sulla sua funzione, su come modificarla e bloccarla o come regolarne l’attività. Così, negli anni, lo studio della struttura 3D delle proteine si è rivelato fondamentale in molteplici settori delle scienze biologiche, tra cui lo sviluppo di nuovi farmaci.

È questo l’obiettivo che ha portato alla nascita del CASP, che per lungo tempo ha ottenuto però poche soddisfazioni: ancora nel 2016, i migliori sistemi informatici raggiungevano un’accuratezza che oscillava tra il 30% e il 40%. Troppo poco per rivelarsi concretamente utili.

“Interpretare correttamente la configurazione tridimensionale di una proteina è essenziale per la ricerca biologica, perché rivela informazioni sulla sua funzione, su come modificarla e bloccarla o come regolarne l’attività”.

Poi, nel 2018, le cose sono cambiate con l’arrivo del deep learning, cioè degli algoritmi statistici oggi alla base di tutto ciò che definiamo “intelligenza artificiale” e che sono in grado di scovare in un mare di dati delle correlazioni invisibili all’occhio umano. Il sistema battezzato AlphaFold, sviluppato dal laboratorio di ricerca DeepMind (di proprietà di Google), ha partecipato per la prima volta al CASP e immediatamente ha stracciato la concorrenza, raggiungendo un tasso di accuratezza quasi del 60%. Due anni dopo, nella sua seconda versione, ha ottenuto un risultato ancora più impressionante, avvicinandosi al 90%. In poche parole, se prima erano necessari anni di lavoro, dal 2019 in poi, grazie al sistema di DeepMind, si è potuto prevedere la struttura di una proteina in pochi minuti. 

Tutto ciò non sarebbe mai stato possibile senza un altro avvenimento spartiacque per l’intelligenza artificiale. È infatti il 2012 quando il sistema di deep learning AlexNet – sviluppato all’università di Toronto – partecipa alla competizione ImageNet, a cui concorrono i sistemi informatici che si occupano del riconoscimento immagini, ovvero di capire e descrivere correttamente che cosa sia presente in una fotografia qualsiasi. Fino a quel momento, il tasso di accuratezza massimo – raggiunto durante il contest del 2010 – era stato pari al 71,7%. Passano due anni e anche questo risultato viene sorpassato: AlexNet raggiunge un’accuratezza dell’84,7%, distanziando drasticamente la concorrenza.

È il momento in cui il deep learning dimostra per la prima volta le sue enormi potenzialità e inizia a cambiare il mondo, venendo integrata in sempre più sistemi tecnologici (compresi social network, piattaforme di streaming, email) e rivelando le sue potenzialità anche nel mondo della sorveglianza (tramite il riconoscimento facciale), del lavoro (grazie ad algoritmi predittivi utilizzato nel mondo legale, della finanza, ecc.) e, come abbiamo visto, in quello scientifico più avanzato.

Che cos’hanno in comune AlphaFold e AlexNet, oltre al fatto di impiegare il deep learning e di aver stravinto le competizioni a cui hanno partecipato? Che i loro sviluppatori sono stati insigniti di un Nobel nel 2024. Demis Hassabis, fondatore di DeepMind, e il suo collaboratore John Jumper hanno vinto il Nobel per la Chimica grazie al lavoro svolto con AlphaFold; mentre Geoffrey Hinton – firmatario assieme a Ilya Sutskever (poi cofondatore di OpenAI) e ad Alex Krizhevsky del paper in cui venne presentato AlexNet – ha conquistato il Nobel per la Fisica proprio per il suo contributo all’avanzamento del deep learning, delle reti neurali e quindi dell’intelligenza artificiale. Per le stesse ragioni, ha conquistato il Nobel per la Fisica anche John Hopfield, il cui lavoro di modellizzazione matematica ha aperto la strada agli sviluppi portati poi da Hinton.

Da outsider a Nobel: storia dei pionieri dell’intelligenza artificiale -

Senza sminuire l’importanza degli altri tre premi Nobel legati al mondo dell’intelligenza artificiale – e tanto meno l’importanza di un algoritmo come AlphaFold, che ha cruciali ricadute nel mondo biologico e farmacologico – è però senza dubbio proprio Geoff Hinton il perno umano e scientifico senza il quale la rivoluzione del deep learning, a cui si deve anche l’avvento di ChatGPT e degli altri sistemi generativi, non sarebbe stata possibile.

Il 76enne Hinton è infatti unanimemente considerato “il padrino dell’intelligenza artificiale” — già insignito, nel 2018, del Turing Award (il “Nobel dell’informatica”) assieme a due altre cruciali figure nello sviluppo dei sistemi di deep learning come Yann LeCun (che fu suo allievo all’università di Toronto) e Yoshua Bengio (attivo invece all’università di Montreal). Soprattutto, Geoff Hinton è lo scienziato che, probabilmente più di chiunque altro, ha evitato che il machine learning finisse nel dimenticatoio: dagli anni Settanta fino al 2012 di AlexNet, infatti, nessuno credeva più nelle potenzialità di questa tecnologia, i finanziamenti per la ricerca si erano prosciugati e il mondo informatico affrontava il cosiddetto “inverno dell’intelligenza artificiale”.

Per molti versi, la storia dell’intelligenza artificiale basata su deep learning (che non è l’unico metodo, ma è sicuramente quello che ha raggiunto i risultati più importanti) è una classica storia di riscatto, le cui origini risalgono ormai a più di ottant’anni fa.

Era infatti il 1943 quando Warren McCulloch e Walter Pitts pubblicarono un paper in cui mostravano come un semplice sistema di neuroni artificiali potesse eseguire delle funzioni logiche basilari. Almeno in teoria, questo sistema poteva imparare nello stesso modo in cui impariamo noi: sfruttando i dati (che nel nostro caso possiamo riassumere con il termine “esperienza”), eseguendo quei tentativi ed errori che rafforzano le connessioni tra neuroni quando abbiamo eseguito un compito nel modo desiderato, e indebolendo quelle che invece non hanno portato all’output previsto. È il meccanismo che, in campo biologico, fa sì che la prima volta che ci cimentiamo in una nuova azione inedita siamo incerti, ma col passare del tempo acquisiamo sempre più sicurezza.

Quello proposto da McCulloch e Pitts era quindi un sistema artificiale evoluzionista: un modello che negli anni ’50 venne portato avanti dai (pochi) ricercatori convinti che il modo migliore per arrivare a una intelligenza artificiale fosse quello di ricalcare i meccanismi dell’apprendimento umano e permettere al “cervello elettronico” di imparare autonomamente, scovando i pattern all’interno dei dati che gli vengono forniti.

Sulla base di questa teoria, nel 1956 lo psicologo della Cornell University Frank Rosenblatt, finanziato dalla Marina Statunitense, sviluppò la prima rete neurale artificiale: il Mark I Perceptron, noto semplicemente come Perceptron. Si trattava di una macchina da 5 tonnellate, che occupava un’intera stanza del laboratorio di Rosenblatt, composta da motori e manopole collegati a 400 rilevatori di luce. Oltre alle dimensioni, a essere grandi erano le aspettative che suscitava, al punto che – anticipando la prima dimostrazione del suo funzionamento – il «New York Times» titolò: “Il cervello elettronico che insegna a se stesso”, spiegando inoltre come “nel giro di un anno sarà in grado di percepire, riconoscere e identificare ciò che lo circonda, senza bisogno di controllo o addestramento da parte dell’essere umano”.

Ma c’era un problema: a causa dei limiti tecnologici del tempo, il Perceptron era in grado di simulare il comportamento di non più di otto neuroni. Per questa ragione, la rete neurale di Rosenblatt riusciva soltanto, e con qualche difficoltà, a distinguere alcune immagini elementari che gli sottoponevano i ricercatori: schede bianche con un segno nero sulla destra o sulla sinistra. Troppo poco rispetto all’hype che si era generato, ma abbastanza per convincere Rosenblatt a proseguire i suoi studi, che si concentrarono così sulla possibilità di creare reti più complesse, organizzandole in una gerarchia di molteplici strati: passando i dati da uno strato all’altro, sarebbe infatti stato possibile creare pattern più raffinati e risolvere problemi sempre più complessi.

Poi, però, due avvenimenti interruppero lo sviluppo delle reti neurali. Il primo nel 1969, quando Marvin Minsky, altro celebre pioniere dell’intelligenza artificiale e docente di Ingegneria informatica all’MIT di Boston, pubblicò assieme a Seymour Papert un saggio, Perceptrons, in cui stroncava il lavoro di Rosenblatt, sostenendo che le reti neurali potessero compiere solo alcune operazioni elementari, e che non ci fosse nessuna speranza di usarle per risolvere problemi più complessi. Il secondo evento fu invece la tragica e prematura morte di Rosenblatt, avvenuta nel 1971 e che gli impedì di dimostrare a Minsky che aveva torto.

Non è qui il caso di approfondire la tesi di Minsky. Basti dire che da scienziato avversò sempre le reti neurali anche perché affascinato dalle potenzialità dell’intelligenza artificiale simbolica, quella cioè che riceve tutto l’addestramento necessario come input dagli scienziati invece di imparare “dal basso”, autonomamente, tramite i dati. Quello che conta è che Minsky, che rimane comunque una figura di enorme importanza, in questo caso si era sbagliato: la teoria di Rosenblatt era corretta. Ciò che mancava era piuttosto la tecnologia necessaria ad aumentare drasticamente le dimensioni delle reti neurali e la mole di dati in grado di fornire loro un addestramento sufficiente. Se il Perceptron simulava il comportamento di otto neuroni, i sistemi odierni (come GPT-4, alla base dell’ultima versione di ChatGPT) sono dotati di miliardi di neuroni artificiali e oltre un migliaio di miliardi di collegamenti tra di essi (i cosiddetti “parametri”).

“È senza dubbio proprio Geoff Hinton il perno umano e scientifico senza il quale la rivoluzione del deep learning, a cui si deve anche l’avvento di ChatGPT e degli altri sistemi generativi, non sarebbe stata possibile”.

Eppure, all’epoca, la critica di Minsky mise una pietra tombale sulla ricerca relativa alle reti neurali, inaugurando la fase del già citato “inverno”. A dare un’idea di quale fosse l’atmosfera che circondava il deep learning in quegli anni sono i ricordi dello scienziato informatico Yann LeCun, che oggi dirige il dipartimento AI di Meta, e che ha raccontato come negli anni Ottanta, da studente di Ingegneria a Parigi, incrociò i “testi proibiti” di Rosenblatt e gli studi sul Perceptron, restandone stupefatto: “Non riuscivo a credere che fossero sulla strada giusta e l’avessero invece abbandonata”. 

Dopo aver trascorso giorni interi in biblioteca alla ricerca di vecchi paper sulle reti neurali, LeCun scoprì che un piccolo gruppo di scienziati era ancora all’opera in questo settore. Sempre dai suoi racconti emergono tutte le difficoltà del tempo: “Era un movimento veramente underground: i loro paper erano attentamente purgati da ogni parola come ‘neurale’ o ‘apprendimento’ per evitare di venire rifiutati. Di fatto, stavano lavorando su qualcosa di estremamente simile al metodo utilizzato da Rosenblatt per addestrare il Perceptron; solo usando network neurali con molteplici strati”.

Nel 1985 LeCun conosce il capo di questi “reietti dell’intelligenza artificiale”, ovvero proprio Hinton, e poi lo segue all’università di Toronto, dove la rivoluzione del deep learning inizia a prendere piede. Il lavoro di Hinton si concentra su una tecnica nota come “backpropagation” (in italiano, retropropagazione dell’errore), che permette alle reti neurali – semplificando enormemente – di imparare dai loro errori, ed è oggi impiegata in tutti i sistemi di deep learning, dal riconoscimento immagini a ChatGPT.

Grazie alla contestuale rivoluzione informatica, alla crescente potenza di calcolo a disposizione e soprattutto per merito dei tantissimi dati che l’avvento di internet, del web e dei social network ha messo a disposizione degli scienziati, le reti neurali che ancora nei primi anni Duemila erano “considerate una barzelletta” (parole dello stesso Hinton) iniziano a dare prova delle loro potenzialità, arrivando infine al momento rivelatorio in cui AlexNet vince il contest di riconoscimento immagini del 2012.

Dove prima c’era un movimento di outsider, oggi ci sono delle superstar del mondo informatico, a cui i colossi della Silicon Valley offrono stipendi a sei zeri: Geoff Hinton è stato a lungo a capo del dipartimento di intelligenza artificiale di Google, LeCun, come detto, ha lo stesso ruolo in Meta, Demis Hassabis (l’altro premio Nobel, per la Chimica) ha fondato nel 2010 il laboratorio di ricerca DeepMind, acquistato nel 2014 da Google e l’elenco potrebbe andare avanti molto più a lungo.

Dalle stalle alle stelle. Eppure questo trionfo non è la fine della storia. “I sistemi di intelligenza artificiale generale”, ovvero in grado di superare l’essere umano in un ampio spettro di funzioni e abilità cognitive, “non sono ancora qui, ma vediamo che il percorso che stiamo seguendo è quello e dobbiamo iniziare a discuterne subito”, ha raccontato Hassabis appena premiato.

Secondo il neo Nobel, oltre alle incredibili opportunità in campo medico, scientifico, creativo e in tantissimi altri settori ancora, l’intelligenza artificiale presenta però anche enormi rischi che, qualora questa tecnologia dovesse “sfuggire al controllo dell’essere umano”, sarebbero addirittura esistenziali. L’inquietante visione di Hassabis non stupisce: proviene da uno scienziato la cui missione è – per statuto stesso di DeepMind –  proprio quella di creare l’intelligenza artificiale generale (che promette però di sviluppare in modo “responsabile”).

Stupisce molto di più che le stesse preoccupazioni siano state rievocate da Geoff Hinton, che nel maggio 2023 aveva lasciato Google per dedicare il suo tempo a studiare i pericoli relativi allo sviluppo dell’intelligenza artificiale. Minacce relative al mondo del lavoro, alle discriminazioni, alla sorveglianza, e ai rischi definiti “esistenziali”. “Ho improvvisamente cambiato la mia visione sulla possibilità che queste macchine diventino molto più intelligenti di noi”, ha spiegato in quell’occasione, in un’intervista alla «MIT Tech Review». “Penso che adesso siano molto vicine a noi e che nel futuro saranno molto più intelligenti. Come si sopravvive a una cosa del genere?”.

Da outsider a Nobel: storia dei pionieri dell’intelligenza artificiale -

Una posizione da tenere in considerazione, perché viene dalla persona che ha contribuito a creare quelli che oggi lui stesso definisce “alieni arrivati sulla Terra parlando già un ottimo inglese”. Eppure, non bisogna dimenticare che – per quanto i risultati offerti siano spesso sorprendenti – questi sistemi oggi non fanno altro che prevedere quale parola abbia la maggior probabilità statistica di essere coerente con quelle che l’hanno preceduta (una sorta di autocomplete all’ennesima potenza), senza avere la più pallida idea di ciò che stanno dicendo. Inoltre, molti pari grado dello stesso Hinton – a partire proprio da Yann LeCun – non sono minimamente convinti che una tecnologia statistica come l’intelligenza artificiale per come si sta sviluppando oggi possa sfuggire al controllo dell’essere umano e porre rischi esistenziali (posizione che spesso viene sfruttata invece dai vari Elon Musk o Sam Altman a loro vantaggio: spaventando l’opinione pubblica, cercano di dipingersi, contestualmente, come gli unici a poter dominare tale rischi, e gli unici degni, quindi, di ricevere i lauti finanziamenti che stanno irrorando il settore).

“Sono leggermente depresso: è per questo che ho paura”, aveva spiegato, tra il serio e faceto, l’ormai anziano Hinton sempre alla «MIT Tech Review». Magari la vittoria del Nobel l’avrà rallegrato. E portato a ridimensionare dei timori che, secondo la maggior parte degli informatici, appartengono, ancora oggi e per il tempo venire, al regno della fantascienza.

Andrea Daniele Signorelli

Andrea Daniele Signorelli è giornalista e collabora a diverse testate tra cui: «Domani», «Wired», «Repubblica», «Il Tascabile». È autore del podcast Crash – La chiave per il digitale.

newsletter

Le vite degli altri

Le vite degli altri è una newsletter che racconta di vite che non sono la nostra: vite straordinarie, bizzarre o comunque interessanti.

La scriviamo noi della redazione di Lucy e arriva nella tua mail la domenica, prima di pranzo o dopo il secondo caffè – dipende dalle tue abitudini.

Iscriviti

© Lucy 2024

art direction undesign

web design & development cosmo

sviluppo e sistema di abbonamenti Schiavone & Guga

lucy audio player

00:00

00:00