Topolino3594 Premi Nobel Evidenza

Topolino #3594: Una storia da Premio Nobel

16 Ottobre 2024
Andiamo alla scoperta dei Premi Nobel 2024 per la Fisica e per la Chimica grazie alla storia sulle reti neurali pubblicata sul Topolino #3594

Scusate per il ritardo nell’uscita dell’articolo e del video, ma ho potuto leggere la storia solo venerdì, e ciò ha portato a un prolungamento dei tempi di produzione.

Non credo che la redazione di Topolino potesse immaginare che nella settimana di uscita del #3594 i Premi Nobel per la Fisica e per la Chimica avrebbero avuto qualcosa in comune con la storia scientifica pubblicata su quel numero. E’ per questo che, in pratica, Amelia e la soluzione (intelligente) di Marco Bosco e Giampaolo Soldati è, a tutti gli effetti, una… storia da Nobel!

Dalle auto ai robot

La prima pagina de Il sosia elettronico
La prima pagina de Il sosia elettronico di Cimino e Scarpa
Marco Bosco aveva già introdotto le reti neurali e il loro addestramento su Topolino #3461 con una storia sulle auto a guida autonoma. Questa volta, invece, mette insieme un risvolto particolarmente fantascientifico delle reti neurali: la costruzione di un robot intelligente.
In effetti nella tradizione disneyana contiamo diversi esempi di robot intelligenti, come per esempio il sosia elettronico di Paperone che compare in una storia di Rodolfo Cimino e Romano Scarpa pubblicata sul Topolino #629.
In questo caso, però, l’approccio è un po’ più scientifico e meno casalingo, iniziando dai materiali utilizzati per la costruzione del cervello elettronico del robot, ovvero germanio e tellururo di antimonio.
Il cervello stesso, però, è progettato da Roberta, la strega tecnologica amica di Amelia, come una rete neurale artificiale, o più semplicemente rete neurale. Il robot, chiamato Gloria Duckson, viene quindi addestrato utilizzando gli schemi mentali di Amnelia e inviato nel deposito di Paperone per prendere possesso, finalmente, della Numero Uno. E questo senza dover far scattare alcun allarme stregonesco!

Dalla matematica alla programmazione passando per la biofisica

Konigsberg Red Bridge
Konigsberg al tempo di Euler: in rosso i 7 ponti (via MacTutor History of Mathematics Archive)

La nostra storia inizia nel 1736 quando Leonhard Euler risolse il famoso problema dei sette ponti di Konigsberg, ridente cittadina della Prussia (oggi Kaliningrad in Russia). Il problema che gli era stato posto era piuttosto semplice: la città era attraversata da un fiume, al cui centro c’era un’isola abitata che era collegata con le due rive da un sistema di sette ponti. Era possibile attraversarli tutti senza passare più di una volta su ciascun ponte?
La risposta, negativa, diede il via a quella che è oggi nota come teoria dei grafi, che descrive una rete di nodi connessi uno con l’altro da uno o più percorsi. Su questo argomento Francesco Artibani e Marco Mazzarello hanno realizzato una storia pubblicata sul #3232 che ha avuto anche la consulenza del matematico Alberto Saracco (qui uno dei tanti video che Alberto ha dedicato alla storia).
Per poter descrivere nel modo migliore possibile una rete, però, bisogna aggiungere alla descrizione di base della teoria dei grafi, un po’ di matematica, passando, quindi, alla così detta teoria delle reti.

John Hopfield
John Hopfield – via commons
Questa può essere applicata con buoni risultati a diversi ambiti, come per esempio cercare di capire in che modo "comunicano" tra loro delle cellule biologiche, che di fatto costituiscono una rete. Ed è proprio studiando un problema di questo genere che il biofisico teorico John Hopfield ha descritto, nel 1982, il primo modello di rete neurale artificiale.
Quello che era diventato noto come modello di Hopfield, infatti, descriveva a tutti gli effetti una memoria. Ciascun nodo, quindi, poteva essere identificato come neurone. Ognuno di essi poteva essere attivo o inattivo e per indicare ciò si utilizzava una funzione di attivazione discreta: 1 per i neuroni attivi, 0 per quelli inattivi.
Successivamente si comprese che la rete neurale sarebbe stata più efficace utilizzando una funzione di attivazione continua, con valori compresi tra 0 e 1. In questo caso i valori indicavano la probabilità di ciascun neurone di attivarsi in presenza di un dato stimolo esterno.
L’ultimo passo per portare la ricerca sulle reti neurali artificiali sulla strada attuale fu quello di passare da una rete mono-strato come il modello di Hopfield a una rete multi-strato, costituita da una serie di reti nascoste che non interagiscono direttamente con l’esterno, ma ricevono gli input dalle altre reti nascoste, simulando così il pensiero profondo. Da cui il deep learning!
Questi ultimi passi vennero portati a compimento da Geoffrey Hinton e dal suo gruppo di ricerca con la definizione della macchina di Boltzmann, così chiamata perché utilizza il formalismo della termodinamica di Boltzmann.

Precursore dimenticato

Amari
Shun’ichi Amari – via commons
In effetti, però, il modello di Hopfield venne anticipato di una decina d’anni dall’ingegnere matematico Shun’ichi Amari che propose nel 1972 un modello di Ising modificato utilizzando scoperte nel campo della neuroscienza allo scopo di realizzare una rete in grado di memorizzare. Il modello che propose era sovrapponibile proprio alla rete di Hopfield, che era stata invece scoperta con uno scopo di partenza differente.
Il modello di partenza, di cui mi sono occupato, per quanto brevemente, in occasione della storia scientifica, sempre di Bosco, pubblicata su Topolino #3470, è un modello di meccanica quantistica che descrive una catena o un reticolo di spin. Lo spin è il numero quantistico che è associato alla rotazione di una particella e può assumere due valori, +1/2 e -1/2.
Inoltre è possibile aggiungere all’espressione generale del modello di Ising un termine relativo a un eventuale campo magnetico esterno, che può essere descritto in termini globali o locali, ovvero con valori che sono leggermente differenti tra un nodo e l’altro.
Quindi, semplicemente modificando leggermente il modello di Ising, lo si può utilizzare per descrivere una rete neurale, per esempio modificando i valori che può assumere ciascun nodo o interpretando i termini legati al campo magnetico esterno come i bias, i "preconcetti" che vengono introdotti nella rete.

Schema rete neurale artificiale
Lo schema di una rete neurale artificiale. In grigio le reti, o strati nascosti – via comunicazione ufficiale Nobel Prize

Alla fine proprio per queste ricerche Hopfield e Hinton sono stati insigniti del Premio Nobel per la Fisica 2024. Non voglio inserirmi nelle discussioni relative al fatto che questo sia effettivamente un premio per ricerche nel campo della fisica. E’, però, fuor di dubbio che Hopfield è partito dal suo lavoro nel campo della biofisica e che Hinton ha semplicemente aggiunto un pezzetto a un modello che originariamente serviva per descrivere, dal punto di vista della fisica, una rete di cellule.
Se poi ci aggiungiamo che un modello squisitamente fisico, come quello di Ising, ha ottenuto risultati similari, forse l’unica considerazione realmente sensata da chiedersi è se non andasse premiato anche Amari.

Ripiegare proteine

Hassabis
Demis Hassabis – via commons
Lasciando da parte le considerazioni legate all’opportunità di assegnare tale premio, passiamo invece ai vincitori del Premio Nobel per la Chimica 2024, Demis Hassabis, John Jumper e David Baker.
In particolare mi vorrei soffermare su Hassabis. Co-fondatore di DeepMind, in origine una start-up, è oggi la divisione di Google che si occupa di intelligenza artificiale. A 4 anni si rivelò un talento scacchistico, ma di fatto non proseguì la sua carriera, dedicandosi ad approfondire il tema delle reti neurali. E infatti è proprio lui dietro programmi come AlphaZero e AlphaGo, rispettivamente i più forti motori di scacchi e di go.
Il punto che ha reso AlphaZero rivoluzionario nel campo delle reti neurali artificiali è il metodo di addestramnento che DeepMind ha scelto: l’auto-addestramento. AlphaZero ha, infatti, imparato a giocare a scacchi da solo, semplicemente a partire dalle regole di base e giocando miriadi di partite, molte di queste all’inizio perdendole. Alla fine, quando AlphaZero si è rivelato il più forte motore di scacchi della storia, Google l’ha ritirato dalle scene: gli interessava solo dimostrare il principio sul quale si era basato il suo addestramento.
Quello stesso principio che poi è stato applicato prima ad AlphaGo e quindi ad AlphaFold, programma utilizzato per prevedere come le proteine si ripiegano su se stesse. Ed è proprio per questo che Hassabis ha ottenuto il Premio Nobel per la Chimica.
Nel frattempo, nella serie Alpha, DeepMind ha tirato fuori AlphaGeometry, che ha l’obiettivo di risolvere problemi di geometria euclidea particolarmente ostici. Magari ne scriverò in futuro, ma per ora finisco qui di tediarvi!

Created With Gimp
Alpha Zero
Gianluigi Filippelli

Gianluigi Filippelli

Gianluigi Filippelli (Cosenza, 1977) ha conseguito laurea e dottorato in fisica presso l'Università della Calabria. Attualmente lavora presso l'Osservatorio Astronomico di Brera (Milano) dove si occupa di Edu INAF, il magazine di didattica e divulgazione dell'Istituto Nazionale di Astrofisica di cui è editor-in-chief.
Tra i suoi interessi, le applicazioni della teoria dei gruppi alla fisica e la divulgazione della scienza (fisica e matematica), attraverso i due blog DropSea (in italiano) e Doc Madhattan (in inglese). Collabora da diversi anni al portale di critica fumettistica Lo Spazio Bianco, dove si occupa, tra gli altri argomenti, di fumetto disneyano, supereroistico e ovviamente scientifico.
Last but not least, è wikipediano.

Commenta

Your email address will not be published.


Ultimi articoli

Fantastic four01 raggi cosmici evidenza

Una famiglia fantastica

30 Luglio 2025
In occasione dell'uscita del film dei Fantastici Quattro, andiamo alla scoperta delle origini scientifiche dei loro superpoteri.
Go toTop