Scusate per il ritardo nell’uscita dell’articolo e del video, ma ho potuto leggere la storia solo venerdì, e ciò ha portato a un prolungamento dei tempi di produzione.
Non credo che la redazione di Topolino potesse immaginare che nella settimana di uscita del #3594 i Premi Nobel per la Fisica e per la Chimica avrebbero avuto qualcosa in comune con la storia scientifica pubblicata su quel numero. E’ per questo che, in pratica, Amelia e la soluzione (intelligente) di Marco Bosco e Giampaolo Soldati è, a tutti gli effetti, una… storia da Nobel!
Dalle auto ai robot
In effetti nella tradizione disneyana contiamo diversi esempi di robot intelligenti, come per esempio il sosia elettronico di Paperone che compare in una storia di Rodolfo Cimino e Romano Scarpa pubblicata sul Topolino #629.
In questo caso, però, l’approccio è un po’ più scientifico e meno casalingo, iniziando dai materiali utilizzati per la costruzione del cervello elettronico del robot, ovvero germanio e tellururo di antimonio.
Il cervello stesso, però, è progettato da Roberta, la strega tecnologica amica di Amelia, come una rete neurale artificiale, o più semplicemente rete neurale. Il robot, chiamato Gloria Duckson, viene quindi addestrato utilizzando gli schemi mentali di Amnelia e inviato nel deposito di Paperone per prendere possesso, finalmente, della Numero Uno. E questo senza dover far scattare alcun allarme stregonesco!
Dalla matematica alla programmazione passando per la biofisica

La nostra storia inizia nel 1736 quando Leonhard Euler risolse il famoso problema dei sette ponti di Konigsberg, ridente cittadina della Prussia (oggi Kaliningrad in Russia). Il problema che gli era stato posto era piuttosto semplice: la città era attraversata da un fiume, al cui centro c’era un’isola abitata che era collegata con le due rive da un sistema di sette ponti. Era possibile attraversarli tutti senza passare più di una volta su ciascun ponte?
La risposta, negativa, diede il via a quella che è oggi nota come teoria dei grafi, che descrive una rete di nodi connessi uno con l’altro da uno o più percorsi. Su questo argomento Francesco Artibani e Marco Mazzarello hanno realizzato una storia pubblicata sul #3232 che ha avuto anche la consulenza del matematico Alberto Saracco (qui uno dei tanti video che Alberto ha dedicato alla storia).
Per poter descrivere nel modo migliore possibile una rete, però, bisogna aggiungere alla descrizione di base della teoria dei grafi, un po’ di matematica, passando, quindi, alla così detta teoria delle reti.
Quello che era diventato noto come modello di Hopfield, infatti, descriveva a tutti gli effetti una memoria. Ciascun nodo, quindi, poteva essere identificato come neurone. Ognuno di essi poteva essere attivo o inattivo e per indicare ciò si utilizzava una funzione di attivazione discreta: 1 per i neuroni attivi, 0 per quelli inattivi.
Successivamente si comprese che la rete neurale sarebbe stata più efficace utilizzando una funzione di attivazione continua, con valori compresi tra 0 e 1. In questo caso i valori indicavano la probabilità di ciascun neurone di attivarsi in presenza di un dato stimolo esterno.
L’ultimo passo per portare la ricerca sulle reti neurali artificiali sulla strada attuale fu quello di passare da una rete mono-strato come il modello di Hopfield a una rete multi-strato, costituita da una serie di reti nascoste che non interagiscono direttamente con l’esterno, ma ricevono gli input dalle altre reti nascoste, simulando così il pensiero profondo. Da cui il deep learning!
Questi ultimi passi vennero portati a compimento da Geoffrey Hinton e dal suo gruppo di ricerca con la definizione della macchina di Boltzmann, così chiamata perché utilizza il formalismo della termodinamica di Boltzmann.
Precursore dimenticato
Il modello di partenza, di cui mi sono occupato, per quanto brevemente, in occasione della storia scientifica, sempre di Bosco, pubblicata su Topolino #3470, è un modello di meccanica quantistica che descrive una catena o un reticolo di spin. Lo spin è il numero quantistico che è associato alla rotazione di una particella e può assumere due valori, +1/2 e -1/2.
Inoltre è possibile aggiungere all’espressione generale del modello di Ising un termine relativo a un eventuale campo magnetico esterno, che può essere descritto in termini globali o locali, ovvero con valori che sono leggermente differenti tra un nodo e l’altro.
Quindi, semplicemente modificando leggermente il modello di Ising, lo si può utilizzare per descrivere una rete neurale, per esempio modificando i valori che può assumere ciascun nodo o interpretando i termini legati al campo magnetico esterno come i bias, i "preconcetti" che vengono introdotti nella rete.

Alla fine proprio per queste ricerche Hopfield e Hinton sono stati insigniti del Premio Nobel per la Fisica 2024. Non voglio inserirmi nelle discussioni relative al fatto che questo sia effettivamente un premio per ricerche nel campo della fisica. E’, però, fuor di dubbio che Hopfield è partito dal suo lavoro nel campo della biofisica e che Hinton ha semplicemente aggiunto un pezzetto a un modello che originariamente serviva per descrivere, dal punto di vista della fisica, una rete di cellule.
Se poi ci aggiungiamo che un modello squisitamente fisico, come quello di Ising, ha ottenuto risultati similari, forse l’unica considerazione realmente sensata da chiedersi è se non andasse premiato anche Amari.
Ripiegare proteine
In particolare mi vorrei soffermare su Hassabis. Co-fondatore di DeepMind, in origine una start-up, è oggi la divisione di Google che si occupa di intelligenza artificiale. A 4 anni si rivelò un talento scacchistico, ma di fatto non proseguì la sua carriera, dedicandosi ad approfondire il tema delle reti neurali. E infatti è proprio lui dietro programmi come AlphaZero e AlphaGo, rispettivamente i più forti motori di scacchi e di go.
Il punto che ha reso AlphaZero rivoluzionario nel campo delle reti neurali artificiali è il metodo di addestramnento che DeepMind ha scelto: l’auto-addestramento. AlphaZero ha, infatti, imparato a giocare a scacchi da solo, semplicemente a partire dalle regole di base e giocando miriadi di partite, molte di queste all’inizio perdendole. Alla fine, quando AlphaZero si è rivelato il più forte motore di scacchi della storia, Google l’ha ritirato dalle scene: gli interessava solo dimostrare il principio sul quale si era basato il suo addestramento.
Quello stesso principio che poi è stato applicato prima ad AlphaGo e quindi ad AlphaFold, programma utilizzato per prevedere come le proteine si ripiegano su se stesse. Ed è proprio per questo che Hassabis ha ottenuto il Premio Nobel per la Chimica.
Nel frattempo, nella serie Alpha, DeepMind ha tirato fuori AlphaGeometry, che ha l’obiettivo di risolvere problemi di geometria euclidea particolarmente ostici. Magari ne scriverò in futuro, ma per ora finisco qui di tediarvi!




