Il quantum computing promette di cambiare la nostra vita in maniera radicale: dall’ottimizzazione del traffico alla sanità, fino alla risoluzione della crisi climatica, tutto sembra alla portata di queste macchine. Ma è vero? Spindox ne parla il 13 aprile all’Università di Padova, all’interno del convegno “Computer quantistico: le opportunità per le aziende italiane”
Frontier è il più potente supercomputer al mondo. Quando pensiamo a un supercomputer, possiamo pensare a dispositivi miniaturizzati, grandi come il PC con cui ogni giorno ci mettiamo a scrivere. Frontier, per ottenere il primo posto nella TOP500 (la classifica delle macchine più potenti al mondo), ha dovuto rinunciare al vantaggio della trasportabilità: misura 680 m2. Ha un’estensione a livello di cavi di 120 km circa.
C’è anche un po’ di Italia in questa macchina: i processori utilizzati (9472) si chiamano Trento, una versione ottimizzata dei chip Milan. Frontier consuma 21 Mw, più o meno il consumo annuale di 21.000 appartamenti. Una macchina di una potenza incredibile: se un computer medio riesce a raggiungere al massimo 7 Gigaflops, Frontier raggiunge 1,102 exaflops (circa un miliardo di volte di più).
È quanto di più potente la tecnologia abbia creato dai tempi di Turing e, proprio per questo, fa impressione come a gennaio Google abbia affermato “Abbiamo creato una macchina di quantum computing 158 mln di volte più veloce del più veloce computer del mondo”. Ma è possibile?
Goodbye, Netwon?
Per entrare in un altro modello di produttività umana, quello del quantum computing, dobbiamo mettere in dubbio tutta quella che è la nostra visione non solo del computer, ma dell’universo stesso.
Abbiamo bisogno di muoverci a un livello che sia quello sub-atomico. Un mondo in cui persino alcune delle leggi granitiche che utilizziamo per descrivere il mondo perdono di consistenza: stiamo parlando di quelle della meccanica newtoniana. Per Newton (e questo modello è validissimo, sia chiaro) ogni particella ha posizioni e velocità ben precise e osservabili. Interagisce quindi per mezzo di forze ben determinabili e che possono essere descritte.
A livello subatomico, questo non è vero: è impossibile assegnare a una particella una posizione x e una sua velocità. Ognuna ha un range di posizioni e un insieme di movimenti che sono simultanei. Che cosa comporta questo? Che la particella in questione non è in una posizione, ma in un insieme di posizioni, chiamate superposizioni. E che quindi una particella è in un range di posizioni diverse, che vengono occupate simultaneamente.
Cosa facciamo quando applichiamo lo stesso funzionamento a un sistema su base informatica? Se i bit sono degli interruttori, con una scelta fra 0 e 1, acceso e spento, quello che ritroviamo nel quantum computing è un quantum bit (qubit), che vale 0 e 1 simultaneamente. Cambia qualcosa? Moltissimo.
Quantum Computing Leap
Un esempio che si fa spesso, per capire le potenzialità di calcolo del quantum computing, è quello della modellizzazione degli atomi. La potenza di un computer normale va benissimo per simulare il comportamento dell’idrogeno, che ha un unico orbitale. La cosa diventa più complessa quando arriviamo ad atomi da una 70 orbitali: nel 2013 era stato calcolato che per fare i calcoli necessari per simularli, sarebbe stato necessario assorbire la produzione di chip mondiale per 1,5 mln di anni. Il costo totale? 600 trilioni di dollari e tanti sacrifici in campo farmaceutico, della fisica, tecnologico etc…
Differente sarebbe la cosa con dei computer quantistici: in quel caso, si potrebbe misurare direttamente il comportamento degli atomi.
Ma non è solo questo: altri settori toccati da una rivoluzione legata al quantum computing sono quelli della produzione di energia, della cybersecurity (con relativi problemi: macchine così potenti metterebbero a rischio gran parte delle chiavi di crittografia attuali), fino alla risoluzione della crisi climatica. Che cosa stiamo aspettando?
Aspettando la quantum rivoluzione…
Il mondo del quantum computing è affascinante nelle sue potenzialità, ma i tempi forse non sono ancora maturi per avere un modello diffuso e utilizzabile fin da subito.
In primo luogo, abbiamo un problema di potenza di calcolo: molte delle applicazioni descritte necessitano potenze di centinaia di migliaia di qubit. Al momento Osprey di IBM, il computer quantistico più potente al mondo, riesce a raggiungerne 433. Ed è già un risultato grandioso se si pensa che Sycamore, il suo predecessore made in Google, ne contava 54! (Cosa che non gli aveva impedito di risolvere in pochi minuti procedimenti per i quali un supercomputer ha bisogno di migliaia di anni).
La stessa IBM promette di arrivare a 4000 qubit per il 2025, ma questo è tutto da vedere
Poi c’è la questione instabilità. Abbiamo parlato di Frontier e della sua estrema grandezza. Ma un computer quantistico, per restare in funzione, ha bisogno di condizioni eccezionali: Sycamore, ad esempio, funziona solo in condizioni che rasentano lo zero termico, simili a quelle che ci sono nelle zone più remote dell’universo. Non proprio una cosa semplice.
C’è anche un problema chiamato interferenza: queste particelle, i qubit, si trovano in uno stato di sovrapposizione (coabitazione fra 1 e 0) solo finché non iniziano a interagire fra di loro. Ma tenere queste particelle subatomiche isolate è particolarmente difficile: basta anche una minima interferenza e il qubit registra un errore. Ad oggi, non abbiamo algoritmi in grado di correggere errori, e quindi ogni errore toglie potenza di calcolo al computer quantistico. Un problema non di poco conto, in un momento in cui tecnologie più “grezze” hanno comunque una stabilità da non sottovalutare.
Ultima questione (che sembra paradossale, ma non lo è) è capire meglio le applicazioni che questo tipo di apparecchiature possono avere. Perché abbiamo parlato di molte cose interessanti: fra queste, anche comprendere le dinamiche della fotosintesi clorofilliana per creare energia; o fare ricerca sugli antitumorali). Le possibilità di applicazione di questa capacità di calcolo su una macchina esponenzialmente più potente di una comune, però, sono immense.
…Il quantum computing resta
Di AI si è iniziato a parlare negli anni ‘60. Non esisteva ancora l’interfaccia GUI, i personal computer, Steve Jobs e Bill Gates avevano circa 10 anni. Pensiamoci ogni volta che parliamo di ChatGPT, Midjourney e affini: fino agli anni ‘90 (quindi per più di 10 anni) siamo stati in un limbo di annunci, ricerche e idee che sembravano non portare da nessuna parte. Ma, un mattone alla volta, Stati, università e aziende si sono messi al lavoro per portare la AI fuori dalla comunità degli sviluppatori.
Sarà difficile immaginare un dispositivo mobile in qubit, oppure dei PC quantistici: in primo luogo per il consumo di energia e per le condizioni estreme richieste per far funzionare una macchina del genere. Ma anche per le applicazioni: i nostri device attuali sono più che sufficienti per scrivere mail, fare grafica, montare video e postare sui social.
Questo non toglie che un domani in ambito di ricerca, cloud computing, orchestrazione, GPS e logistica il quantum computing potrebbe rivelarsi non solo utile, ma rivoluzionario.
Il 13 aprile, Spindox discute di quantum computing a Padova
Spindox, tramite la sua divisione dedicata alla ricerca in tema di artificial intelligence e algoritmi, aHead, e la sua suite di soluzioni per il supply chain management, Ublique, segue le potenzialità e gli sviluppi del quantum computing.
Ma questi strumento possono essere integrati nelle soluzioni che Ublique propone ai suoi clienti? E come si inserisce il quantum computing nel mondo delle simulazioni, uno degli strumenti più utilizzati da Ublique?
Beh, potremmo guardare ai problemi di ottimizzazione del traffico, che per il momento gli algoritmi classici fanno una grande fatica ad orchestrare: servirebbe una potenza di calcolo che le varie suite di mapping basate sul sistema GPS non sono in grado di garantire. Ma già negli anni scorsi Microsoft ha creato simulazioni in grado di orchestrare i percorsi di migliaia di veicoli. I risultati, se applicati, porterebbero a una diminuzione degli ingorghi del 73%.
Ma in questo sistema si possono inserire anche l’ottimizzazione di un gran numero di magazzini; un lavoro di demand intelligence molto più dinamico ed intelligente. Potrebbe diminuire anche la “sete di dati” di Ublique: anni fa Stefan Woerner, matematico di IBM. Aveva affermato come “Un computer quantistico può permettere un progresso esponenziale: quello che noi otteniamo in accuratezza con milioni di scenari, potrebbe essere raggiunto con qualche migliaio di simulazioni.
C’è poi la questione programmazione. Come sottolinea Tommaso Colombo, AI Head of Research per Spindox:
“Siamo solo all’inizio di un processo che cambierà il modo di programmare e scrivere algoritmi quantistici. A fronte di una maggiore complessità di programmazione ci saranno benefici concreti in termini di velocità di elaborazione e di aumento di valore ottenibile”.
Quindi, un’evoluzione degli algoritmi. Il risultato? Un sistema molto più performante a livello sia di machine learning che di capacità di utilizzare sistemi AI-generative per la programmazione.
Per approfondire questi temi, Spindox è stato il 13 aprile all’Università degli Studi di Padova, al convegno “Computer quantistico: le opportunità per le aziende italiane”.
Da anni Spindox sfrutta queste occasioni di confronto come maniere per arricchirsi e pensare a nuovi progetti e modi per immaginare il futuro. Questo è ancora più vero con un parterre vario e prestigioso come quello dell’UniPD, che riunisce aziende come Eni, Enel, Intesa San Paolo, Leonardo, Thales Alenia Space Italia.
Lo scopo di questa partecipazione ce lo spiega ancora Tommaso Colombo:
“Sarà un’importante occasione di confronto e dialogo, durante la quale avremo l’opportunità di raccontare la nostra visione sul futuro e presentare casi reali basati sulla risoluzione di problemi di vehicle routing e di scheduling”.