Scenario futuro

High performance computing, le frontiere del supercalcolo

I supercomputer stanno ridisegnando i confini della ricerca, della scienza e dell’impresa a suon di bit. Una corsa globale che vede l’Italia in prima linea grazie a un ecosistema ricco di innovazione e ai campioni nazionali

in collaborazione con LEONARDO

di Andrea Frollà

La data economy potrebbe sfondare già entro la fine di quest’anno il muro dei 100 zettabyte, ossia dei 100 mila miliardi di miliardi di Byte generati, raccolti ed elaborati tramite strumenti digitali. Questa cifra monstre testimonia una crescita inarrestabile altrettanto mostruosa, destinata a macinare record su record nei prossimi anni (se 10 anni fa lo stesso indice era fermo a 9 zettabyte, nel 2025 dovrebbe toccare quota 180 secondo le stime di Statista). Ma siamo davvero pronti per nuotare in questo mare magnum di dati in termini di capacità di calcolo, analisi ed elaborazione? E soprattutto, siamo davvero in grado di trasformare questa ondata di big data in un valore aggiunto per le nostre vite quotidiane?

Il supercomputer DaVinci-1

milioni di gigabyte di capacità di memoria

gigabyte al secondo di velocità di lettura e scrittra

server di controllo e funzioni speciali e 150 unità di calcolo

milioni di miliardi di operazioni in virgola mobile al secondo

Fonte: Leonardo

La prima certezza è che in assenza di strumenti di calcolo in grado di elaborare tutte le informazioni che ogni giorno generiamo con gli smartphone, i tablet, i computer, i wearable e altri dispositivi digitali più o meno complessi, la rivoluzione dei big data e dell’Internet delle Cose rischia di trasformarsi in una favola incompiuta e di passare alla storia come la grande occasione mancata dell’era digitale. La buona notizia è che negli ultimi anni l’informatica ha compiuto progressi straordinari, sviluppando hardware e software che ci permettono di dormire sonni tranquilli in attesa dell’avvento del quantum computing.

Oggi, infatti, il mondo della ricerca, della scienza e dell’impresa può già contare su una potenza computazionale importante, garantita dal cosiddetto “super computing” o “high performance computing” (Hpc): tecnologie integrate di analisi e calcolo che permettono di elaborare enormi quantità di dati “in parallelo”, vale a dire contemporaneamente, e creare modelli analitici su dati strutturati e non (testi, video, foto, audio, ecc.). Una sfida globale che l’Italia sta cercando di vincere puntando su un approccio ecosistemico, ben testimoniato dalla recente nascita di un vero e proprio polo nazionale del supercalcolo, che vedrà impegnate le eccellenze della ricerca italiana e alcune grandi aziende nazionali come Leonardo e altre realtà.

Podcast

Pianeta B - I dati ci aiuteranno a salvare il mondo

Se la teoria del supercomputing può apparire vaga, fumosa e da addetti ai lavori, le applicazioni concrete possono invece aiutarci a capire la portata effettiva di tutta questa potenza computazionale e il suo impatto sulle nostre vite, specialmente in presenza di analisi complesse. Ad esempio, i supercomputer supportano gli scienziati nello studio delle serie storiche dei grandi fenomeni climatici globali (innalzamento dei mari, aumenti delle temperature, scioglimento dei ghiacci, salute della flora e altro), gli archeologi nella ricerca testuale di antichi manufatti, monumenti e altre opere, o ancora gli istituti di ricerca nello sviluppo dei farmaci. L’high performance computing sta dunque già mostrando una buona dose del suo potenziale in tutto il mondo. E lo sta facendo anche nel nostro Paese, con esperienze, punte e numeri di vera e propria eccellenza, oltre che con un’ottica di sistema che fa ben sperare per il nostro posizionamento internazionale nella grande corsa ai bit.

L’ecosistema Italia

La nascita del primo dei cinque centri nazionali del supercalcolo previsti dal Piano nazionale di ripresa e resilienza è la prova che l’Italia non ha alcuna intenzione di lasciarsi sfuggire la partita miliardaria dell’high performance computing. Sarà il Tecnopolo di Bologna a ospitare il Centro nazionale di ricerca in High performance computing, big data e quantum computing, promosso dall’Istituto nazionale di fisica nucleare, gestito dalla Fondazione Icsc e supportato da 51 membri fondatori tra realtà del settore pubblico, università, centri di ricerca e aziende.

Il polo del supercalcolo già ospita il data center del Centro meteo europeo e a breve accoglierà il supercalcolatore Leonardo gestito da Cineca e il Centro di Calcolo dell’Infn. Inoltre, metterà in rete e a sistema le specifiche conoscenze, competenze e risorse di realtà che operano in tutta Italia in molteplici ambiti, con l’obiettivo di costruire un’infrastruttura distribuita e trasversale che supporti la ricerca scientifica e il mondo produttivo nell’innovazione e digitalizzazione del Paese.

La Fondazione Icsc potrà contare su un finanziamento di circa 320 milioni di euro, messi a disposizione dai fondi Next Generation EU nell’ambito della Missione Istruzione e Ricerca del Pnrr coordinata dal ministero dell’Università e della ricerca. Il 41% delle risorse sarà investito al Sud e oltre 100 milioni di euro saranno dedicati al personale, con una partecipazione femminile di almeno il 40%, e con quasi 16 milioni di euro riservati a borse di dottorato e quindi all’alta formazione e alla carriera dei giovani.

L'eco sistema Italia L'eco sistema Italia

Ne sa qualcosa Leonardo, colosso italiano della difesa, dell’aerospazio e della sicurezza. Dal 2020 è infatti attivo “davinci-1”, il supercomputer del gruppo in grado di svolgere 5 milioni di miliardi di operazioni in virgola mobile al secondo. Se è vero che i dati sono il petrolio dell’economia digitale, il davinci-1 si presenta come una raffineria hi-tech di ultima generazione: capacità di memoria pari a 20 milioni di Gigabyte, 150 unità di calcolo connesse a 50 server di controllo e funzioni speciali, collegate tra loro da connessioni da 100Gbit/secondo, equivalenti a 1.000 connessioni a banda larga. Giusto per dare un’idea, stiamo parlando di una velocità di lettura e scrittura su disco pari a quella necessaria a scrivere e leggere 20 Dvd in un secondo. Un concentrato di tecnologie che Leonardo sta utilizzando per implementare la ricerca sulle tecnologie dirompenti che rappresentano il presente e il futuro dell’innovazione: intelligenza artificiale, gemelli digitali, tecnologie quantistiche, sistemi autonomi, analisi dei dati e altro ancora.

La corsa internazionale dell'high performance computing

Passa sui numeri per leggere le schede

425.583

teraflop

La capacità di calcolo complessiva installata in Europa

7Miliardi

di euro

L’investimento della Commissione europea a supporto dell’high performance computing

50Miliardi

di dollari

Il valore del mercato Hpc stimato al 2027

181

zettabytes

Il numero di dati che sarà generato nel 2025

Fonti: World Economic Forum, Osservatori Digital Innovation, Clusit, Governo.it

Al tempo stesso, il supercomputer ispirato al genio di Leonardo da Vinci è utilizzato anche nel processo di digitalizzazione di prodotti e processi dell’intera filiera del gruppo, in modo da ottimizzare tempi e costi di produzione. Inoltre, grazie anche all’impiego del “digital twin” (le simulazioni digitali di sistemi produttivi esistenti) coadiuvato dall’intelligenza artificiale, Leonardo è in grado di progettare, testare e certificare nuovi prodotti sulla base della loro replica digitale. Il contributo di davinci-1 non si ferma però al perimetro aziendale del gruppo: il supercomputer può infatti essere impiegato anche nello studio e nell’elaborazione di informazioni che vanno oltre l’attività industriale di Leonardo, come l’analisi di dati relativi all’ambito sanitario attraverso lo sviluppo, ad esempio, di testing virtuale di farmaci e l’elaborazione di analisi cliniche complesse.

A testimonianza dell’interesse generale del nostro sistema Paese per la frontiera del supercalcolo c’è anche un altro progetto che vede coinvolta Leonardo, ossia la creazione di un network nazionale dell’High performance computing. Una rete di supercomputer che, interagendo tra loro, massimizzeranno le loro capacità di offrire servizi di cloud e high performance computing, e assicureranno un aumento della velocità di elaborazione dei dati per garantire una maggiore sicurezza a tutti i servizi digitali nazionali.

Nella prossima puntata di scenario futuro

Dal clima alla salute, il valore dello spazio nell'era data-driven

Lo spazio ha da sempre stimolato la curiosità dell’uomo, spingendolo alla scoperta dell’ignoto tra pianeti, astri e costelazioni. Nonostante i progressi degli ultimi anni, la space economy è però ancora agli albori: ecco le applicazioni che stanno già cambiando e che cambieranno le nostre vite

Nella prossima puntata

in collaborazione con