Passeggiare tra le file di armadietti per supercomputer nella Leadership Computing Facility dell’Argonne National Laboratory, situata a circa 25 miglia da Chicago, è un po’ come vagare attraverso una versione high-tech del labirinto Overlook di Shining, senza il pazzo con l’ascia.

I due supercomputer principali in quel labirinto d’acciaio, chiamati Mira e Theta, comprendono 101 armadi delle dimensioni di frigoriferi standard che contengono pile di rack e pesano tra 3.450 e 4.390 libbre ciascuno. Il loro totale combinato: 160 tonnellate – gran parte di questo peso è dovuto a sistemi di raffreddamento ad acqua che impediscono il surriscaldamento. Insieme a molti altri sistemi più piccoli, le macchine sono alloggiate in un centro dati di 25.000 piedi quadrati con soffitti bassi e un pavimento di piastrelle bianche. Con tutte quelle apparecchiature che ronzano, non è un posto tranquillo. Vicino ai computer, i visitatori devono parlare- gridare per essere sentiti sopra un costante ronzio.

Il supercomputer estremamente potente e veloce Aurora dovrebbe arrivare all’Argonne National Laboratory nel 2021. | Credito: Argonne National Laboratory

Sei miliardi di volte più veloce: La nuova casa del supercomputer Aurora

Per quanto la struttura sia tentacolare, è insufficiente per ospitare la bestia che presto vi atterrerà. Nel 2021, se tutto va secondo i piani, un nuovo supercomputer incredibilmente potente, chiamato Aurora, prenderà la residenza. E così, in preparazione del suo arrivo, è in corso una grande espansione. Previsto per 500 milioni di dollari, Aurora sarà il primo dei tre cosiddetti supercomputer “exascale” in grado di eseguire un miliardo di miliardi (o quintilioni) di calcoli al secondo in cui il Dipartimento dell’Energia degli Stati Uniti (DOE), che gestisce Argonne e altri 17 laboratori nazionali, sta investendo 1,8 miliardi di dollari. (Un altro, chiamato Frontier, sarà presto installato all’Oak Ridge National Laboratory in Tennessee).

Non sorprende che per quel tipo di denaro, Aurora sarà in grado di fare piccoli miracoli computazionali. Misurato in 1018 FLOPS (che sta per operazioni in virgola mobile al secondo), il sistema sarà sei miliardi di volte più veloce del suo vecchio predecessore, il rivoluzionario Cray-1 del 1964. In termini più tangibili, per gentile concessione di Design News, “Una persona che aggiunge 1+1+1 in una calcolatrice manuale una volta al secondo, senza tempo libero per mangiare o dormire, avrebbe bisogno di 31,7 trilioni di anni per fare quello che Aurora farà in un secondo”.

Questo è da cinque a dieci volte più veloce dell’attuale campione in carica dei supercomputer, una mega-macchina IBM-Nvidia chiamata Summit che risiede a Oak Ridge. Mente, soffiata.

Chi sarà spodestato da Aurora? Ecco uno sguardo ai 10 supercomputer più veloci del mondo secondo il trust di cervelli di TOP500.

“Ci sono limiti su ciò che possiamo fare oggi su un supercomputer”, ha detto recentemente Mike Papka, direttore della Leadership Computing Facility, dopo aver fatto un tour dello spazio. “Con Aurora, possiamo portarli al livello successivo. In questo momento, possiamo fare simulazioni dell’evoluzione dell’universo. Ma con Aurora, saremo in grado di farlo in modo più realistico, con più fisica e più chimica aggiunte. Stiamo iniziando a fare cose come cercare di capire come i diversi farmaci interagiscono tra loro e, diciamo, una forma di cancro. Ora possiamo farlo su piccola scala. Saremo in grado di farlo su scala ancora maggiore con Aurora”.

Come uno dei 52 supercomputer del Dipartimento dell’Energia, Aurora sarà probabilmente l’unico sistema exascale esistente quando debutterà. (Questo è, a meno che la Cina non ne costruisca uno per prima – che alcuni addetti ai lavori dicono che è piuttosto improbabile, nonostante i rapporti che il paese si sta sforzando di farne uno entro il 2020). In una conferenza stampa del marzo 2019 che annunciava l’installazione di Aurora, il direttore del laboratorio associato Argonne Rick Stevens ha spiegato che il sistema gestirà applicazioni di calcolo ad alte prestazioni, nonché l’analisi dei dati in streaming generati da acceleratori, rivelatori, telescopi e altre apparecchiature di ricerca.

Rick Stevens, direttore di laboratorio associato all’Argonne National Laboratory, parla di Aurora – il primo computer exascale d’America.

A questo punto, però, Aurora rimane un lavoro in corso mentre Summit ottiene la gloria. Originariamente previsto per andare in funzione diversi anni fa in un’incarnazione molto meno potente e lanciato a metà del 2018, Summit è costato 200 milioni di dollari, può eseguire calcoli matematici complessi a una velocità di 200 quadrilioni (o 200 trilioni) al secondo ed è responsabile di aver strappato alla Cina il primo posto nella lista TOP500. Fisicamente imponente, è composto da più di 300 unità – di dimensioni simili a quelle di Mira e Theta – che pesano un totale di 340 tonnellate, occupano 9.250 piedi quadrati e sono alimentati da 9.216 chip di elaborazione centrale. All’interno ci sono chilometri di cavi in fibra ottica, e il raffreddamento di questo colosso richiede 4.000 galloni di acqua al minuto. Inoltre, consuma energia voracemente – abbastanza per alimentare migliaia di case.

Quando il “padre del supercalcolo”, Seymour Cray, iniziò a costruire le sue rivoluzionarie macchine negli anni ’60, un tale spettacolo di muscoli computazionali era incomprensibile. Più di mezzo secolo dopo, sta lentamente diventando la norma – e un giorno sembrerà pittoresco come un Atari 2600.

Theta è uno dei due supercomputer dell’Argonne National Laboratory. | Credito: Argonne National Laboratory

Cos’è un supercomputer? (Suggerimento: l’elaborazione parallela è la chiave)

I supercomputer hanno impiegato per anni una tecnica chiamata “elaborazione massicciamente parallela”, per cui i problemi sono divisi in parti e lavorati simultaneamente da migliaia di processori, in contrasto con il metodo “seriale” uno alla volta, per esempio, del tuo vecchio MacBook Air. Ecco un’altra buona analogia, questa da Explainthatstuff.com:

È come arrivare alla cassa con un carrello pieno di articoli, ma poi dividere i tuoi articoli tra diversi amici. Ogni amico può passare attraverso una cassa separata con alcuni degli articoli e pagare separatamente. Una volta che avete pagato tutti, potete riunirvi di nuovo, caricare il carrello e andarvene. Più articoli ci sono e più amici si hanno, più veloce diventa fare le cose con l’elaborazione parallela – almeno, in teoria.

“Devi usare l’elaborazione parallela per sfruttare davvero la potenza del supercomputer”, dice il dottorando del Rensselaer Polytechnic Institute Caitlin Joann Ross, che recentemente ha fatto una residenza di sei mesi ad Argonne. “Devi capire come i dati devono essere scambiati tra i processi per farlo in modo efficiente, quindi ci sono un sacco di piccole sfide diverse che lo rendono molto divertente da lavorare. Anche se ci sono giorni in cui può essere certamente frustrante”.

I problemi di “debugging”, dice, sono la causa principale di questa frustrazione. I calcoli che potrebbero funzionare senza problemi usando quattro processori, per esempio, potrebbero rompersi se ne viene aggiunto un quinto.

“Se hai tutto perfettamente funzionante”, dice Ross, “allora qualsiasi cosa tu stia eseguendo è molto più veloce di quanto potrebbe essere su un computer con meno processori o un singolo processore. Ci sono alcuni calcoli che potrebbero richiedere settimane o mesi per essere eseguiti sul tuo computer portatile, ma se puoi parallelizzarli in modo efficiente per essere eseguiti su un supercomputer, potrebbero richiedere un giorno.”

Un’altra area del lavoro di Ross riguarda la simulazione dei supercomputer stessi – più specificamente, le reti utilizzate sui supercomputer. I dati delle applicazioni che girano sui supercomputer reali sono inseriti in un simulatore, che permette di testare varie funzioni senza mettere l’intero sistema offline. Qualcosa chiamato “interferenza delle comunicazioni” è una di queste funzioni.

“Nella vita reale, diversi utenti presenteranno lavori al supercomputer, che farà qualche tipo di programmazione per determinare quando quei lavori verranno eseguiti”, dice Ross. “Ci saranno tipicamente più lavori diversi in esecuzione sul supercomputer allo stesso tempo. Usano diversi nodi di calcolo, ma condividono le risorse di rete. Quindi la comunicazione del lavoro di qualcun altro può rallentare il tuo lavoro, in base al modo in cui i dati vengono instradati attraverso la rete. Con le nostre simulazioni, possiamo esplorare questi tipi di situazioni e testare cose come altri protocolli di routing che potrebbero aiutare a migliorare le prestazioni della rete.

Il neuroscienziato israeliano Henry Markham parla della costruzione di un modello del cervello umano.

A cosa servono i supercomputer?Solo a simulare la realtà, tutto qui

Negli ultimi decenni e fino ad oggi, il contributo principale del supercomputing alla scienza è stato la sua capacità sempre migliore di simulare la realtà per aiutare gli esseri umani a fare previsioni di performance migliori e progettare prodotti migliori in campi che vanno dalla produzione e dal petrolio alla farmaceutica e al militare. Jack Dongarra, uno dei maggiori esperti mondiali di supercalcolo, paragona questa capacità all’avere una sfera di cristallo.

“Diciamo che voglio capire cosa succede quando due galassie si scontrano”, dice Dongarra. “Non posso davvero fare quell’esperimento. Non posso prendere due galassie e farle collidere. Quindi devo costruire un modello ed eseguirlo su un computer. O ai vecchi tempi, quando si progettava un’auto, si prendeva quell’auto e la si faceva schiantare contro un muro per vedere come resisteva all’impatto. Beh, questo è piuttosto costoso e richiede tempo. Oggi, non lo facciamo molto spesso; costruiamo un modello al computer con tutta la fisica e lo schiantiamo contro un muro simulato per capire dove sono i punti deboli”.

A cosa servono i supercomputer?

I supercomputer sono fondamentalmente usati dalle aziende e dalle organizzazioni governative per simulare i risultati. Questi computer velocissimi possono essere usati per tutto, dalla ricerca di nuovi depositi di petrolio allo sviluppo di nuove medicine salvavita. Infatti, i supercomputer di tutto il mondo vengono utilizzati per assistere nella ricerca e nello sviluppo di un vaccino per il COVID-19.

Soprattutto le aziende vedono il valore monetario (ROI, come dicono i tipi aziendali) nelle simulazioni di supercomputing, sia che si tratti della produzione di automobili, della perforazione di petrolio o della scoperta di nuovi farmaci. Nel 2018, gli acquisti aziendali e governativi hanno contribuito a un mercato del calcolo ad alte prestazioni sempre più robusto.

“Dei primi cinquecento computer, più della metà sono nell’industria”, dice Dongarra, che ha trascorso una parte iniziale della sua carriera ad Argonne. “L’industria ha capito. Stanno investendo in computer ad alte prestazioni per essere più competitivi e per ottenere un vantaggio sulla concorrenza. E sentono che quel denaro è ben speso. Stanno investendo in queste cose per aiutare a guidare i loro prodotti e l’innovazione, la loro linea di fondo, la loro produttività e la loro redditività.”

Ma è più grande del semplice ROI.

“Le imprese commerciali tradizionali possono vedere i calcoli del ritorno sull’investimento del tipo: ‘Ci ha fatto risparmiare questa quantità di costi per i test fisici’, oppure: ‘Siamo stati in grado di arrivare sul mercato più velocemente e quindi abbiamo ottenuto un reddito extra’”, dice Andrew Jones, un consulente di high performance computing con sede nel Regno Unito. “Ma un calcolo di base del ROI per l’HPC non è necessariamente da dove viene il valore. Se chiedete a una compagnia petrolifera, non si tratta di essere in grado di trovare il petrolio al 30% in meno.

Le aziende che usano il supercalcolo per fare miglioramenti di grande portata e aumentare l’efficienza hanno un vantaggio sui loro concorrenti.

“E lo stesso vale per molta della scienza”, aggiunge Jones. “Non stai necessariamente cercando un ritorno sull’investimento in un senso specifico, stai cercando la capacità generale – se i nostri ricercatori sono in grado di fare scienza che è competitiva a livello internazionale o no.”

Il bisogno di velocità

‘”Non ci sono due maggiori trasgressori di ‘guarda quanto è grande il mio sistema’ che gli Stati Uniti e la Cina.Stati Uniti e Cina”‘

Perché i computer più veloci permettono ai ricercatori di ottenere più rapidamente una maggiore comprensione di ciò su cui stanno lavorando, c’è un bisogno sempre crescente – o almeno un forte desiderio – di velocità. Dongarra la chiama “una ricerca senza fine”, e le capacità exascale sostenute di Aurora (ancora non dimostrate) sarebbero il culmine di quella ricerca finora. Tuttavia, sarà uno dei tanti. Molti altri supercomputer con nomi a volte epici (Titan, Excalibur) operano in altri 26 paesi del mondo. Prodotti da 36 diversi fornitori, sono guidati da 20 generazioni di processori e servono una varietà di industrie e funzioni governative che vanno dalla ricerca scientifica alla difesa nazionale.

Queste statistiche provengono dal sito TOP500.org. Co-fondato da Dongarra, ha tenuto d’occhio tutte le cose di supercomputing dal 1993, e usa il suo LINPACK Benchmark (che stima quanto velocemente un computer può eseguire un programma o molti) per misurare le prestazioni. Secondo la sua ultima classifica dei più grandi e cattivi del mondo, l’America ha cinque (presto sei) dei primi 10 – tra cui il supercomputer più veloce del pianeta nel Summit di Oak Ridge e il secondo più veloce, Sierra, al Lawrence Livermore National Laboratory in California. La Cina, seconda classificata, ne ha solo due (ma presto saranno tre). Certo, il paese occupa 227 dei primi 500 posti e ha prodotto 303 delle macchine su quella lista, ma gli Stati Uniti possono ancora brandire il loro gigantesco dito di gommapiuma. Per ora. Il concorso è in corso e non mostra segni di cedimento.

“Non ci sono due maggiori colpevoli di ‘guarda quanto è grande il mio sistema’ che gli Stati Uniti e la Cina”, dice Nicole Hemsoth, co-fondatrice e co-editrice di The Next Platform.

La Cina ha fatto del calcolo ad alte prestazioni un “punto di orgoglio nazionale”. | Credit:

Mentre la Cina è stata storicamente meno interessata alla Top 500, spiega, negli ultimi anni ha fatto del calcolo ad alte prestazioni “un punto di orgoglio nazionale”, ponendo maggiore enfasi sulle “prestazioni da classifica” e spendendo miliardi per ottenerle. Altri concorrenti exascale includono Francia e Giappone. Secondo uno studio, 10 miliardi di dollari dei 130 miliardi spesi in supercomputer tra il 2018 e il 2021 saranno destinati a sistemi exascale come quello previsto per Argonne.

“La gara tra paesi è in parte reale e in parte artificiale”, dice Jones. “Così, per esempio, se sei il direttore di un laboratorio nazionale statunitense e stai cercando di assicurarti i finanziamenti per la tua prossima macchina HPC, è un ottimo argomento per dire che, ‘Beh, la Cina ne ha una che è dieci volte più grande, quindi dobbiamo recuperare il ritardo’. L’Unione europea e la Cina giocano lo stesso gioco contro gli Stati Uniti, quindi c’è un po’ di tensione creata che non è necessariamente reale, ma sta aiutando a guidare il .”

Anche i media giocano un ruolo significativo. I giornalisti amano tirare fuori statistiche da supercomputer sbalorditive e spiegarle in modo evocativo. Ce n’è un esempio all’inizio di questa storia. Eccone un altro, dal New York Times: “Se uno stadio costruito per 100.000 persone fosse pieno, e tutti in esso avessero un moderno computer portatile, ci vorrebbero 20 stadi per eguagliare la potenza di fuoco informatica del Summit”. NON TI PIACE?

Anche i funzionari governativi godono di un po’ di spavalderia da supercomputer, parlando della loro gargantuesca potenza di elaborazione come la chiave per il miglioramento della società – e, naturalmente, la prova della totale meraviglia del loro paese. John F. Kennedy, che ha rilanciato la corsa allo spazio nel 1961, sarebbe stato tutto su questo.

“È una competitività economica di base”, dice Jones. “Se ti allontani così tanto che la tua nazione non è più economicamente competitiva con altre nazioni di dimensioni comparabili, allora questo porta a tutta una serie di altre questioni politiche e di sicurezza da affrontare.”

COmputing SPeed + Power = Military Might

Al di là degli aspetti economici e di sicurezza, aggiunge, coloro che capiscono chiaramente le implicazioni del calcolo ad alte prestazioni vedono i suoi enormi benefici per la scienza, gli affari e altri settori. “Quindi non c’è bisogno di fare queste cose”. (Sul fronte degli armamenti nucleari, per esempio, i supercomputer si sono dimostrati un enorme vantaggio per le cose che fanno boom. Sofisticate simulazioni hanno eliminato la necessità di test nel mondo reale.

“Non sviluppano qualcosa, vanno nel deserto, fanno un buco e vedono se funziona”, dice Dongarra di una pratica che è cessata decenni fa. “Simulano quel progetto su un supercomputer. Simulano anche cosa succede a quelli se sono su uno scaffale per tanti anni, perché devono verificare che la scorta funzionerà.”

In un importante aggiornamento recente, l’Air Force Research Lab – uno dei cinque centri di supercalcolo del Dipartimento della Difesa degli Stati Uniti – ha installato quattro supercomputer condivisibili su cui l’intero esercito americano può condurre ricerche classificate. Il progetto è stato promosso come un modo per aiutare i ricercatori dell’Air Force, dell’Esercito e della Marina “a rispondere rapidamente alle sfide più pressanti e complesse della nostra nazione, che sta anche accelerando nuove capacità per il warfighter a costi inferiori per il contribuente.”

Interpretatelo come volete.

Alcuni esperti credono che il supercalcolo modellerà il futuro dell’AI, ma non è chiaro esattamente cosa questo significhi. | Credit:

Supercomputing e Intelligenza Artificiale

L’intelligenza artificiale è ancora piuttosto rudimentale, ma i supercomputer stanno cambiando la situazione mettendo il turbo ai processi di apprendimento automatico per produrre risultati più rapidi da più dati – come in questa ricerca sulle scienze del clima.

“Essere impegnati nel supercomputing è credere nel potere dell’algoritmo di distillare informazioni preziose e significative dall’implementazione ripetuta della logica procedurale”, scrive Scott Fulton III in una storia penetrante su ZDNet. “Alla base del supercalcolo ci sono due ideali: uno che professa che la macchina di oggi alla fine raggiungerà una nuova e straordinariamente preziosa soluzione, seguito da una seconda e più sottile nozione che la macchina di oggi è un prototipo per quella di domani.”

Come ha detto il direttore di Argonne Paul Kearns a HPCWire, Aurora è destinato alla “prossima generazione” di IA che accelererà la scoperta scientifica e renderà possibili miglioramenti in settori come le previsioni meteorologiche estreme, i trattamenti medici, la mappatura del cervello, lo sviluppo di nuovi materiali. Ci aiuterà persino a capire meglio l’universo, ha aggiunto, “e questo è solo l’inizio”.

Mentre Dongarra pensa che i supercomputer plasmeranno il futuro dell’IA, esattamente come ciò avverrà non è del tutto prevedibile.

“In una certa misura, i computer che vengono sviluppati oggi saranno utilizzati per applicazioni che hanno bisogno di intelligenza artificiale, apprendimento profondo e calcoli di neuro-networking”, dice Dongarra. “Sarà uno strumento che aiuterà gli scienziati a capire e risolvere alcuni dei problemi più impegnativi che abbiamo.”

“Sarà” – tempo futuro. Il lavoro di IA è ancora solo una piccola percentuale di ciò che fanno i supercomputer. Per la maggior parte, dice Jones, sono “macchine del tempo” che stanno “portando la prossima scienza da cinque anni avanti a oggi.”

“Il novanta per cento delle installazioni HPC tradizionali stanno ancora facendo carichi di lavoro HPC tradizionali – simulazioni di ingegneria, fluidodinamica, modellazione del tempo e del clima”, spiega. “E l’IA è presente a livello del cinque o dieci per cento per aumentare questi carichi e contribuire a farli funzionare meglio, ma non sta ancora dominando i requisiti per l’acquisto di piattaforme HPC o anche per guidare i programmi di finanziamento HPC.”

Hemsoth pensa che ci vorranno probabilmente altri cinque anni prima che i flussi di lavoro HPC esistenti includano molta IA e deep learning, che avranno entrambi requisiti di calcolo diversi da quelli attuali.

“Tutti stanno saltando un po’ la pistola quando si tratta di IA”, dice. “Stanno comprando sistemi che sono giusti per l’IA come è ora. L’IA sarà una parte pratica dei carichi di lavoro, ma sta per cambiare. E il software attuale e l’applicazione su cui le cose devono essere eseguite stanno per cambiare, il che cambierà l’hardware che è necessario avere. Questa roba si sta evolvendo rapidamente, ma con cicli di produzione dell’hardware molto lunghi – specialmente se sei un laboratorio nazionale e devi procurarti questa roba da tre a cinque anni prima di avere la macchina”.

Qualunque forma il supercalcolo prenda in futuro, sarà più potente e trasformativo. | Credito:

Il futuro del supercalcolo

“Il miglioramento dell’umanità è un obiettivo nobile da avere.”

Un’altra bomba al cervello: il tuo attuale smartphone è veloce quanto un supercomputer nel 1994 – uno che aveva 1.000 processori e faceva simulazioni nucleari. (C’è un’app per questo?) Va da sé, quindi, che lo smartphone (o come si chiama) che avrete tra un quarto di secolo potrebbe teoricamente essere al livello di Aurora. Il punto è che questa roba è veloce – e sta solo diventando più veloce. Ecco come Dongarra lo riassume:

“Abbiamo raggiunto il teraflop nel 1997 su una macchina ai Sandia National Laboratories. Erano 1012 teraflop. Poi, nel 2008, abbiamo raggiunto il petaflop – 1015 – a Los Alamos. Ora siamo sul punto di raggiungere l’exascale, con 1018 operazioni, intorno all’inizio del 2020 o 2021. In probabilmente 10 o 11 anni, saremo a zettascala – 1021 operazioni al secondo. Quando ho iniziato a lavorare nell’informatica, facevamo megaflop – 106 operazioni. Quindi le cose cambiano. Ci sono cambiamenti nell’architettura, cambiamenti nel software e nelle applicazioni che devono andare di pari passo. Passare al livello successivo è una progressione naturale.”

Una storia recente su TOP500.com intitolata, “Il supercomputing si sta dirigendo verso una crisi esistenziale”, dipinge un quadro delle cose a venire in cui le simulazioni passano in secondo piano.

“L’apprendimento automatico, in particolare, potrebbe arrivare a dominare la maggior parte dei domini informatici, compreso l’HPC (e anche l’analisi dei dati) nei prossimi dieci anni e mezzo”, scrive l’autore Michael Feldman. “Mentre oggi è usato per lo più come un passo ausiliario nel calcolo scientifico tradizionale – sia per le simulazioni di pre-elaborazione che di post-elaborazione, in alcuni casi, come la scoperta di farmaci, potrebbe plausibilmente sostituire le simulazioni del tutto.”

Qualunque forma assumano i supercomputer, Papka di Argonne dice che diventeranno sempre più potenti e trasformativi, influenzando tutto dal pedonale al profondo – dalla progettazione di batterie per auto elettriche più efficienti a, forse, l’eliminazione di malattie a lungo combattute come il cancro. O almeno così spera.

“Il miglioramento dell’umanità”, dice Papka, “è un obiettivo nobile da avere.”

RelatedRead More Stories About Hardware Companies

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.