Att vandra bland raderna av superdatorskåp i Argonne National Laboratory’s Leadership Computing Facility, som ligger cirka 25 mil från Chicago, är ungefär som att vandra genom en högteknologisk version av The Shining’s Overlook Maze – men utan den yxsvängande galningen.
De två primära superdatorerna i denna stållabyrint, som heter Mira och Theta, består av 101 skåp av samma storlek som vanliga kylskåp som innehåller staplar av rack och väger mellan 3 450 och 4 390 pund vardera. Deras sammanlagda vikt är 160 ton, varav en stor del beror på vattenkylningssystem som förhindrar överhettning. Tillsammans med flera andra mindre system är maskinerna inrymda i ett 25 000 kvadratmeter stort datacenter med lågt i tak och vitt klinkergolv. Med all denna utrustning som snurrar är det ingen tyst plats. Närmast datorerna måste besökare tala-skriva för att höras över ett konstant högt brummande.
- Sex miljarder gånger snabbare: Aurora SuperComputer’s New Home
- Vad är en superdator? (Tips: Parallell beräkning är nyckeln)
- Vad används superdatorer till?Bara för att simulera verkligheten, det är allt
- Vad används superdatorer till?
- Behovet av snabbhet
- COmputing SPeed + Power = Military Might
- Superdatorer och artificiell intelligens
- The Future of Supercomputing
Sex miljarder gånger snabbare: Aurora SuperComputer’s New Home
Oavsett hur vidsträckt anläggningen än är, räcker den inte till för att hysa den best som snart kommer att landa där. Någon gång under 2021, om allt går enligt planerna, kommer en fantastiskt kraftfull ny superdator med namnet Aurora att ta plats. Som förberedelse för dess ankomst pågår därför en stor utbyggnad. Aurora, som kostar 500 miljoner dollar, kommer att bli den första av tre så kallade ”exascale”-superdatorer som kan utföra en miljard miljarder (även kallad quintiljon) beräkningar per sekund och som det amerikanska energidepartementet (DOE), som driver Argonne och 17 andra nationella laboratorier, investerar 1,8 miljarder dollar i. (En annan, kallad Frontier, kommer snart att installeras vid Oak Ridge National Laboratory i Tennessee).
Inte överraskande för en sådan summa pengar kommer Aurora att kunna utföra mindre beräkningsmirakel. Mätt som 1018 FLOPS (vilket står för floating point operations per sekund) kommer systemet att vara sex miljarder gånger snabbare än sin föregångare för länge sedan, den banbrytande Cray-1 från 1964. I mer konkreta termer enligt Design News: ”En person som lägger till 1+1+1 i en handräknare en gång i sekunden, utan tid för att äta eller sova, skulle behöva 31,7 biljoner år för att göra det som Aurora kommer att göra på en sekund”.
Det är mellan fem och tio gånger snabbare än den nuvarande regerande mästaren bland superdatorer, en megamaskin från IBM och Nvidia som kallas Summit och som finns på Oak Ridge. Det är helt otroligt.
Vem kommer Aurora att ta över? Här är en titt på de tio snabbaste superdatorerna i världen enligt TOP500.
”Det finns begränsningar för vad vi kan göra i dag på en superdator”, sade Mike Papka, chef för Leadership Computing Facility, nyligen efter att ha gett en rundtur i utrymmet. ”Med Aurora kan vi ta dem till nästa nivå. Just nu kan vi göra simuleringar av universums utveckling. Men med Aurora kommer vi att kunna göra det på ett mer realistiskt sätt, med mer fysik och mer kemi. Vi börjar göra saker som att försöka förstå hur olika läkemedel interagerar med varandra och till exempel med någon form av cancer. Vi kan göra det i liten skala nu. Vi kommer att kunna göra det i ännu större skala med Aurora.”
Som en av 52 superdatorer från energidepartementet kommer Aurora troligen att vara det enda exaskalasystemet som finns när det har premiär. (Det vill säga, om inte Kina bygger en först – vilket enligt vissa insiders är ganska osannolikt trots rapporter om att landet kämpar för att göra en till 2020). Vid en presskonferens i mars 2019 då Auroras installation tillkännagavs förklarade Rick Stevens, Argonne Associate Laboratory Director, att systemet kommer att hantera högpresterande beräkningstillämpningar samt analys av strömmande data som genereras av acceleratorer, detektorer, teleskop och annan forskningsutrustning.
I nuläget förblir Aurora dock ett pågående arbete medan Summit får äran. Summit, som ursprungligen skulle tas i drift för flera år sedan i en betydligt mindre kraftfull inkarnation och lanserades i mitten av 2018, kostade 200 miljoner dollar, kan utföra komplexa matematiska beräkningar i en takt av 200 kvadriljoner (eller 200 biljoner) i sekunden och är ansvarig för att ha tagit tillbaka USA:s förstaplats på TOP500-listan från Kina. Fysiskt imponerande består den av mer än 300 enheter – av samma storlek som Mira och Theta – som väger sammanlagt 340 ton, upptar 9 250 kvadratmeter och drivs av 9 216 centrala processorkretsar. Inuti finns kilometervis av fiberoptiska kablar, och för att kyla denna koloss kräver det 4 000 gallon vatten per minut. Dessutom förbrukar den energi i en oändlig omfattning – tillräckligt för att driva tusentals hem.
När ”superdatorns fader” Seymour Cray först började bygga sina revolutionära maskiner på 1960-talet var en sådan uppvisning av beräkningsmuskler obegriplig. Mer än ett halvt sekel senare börjar det långsamt bli normen – och kommer en dag att verka lika pittoreskt som en Atari 2600 gör nu.
Vad är en superdator? (Tips: Parallell beräkning är nyckeln)
Superdatorer har i åratal använt sig av en teknik som kallas ”massivt parallell bearbetning”, där problem delas upp i delar och bearbetas samtidigt av tusentals processorer, i motsats till den ”seriella” metoden med en i taget, som används av till exempel din vanliga gamla MacBook Air. Här är en annan bra analogi, den här från Explainthatstuff.com:
Det är som att komma till en kassa med en fullpackad varukorg, men sedan dela upp varorna mellan flera olika vänner. Varje vän kan gå igenom en separat kassa med några av varorna och betala separat. När alla har betalat kan ni samlas igen, fylla på kundvagnen och gå därifrån. Ju fler varor det finns och ju fler vänner du har, desto snabbare går det att göra saker och ting genom parallellbearbetning – åtminstone i teorin.
”Man måste använda parallell beräkning för att verkligen dra nytta av superdatorns kraft”, säger Caitlin Joann Ross, doktorand vid Rensselaer Polytechnic Institute, som nyligen gjorde en sexmånaders vistelse på Argonne. ”Man måste förstå hur data måste utbytas mellan processer för att göra det på ett effektivt sätt, så det finns många olika små utmaningar som gör det väldigt roligt att arbeta med. Även om det finns dagar då det verkligen kan vara frustrerande.”
”Debugging”-problem, säger hon, är den främsta orsaken till denna frustration. Beräkningar som kan gå smidigt med fyra processorer, till exempel, kan gå sönder om man lägger till en femte.
”Om allting fungerar perfekt”, säger Ross, ”så går det du kör mycket snabbare än på en dator med färre processorer eller en enda processor. Det finns vissa beräkningar som kan ta veckor eller månader att köra på din bärbara dator, men om du kan parallellisera den effektivt för att köra den på en superdator kan det ta en dag.”
Ett annat område i Ross arbete handlar om att simulera själva superdatorerna – närmare bestämt nätverken som används på superdatorer. Data från program som körs på riktiga superdatorer matas in i en simulator, som gör det möjligt att testa olika funktioner utan att ta hela systemet offline. Något som kallas ”kommunikationsstörningar” är en av dessa funktioner.
”I verkligheten skickar olika användare in jobb till superdatorn, som gör någon typ av schemaläggning för att bestämma när jobben ska köras”, säger Ross. ”Det kommer vanligtvis att vara flera olika jobb som körs på superdatorn samtidigt. De använder olika beräkningsnoder, men delar på nätverksresurserna. Så kommunikationen från någon annans jobb kan sakta ner ditt jobb, baserat på hur data leds genom nätverket. Med våra simuleringar kan vi utforska den här typen av situationer och testa saker som andra routingprotokoll som kan bidra till att förbättra nätverkets prestanda.
Vad används superdatorer till?Bara för att simulera verkligheten, det är allt
Under de senaste decennierna och fram till idag har superdatorernas främsta bidrag till vetenskapen varit dess ständigt förbättrade förmåga att simulera verkligheten för att hjälpa människor att göra bättre prestandaprediktioner och utforma bättre produkter på områden från tillverkning och olja till läkemedel och militär. Jack Dongarra, en av världens främsta experter på superdatorer, jämför denna förmåga med att ha en kristallkula.
”Säg att jag vill förstå vad som händer när två galaxer kolliderar”, säger Dongarra. ”Jag kan egentligen inte göra det experimentet. Jag kan inte ta två galaxer och låta dem kollidera. Så jag måste bygga en modell och köra den på en dator. Förr i tiden, när man konstruerade en bil, tog man bilen och körde in den i en vägg för att se hur väl den klarade av stöten. Det är ganska dyrt och tidskrävande. I dag gör vi inte det så ofta; vi bygger en datormodell med all fysik och kraschar den mot en simulerad vägg för att förstå var de svaga punkterna finns.”
Vad används superdatorer till?
Företagen, i synnerhet, ser det monetära värdet (ROI, som företagstyperna säger) i superdatorsimuleringar, oavsett om de tillverkar bilar, borrar efter olja eller upptäcker nya läkemedel. Under 2018 bidrog inköp från företag och myndigheter till en alltmer robust marknad för högpresterande beräkningar.
”Av de femhundra bästa datorerna finns mer än hälften inom industrin”, säger Dongarra, som tillbringade en tidig del av sin karriär vid Argonne. ”Industrin förstår det. De investerar i högpresterande datorer för att bli mer konkurrenskraftiga och för att få ett försprång i förhållande till sina konkurrenter. Och de känner att pengarna är väl investerade. De investerar i dessa saker för att främja sina produkter och innovationer, sina resultat, sin produktivitet och sin lönsamhet.”
Men det är större än bara ROI.
”Traditionella kommersiella företag kan se avkastningsberäkningar som ”Det sparade oss den här mängden fysiska testkostnader” eller ”Vi kunde komma snabbare ut på marknaden och därmed få extra inkomster”, säger Andrew Jones, en brittisk konsult inom högpresterande databehandling. ”Men en grundläggande avkastningskalkyl för HPC är inte nödvändigtvis där värdet kommer ifrån. Om du frågar ett oljebolag handlar det inte om att kunna hitta olja 30 procent billigare. Det handlar om att kunna hitta olja eller inte.”
Företag som använder superdatorer för att göra stora förbättringar och öka effektiviteten har en fördel gentemot sina konkurrenter.
”Och samma sak gäller för mycket av vetenskapen”, tillägger Jones. ”Man är inte nödvändigtvis ute efter en avkastning på investeringen i en specifik mening, utan man är ute efter allmän kapacitet – om våra forskare kan göra vetenskap som är internationellt konkurrenskraftig eller inte.”
Behovet av snabbhet
’”Det finns inte två större förövare av ’titta på hur stort mitt system är’ än U.USA och Kina.”’
Med tanke på att snabbare datorer gör det möjligt för forskare att snabbare få större insikt i det de arbetar med, finns det ett ständigt ökande behov – eller åtminstone en stark önskan – av snabbhet. Dongarra kallar det ”ett oändligt sökande”, och Auroras (fortfarande obevisade) uthålliga exaskalakapacitet skulle vara toppen av detta sökande så här långt. Men det kommer ändå att vara en av många. Det finns ytterligare mängder av superdatorer med ibland episkt klingande namn (Titan, Excalibur) i 26 andra länder runt om i världen. De tillverkas av 36 olika leverantörer, drivs av 20 generationer av processorer och betjänar en mängd olika industrier samt statliga funktioner som sträcker sig från vetenskaplig forskning till nationellt försvar.
Denna statistik kommer från webbplatsen TOP500.org. Den grundades av Dongarra och har hållit koll på allt som har med superdatorer att göra sedan 1993. För att mäta prestandan används hans LINPACK Benchmark (som uppskattar hur snabbt en dator sannolikt kommer att köra ett eller flera program). Enligt dess senaste sammanställning av världens största och värsta datorer har USA fem (snart sex) av de tio främsta – inklusive världens snabbaste superdator i Oak Ridge Summit och den näst snabbaste, Sierra, vid Lawrence Livermore National Laboratory i Kalifornien. Tvåan Kina har bara två (men snart tre). Visst, landet har 227 av de 500 främsta platserna och har tillverkat 303 av maskinerna på listan, men USA kan fortfarande visa upp sitt gigantiska skumfinger. Tills vidare. Tävlingen pågår och visar inga tecken på att avta.
”Det finns inte två större förövare av ”titta hur stort mitt system är” än USA och Kina”, säger Nicole Hemsoth, medgrundare och medredaktör av The Next Platform.
Och även om Kina historiskt sett har varit mindre intresserat av Top 500, förklarar hon, har de under de senaste åren gjort högpresterande databehandlingar till ”en nationell stolthet” och lagt större vikt vid ”topprestationer” och spenderat miljarder för att uppnå dem. Andra exascale-konkurrenter är Frankrike och Japan. Enligt en studie kommer 10 miljarder dollar av de beräknade 130 miljarder dollar som spenderas på superdatorer mellan 2018 och 2021 att gå till exascale-system som det som planeras för Argonne.
”Kapplöpningen mellan länderna är delvis verklig och delvis artificiell”, säger Jones. ”Om du till exempel är chef för ett nationellt laboratorium i USA och försöker få finansiering för nästa HPC-maskin är det ett mycket bra argument att säga: ’Kina har en tio gånger större maskin, så vi måste komma ikapp’. Europeiska unionen och Kina spelar samma spel mot USA, så det finns lite av en skapad spänning som inte nödvändigtvis är verklig, men som bidrar till att driva på .”
Medierna spelar också en viktig roll. Journalister älskar att presentera hjärnskakande superdatorstatistik och förklara den på ett suggestivt sätt. Det finns ett exempel på detta i början av den här artikeln. Här är ett annat, från New York Times: ”Om en arena byggd för 100 000 personer var full och alla hade en modern bärbar dator, skulle det krävas 20 arenor för att matcha Summit’s datorkraft.” Är du inte underhållen?
Regeringstjänstemän gillar också lite superdatorer och talar om sin gigantiska processorkraft som nyckeln till samhällsförbättringar – och, naturligtvis, som ett bevis på att deras land är helt fantastiskt. John F. Kennedy, som satte fart på rymdkapplöpningen 1961, skulle ha varit helt och hållet med på detta.
”Det är grundläggande ekonomisk konkurrenskraft”, säger Jones. ”Om du sjunker så mycket att din nation inte längre är ekonomiskt konkurrenskraftig i förhållande till andra nationer av jämförbar storlek leder det till en hel massa andra politiska och säkerhetsmässiga frågor att ta itu med.”
COmputing SPeed + Power = Military Might
Ovanför de säkerhetsmässiga och ekonomiska aspekterna, tillägger han, ser de som tydligt förstår innebörden av högpresterande databehandlingar de enorma fördelar som den innebär för vetenskap, näringsliv och andra sektorer. ”Så det är en självklarhet att vi gör det här.” (Visserligen säger vissa rapporter att dessa fördelar är överdrivna.) På kärnvapenfronten, till exempel, har superdatorer visat sig vara en enorm fördel för saker som går boom. Sofistikerade simuleringar har eliminerat behovet av tester i verkligheten.
”De utvecklar inte något, går ut i öknen, borrar ett hål och ser om det fungerar”, säger Dongarra om en praxis som upphörde för flera decennier sedan. ”De simulerar konstruktionen på en superdator. De simulerar också vad som händer med dem om de ligger på en hylla i så många år, eftersom de måste verifiera att lagret kommer att fungera.”
I en stor uppgradering nyligen installerade Air Force Research Lab – ett av fem superdatorcentra inom det amerikanska försvarsdepartementet – fyra delbara superdatorer som hela den amerikanska militären kan använda för att bedriva sekretessbelagd forskning. Projektet marknadsfördes som ett sätt att hjälpa forskare från flygvapnet, armén och marinen att ”snabbt reagera på vår nations mest angelägna och komplexa utmaningar, vilket också påskyndar nya möjligheter för krigsmakten till lägre kostnader för skattebetalarna.”
Tolka det som du vill.
Superdatorer och artificiell intelligens
Artificiell intelligens är fortfarande ganska rudimentär, men superdatorer håller på att ändra på det genom att turboladda maskininlärningsprocesser för att producera snabbare resultat från mer data – som i den här klimatforskningen.
”Att ägna sig åt superdatorer är att tro på algoritmens förmåga att utvinna värdefull, meningsfull information från den upprepade tillämpningen av procedurlogik”, skriver Scott Fulton III i en insiktsfull artikel på ZDNet. ”Till grund för superdatorerna ligger två ideal: ett som säger att dagens maskin så småningom kommer att nå en ny och utomordentligt värdefull lösning, följt av en andra och mer subtil föreställning om att dagens maskin är en prototyp för morgondagens.”
Som Argonne-direktör Paul Kearns berättade för HPCWire är Aurora avsedd för ”nästa generations” AI som kommer att påskynda vetenskapliga upptäckter och möjliggöra förbättringar på områden som extrema väderprognoser, medicinska behandlingar, kartläggning av hjärnan och utveckling av nya material. Den kommer till och med att hjälpa oss att bättre förstå universum, tillade han, ”och det är bara början.”
Men även om Dongarra tror att superdatorer kommer att forma framtiden för artificiell intelligens är det inte helt förutsägbart exakt hur det kommer att ske.
”I viss mån kommer de datorer som utvecklas i dag att användas för tillämpningar som kräver artificiell intelligens, djupinlärning och beräkningar av neuronätverk”, säger Dongarra. ”Det kommer att bli ett verktyg som hjälper forskarna att förstå och lösa några av de mest utmanande problem vi har.”
”Kommer att bli” – framtida tid. AI-arbete är fortfarande bara en liten del av vad superdatorer gör. För det mesta, säger Jones, är de ”tidsmaskiner” som ”för in nästa vetenskap från fem år framåt till idag.”
”Nittio procent av traditionella HPC-installationer gör fortfarande traditionella HPC-arbetsbelastningar – tekniska simuleringar, strömningsdynamik, väder- och klimatmodellering”, förklarar han. ”AI finns där på fem eller tio procents nivå för att förstärka dessa och hjälpa till att få dem att fungera bättre, men det dominerar ännu inte kraven för att köpa HPC-plattformar eller ens för att styra HPC-finansieringsprogrammen.”
Hemsoth tror att det troligen kommer att dröja ytterligare fem år innan de befintliga HPC-arbetsflödena innehåller en hel del AI och djupinlärning, som båda kommer att ha andra krav på beräkningskapacitet än vad som är fallet i dag.
”Alla hoppar över det hela lite förhastat när det gäller AI”, säger hon. ”De köper system som är rätt för AI som det är nu. AI kommer att vara en praktisk del av arbetsbelastningen, men den kommer att förändras. Och den faktiska programvaran och applikationen som saker och ting måste köras på kommer att förändras, vilket kommer att förändra vilken hårdvara du behöver ha. Detta utvecklas snabbt, men med riktigt långa produktionscykler för hårdvara – särskilt om du är ett nationellt laboratorium och måste införskaffa detta tre till fem år innan du ens får maskinen.”
The Future of Supercomputing
”Att förbättra mänskligheten är ett ädelt mål att ha.”
En annan hjärnspark: din nuvarande smartphone är lika snabb som en superdator var 1994 – en som hade 1 000 processorer och gjorde kärnkraftssimuleringar. (Finns det en app för det?) Det är därför logiskt att den smartphone (eller vad den nu heter) som du har om ett kvarts sekel teoretiskt sett skulle kunna vara på samma nivå som Aurora. Poängen är att dessa saker är snabba – och de blir bara snabbare. Här är hur Dongarra sammanfattar det:
”Vi nådde teraflops 1997 på en maskin vid Sandia National Laboratories. Det var 1012 teraflops. År 2008 nådde vi sedan petaflops – 1015 – i Los Alamos. Nu är vi på väg att nå exaskala, med 1018 operationer, i början av 2020 eller 2021. Om förmodligen 10 eller 11 år kommer vi att nå zettascale – 1021 operationer per sekund. När jag började med databehandlingar gjorde vi megaflops – 106 operationer. Så saker och ting förändras. Det sker förändringar i arkitekturen, förändringar i programvaran och de tillämpningar som måste följa med. Att gå till nästa nivå är en naturlig utveckling.”
En ny artikel på TOP500.com med titeln ”Supercomputing is heading towards an existential crisis” ger en bild av vad som komma skall där simuleringar får stå tillbaka.
”Maskininlärning, i synnerhet, skulle kunna komma att dominera de flesta datadatabaserade områden, inklusive HPC (och till och med dataanalys) under det närmaste decenniet och ett halvt”, skriver författaren Michael Feldman. ”Medan det i dag mest används som ett extra steg i traditionell vetenskaplig databehandling – för både för- och efterbehandling av simuleringar – kan det i vissa fall, till exempel vid upptäckt av läkemedel, ersätta simuleringar helt och hållet.”
Vilken form superdatorer än tar, säger Papka från Argonne att de kommer att bli allt kraftfullare och mer omvälvande, och att de kommer att påverka allt från det vanliga till det djupgående – från utformningen av effektivare batterier för elbilar till, kanske, utrotningen av sjukdomar som länge har bekämpats, till exempel cancer. Det hoppas han i alla fall.
”Att förbättra mänskligheten”, säger Papka, ”är ett ädelt mål att ha.”
RelateratLäs fler historier om hårdvaruföretag