Ved at gå mellem rækkerne af supercomputerskabe i Argonne National Laboratory’s Leadership Computing Facility, der ligger ca. 25 miles fra Chicago, er det lidt som at vandre gennem en high-tech version af “The Shining’s” Overlook Maze – uden den øksesvingende galning.
De to primære supercomputere i denne stållabyrint, der hedder Mira og Theta, består af 101 kabinetter på størrelse med almindelige køleskabe, der indeholder stakkevis af stativer og vejer mellem 3.450 og 4.390 lbs. hver. Deres samlede vægt er 160 tons – en stor del af denne vægt skyldes vandkølingssystemer, der forhindrer overophedning. Sammen med flere andre mindre systemer har maskinerne til huse i et datacenter på 25.000 kvadratmeter med lavt til loftet og et hvidt klinkegulv. Med alt det udstyr, der snurrer rundt, er det ikke et stille sted. Nærmest computerne må besøgende tale-råbe for at blive hørt over en konstant høj brummen.
- Six Billion Times Faster: Aurora-supercomputerens nye hjem
- Hvad er en supercomputer? (Hint: Parallel Computing Is Key)
- Hvad bruges supercomputere til?Bare til at simulere virkeligheden, det er alt
- Hvad bruges supercomputere til?
- The Need for Speed
- COmputing SPeed + Power = Military Might
- Supercomputere og kunstig intelligens
- Fremtiden for supercomputere
Six Billion Times Faster: Aurora-supercomputerens nye hjem
Hvor vidtstrakt anlægget end er, er det ikke tilstrækkeligt til at rumme det bæst, der snart lander der. I 2021, hvis alt går efter planen, vil en fantastisk kraftfuld ny supercomputer, kaldet Aurora, tage bolig på stedet. Som forberedelse til dens ankomst er man derfor i gang med en større udvidelse. Aurora, der koster 500 millioner dollars, bliver den første af tre såkaldte “exascale”-supercomputere, der kan udføre en milliard milliarder (også kaldet quintillioner) beregninger i sekundet, og som det amerikanske energiministerium (DOE), der driver Argonne og 17 andre nationale laboratorier, investerer 1,8 milliarder dollars i. (En anden, kaldet Frontier, vil snart blive installeret på Oak Ridge National Laboratory i Tennessee).
Det er ikke overraskende for den slags penge, at Aurora vil være i stand til at udføre mindre beregningsmirakler. Målt som 1018 FLOPS (som står for floating point operations per second) vil systemet være seks milliarder gange hurtigere end sin for længst forhenværende forgænger, den banebrydende Cray-1 fra 1964. Mere konkret sagt af Design News: “En person, der adderer 1+1+1 i en håndregnemaskine én gang i sekundet, uden at have tid til at spise eller sove, skal bruge 31,7 billioner år til at gøre det, som Aurora vil gøre på ét sekund.”
Det er mellem fem og 10 gange hurtigere end den nuværende regerende mester i supercomputere, en IBM-Nvidia megamaskine kaldet Summit, der befinder sig i Oak Ridge. Det er helt utroligt.
Hvem vil Aurora afkræfte? Her er et kig på de 10 hurtigste supercomputere i verden ifølge TOP500’s hjernetrold.
“Der er begrænsninger for, hvad vi kan gøre i dag på en supercomputer,” sagde Mike Papka, direktør for Leadership Computing Facility, for nylig efter at have givet en rundvisning i rummet. “Med Aurora kan vi tage dem til det næste niveau. Lige nu kan vi lave simuleringer af universets udvikling. Men med Aurora vil vi kunne gøre det på en mere realistisk måde, med mere fysik og mere kemi tilføjet til dem. Vi er begyndt at gøre ting som f.eks. at forsøge at forstå, hvordan forskellige lægemidler interagerer med hinanden og f.eks. med en form for kræft. Det kan vi gøre i lille skala nu. Vi vil kunne gøre det i endnu større skala med Aurora.”
Som en af 52 supercomputere fra energiministeriet vil Aurora sandsynligvis være det eneste exascalesystem, der eksisterer, når det får sin debut. (Det vil sige, medmindre Kina bygger en først – hvilket nogle insidere siger er ret usandsynligt på trods af rapporter om, at landet kæmper for at lave en inden 2020). På en pressekonference i marts 2019, hvor Auroras installation blev annonceret, forklarede Rick Stevens, der er associeret laboratoriedirektør i Argonne, at systemet vil håndtere højtydende computerapplikationer samt analyse af streaming data, der genereres af acceleratorer, detektorer, teleskoper og andet forskningsudstyr.
På nuværende tidspunkt er Aurora dog stadig et igangværende arbejde, mens Summit får æren. Summit, der oprindeligt var planlagt til at gå i luften for flere år siden i en langt mindre kraftfuld inkarnation og blev lanceret i midten af 2018, kostede 200 millioner dollars, kan udføre komplekse matematiske beregninger med en hastighed på 200 quadrillioner (eller 200 billioner) pr. sekund og er ansvarlig for at snuppe USA’s førsteplads på TOP500-listen tilbage fra Kina. Fysisk imponerende består den af mere end 300 enheder – af samme størrelse som Mira og Theta – der i alt vejer 340 tons, fylder 9.250 kvadratmeter og er drevet af 9.216 centrale processorchips. Indeni er der kilometervis af fiberoptiske kabler, og køling af denne kolos kræver 4.000 galloner vand i minuttet. Den bruger også voldsomt meget energi – nok til at forsyne tusindvis af hjem med strøm.
Da “faderen til supercomputere” Seymour Cray begyndte at bygge sine revolutionerende maskiner i 1960’erne, var det ubegribeligt, at der var tale om en så stor opvisning af regnemæssige muskler. Mere end et halvt århundrede senere er det langsomt ved at blive normen – og vil en dag virke lige så gammeldags som en Atari 2600 gør det nu.
Hvad er en supercomputer? (Hint: Parallel Computing Is Key)
Supercomputere har i årevis anvendt en teknik, der kaldes “massivt parallel behandling”, hvorved problemer opdeles i dele og bearbejdes samtidig af tusindvis af processorer i modsætning til den “serielle” metode, der anvendes én ad gangen på f.eks. din almindelige gamle MacBook Air. Her er en anden god analogi, denne gang fra Explainthatstuff.com:
Det er som at komme til en kasse med en vogn fuld af varer, men derefter dele dine varer op mellem flere forskellige venner. Hver ven kan gå igennem en separat kasse med et par af varerne og betale separat. Når I alle har betalt, kan I samles igen, fylde indkøbskurven op og gå igen. Jo flere varer der er, og jo flere venner du har, jo hurtigere bliver det at gøre tingene ved hjælp af parallelbehandling – i hvert fald i teorien.
“Man er nødt til at bruge parallel beregning for virkelig at udnytte supercomputerens kraft”, siger Caitlin Joann Ross, der er ph.d.-studerende ved Rensselaer Polytechnic Institute, og som for nylig har været seks måneder på ophold på Argonne. “Du er nødt til at forstå, hvordan data skal udveksles mellem processerne for at gøre det på en effektiv måde, så der er mange forskellige små udfordringer, som gør det meget sjovt at arbejde med. Selv om der er dage, hvor det bestemt kan være frustrerende.”
“Debugging”-problemer, siger hun, er den vigtigste årsag til denne frustration. Beregninger, der f.eks. kan køre gnidningsløst med fire processorer, kan bryde sammen, hvis der tilføjes en femte.
“Hvis alt kører perfekt”, siger Ross, “så kører det, du kører, meget hurtigere, end det ville gøre på en computer med færre processorer eller en enkelt processor. Der er visse beregninger, som det kan tage uger eller måneder at køre på din bærbare computer, men hvis du kan parallelisere den effektivt til at køre på en supercomputer, kan det tage en dag.”
Et andet område af Ross’ arbejde omfatter simulering af selve supercomputerne – mere specifikt de netværk, der bruges på supercomputerne. Data fra applikationer, der kører på rigtige supercomputere, føres ind i en simulator, som gør det muligt at teste forskellige funktioner uden at tage hele systemet offline. Noget, der kaldes “kommunikationsinterferens”, er en af disse funktioner.
“I det virkelige liv vil forskellige brugere sende opgaver til supercomputeren, som vil foretage en eller anden form for planlægning for at bestemme, hvornår disse opgaver skal køres”, siger Ross. “Der vil typisk være flere forskellige job, der kører på supercomputeren på samme tid. De bruger forskellige beregningsnoder, men de deler netværksressourcerne. Så kommunikationen fra en andens job kan bremse dit job på grund af den måde, hvorpå data ledes gennem netværket. Med vores simuleringer kan vi undersøge denne type situationer og afprøve ting som f.eks. andre routingprotokoller, der kan være med til at forbedre netværkets ydeevne.
Hvad bruges supercomputere til?Bare til at simulere virkeligheden, det er alt
I de seneste årtier og frem til i dag har supercomputeres vigtigste bidrag til videnskaben været deres stadigt forbedrede evne til at simulere virkeligheden for at hjælpe mennesker med at lave bedre præstationsforudsigelser og designe bedre produkter inden for områder fra fremstilling og olie til lægemidler og militær. Jack Dongarra, en af verdens førende eksperter i supercomputere, sammenligner denne evne med at have en krystalkugle.
“Lad os sige, at jeg ønsker at forstå, hvad der sker, når to galakser støder sammen”, siger Dongarra. “Jeg kan ikke rigtig lave det eksperiment. Jeg kan ikke tage to galakser og lade dem kollidere. Så jeg er nødt til at bygge en model og køre den på en computer. Eller i gamle dage, når man designede en bil, tog man bilen og kørte den ind i en mur for at se, hvor godt den kunne modstå stødet. Det er ret dyrt og tidskrævende. I dag gør vi det ikke så ofte; vi bygger en computermodel med al fysikken og kører den ind i en simuleret væg for at forstå, hvor de svage punkter er.”
Hvad bruges supercomputere til?
Sær virksomheder ser især den monetære værdi (ROI, som virksomhedstyperne siger) i supercomputer-simuleringer, uanset om de fremstiller biler, borer efter olie eller opdager nye lægemidler. I 2018 bidrog virksomheders og regeringers indkøb til et stadig mere robust marked for højtydende databehandling.
“Af de fem hundrede bedste computere er mere end halvdelen i industrien”, siger Dongarra, som tilbragte en tidlig del af sin karriere på Argonne. “Industrien forstår det. De investerer i højtydende computere for at blive mere konkurrencedygtige og for at få en fordel i forhold til deres konkurrenter. Og de føler, at pengene er givet godt ud. De investerer i disse ting for at fremme deres produkter og innovation, deres bundlinje, deres produktivitet og deres rentabilitet.”
Men det er større end blot ROI.
“Traditionelle kommercielle virksomheder kan se beregninger af investeringsafkastet i form af: “Det sparede os for dette beløb i fysiske testomkostninger” eller “Vi var i stand til at komme hurtigere på markedet og derfor opnå ekstra indtægter”, siger Andrew Jones, en britisk konsulent inden for high performance computing. “Men en grundlæggende ROI-beregning for HPC er ikke nødvendigvis det, hvor værdien kommer fra. Hvis du spørger et olieselskab, så handler det ikke om at være i stand til at finde olie 30 procent billigere. Det handler om at kunne finde olie eller ej.”
Selskaber, der bruger supercomputere til at foretage forbedringer i det store perspektiv og øge effektiviteten, har en fordel i forhold til deres konkurrenter.
“Og det samme gælder for en stor del af videnskaben”, tilføjer Jones. “Man leder ikke nødvendigvis efter et investeringsafkast i en specifik forstand, man leder efter generel kapacitet – om vores forskere er i stand til at lave videnskab, der er internationalt konkurrencedygtig eller ej.”
The Need for Speed
‘”Der findes ikke to større krænkere af “se, hvor stort mit system er” end U.USA og Kina.”‘
Da hurtigere computere giver forskerne mulighed for hurtigere at få større indsigt i det, de arbejder med, er der et stadigt stigende behov – eller i hvert fald et stærkt ønske – for hastighed. Dongarra kalder det “en uendelig søgen”, og Auroras (stadig uprøvede) vedvarende exascale-kapacitet ville være højdepunktet af denne søgen indtil videre. Alligevel vil det være en af mange. Der er adskillige andre supercomputere med nogle gange episk klingende navne (Titan, Excalibur) i drift i 26 andre lande rundt om i verden. De fremstilles af 36 forskellige leverandører, drives af 20 generationer af processorer og tjener en række forskellige industrier samt offentlige funktioner, der spænder fra videnskabelig forskning til nationalt forsvar.
Disse statistikker er fra webstedet TOP500.org. Det er medstiftet af Dongarra og har siden 1993 holdt øje med alle supercomputere og bruger hans LINPACK Benchmark (som anslår, hvor hurtigt en computer sandsynligvis vil kunne køre et program eller mange programmer) til at måle præstationerne. Ifølge den seneste oversigt over verdens største og ondeste computere har USA fem (og snart seks) af de ti bedste computere – herunder verdens hurtigste supercomputer i Oak Ridge Summit og den næsthurtigste, Sierra, på Lawrence Livermore National Laboratory i Californien. Nummer to, Kina, har kun to (men snart tre). Landet har ganske vist 227 af de 500 største pladser og har fremstillet 303 af maskinerne på listen, men USA kan stadig vise sin store skumfinger frem. Indtil videre. Konkurrencen er i gang og viser ingen tegn på at aftage.
“Der er ikke to større lovovertrædere af “se, hvor stort mit system er” end USA og Kina”, siger Nicole Hemsoth, medstifter og medredaktør af The Next Platform.
Mens Kina historisk set har været mindre optaget af Top 500, forklarer hun, har de i de sidste mange år gjort high performance computing til “et punkt af national stolthed”, idet de lægger mere vægt på “chart-topping performance” og bruger milliarder på at opnå det. Andre exascale-konkurrenter er bl.a. Frankrig og Japan. Ifølge en undersøgelse vil 10 milliarder dollars af de 130 milliarder dollars, der forventes at blive brugt på supercomputere mellem 2018 og 2021, gå til exascalesystemer som det system, der er planlagt til Argonne.
“Kapløbet mellem landene er dels reelt og dels kunstigt”, siger Jones. “Så hvis du for eksempel er direktør for et nationalt laboratorium i USA, og du forsøger at sikre finansiering til din næste HPC-maskine, er det et meget godt argument at sige, at “Kina har en, der er ti gange større, så vi er nødt til at indhente det”. Den Europæiske Union og Kina spiller det samme spil mod USA, så der er en lille smule skabt spænding, som ikke nødvendigvis er reel, men som er med til at drive .”
Medierne spiller også en vigtig rolle. Journalister elsker at fremlægge hjerneblændende supercomputerstatistikker og forklare dem på en stemningsfuld måde. Der er et eksempel på det i starten af denne historie. Her er et andet, fra New York Times: “Hvis et stadion bygget til 100.000 mennesker var fyldt, og alle på stadionet havde en moderne bærbar computer, ville det kræve 20 stadioner at matche Summit’s computerkraft.” Er du ikke underholdt?
Regeringstjenestemænd nyder også en smule supercomputer-sværmeri og taler om deres gigantiske regnekraft som nøglen til samfundsforbedringer – og naturligvis som bevis på deres lands totale fantastiskhed. John F. Kennedy, der satte gang i rumkapløbet i 1961, ville have været helt vild med dette.
“Det er grundlæggende økonomisk konkurrenceevne”, siger Jones. “Hvis man falder så langt fra, at ens nation ikke længere er økonomisk konkurrencedygtig i forhold til andre nationer af tilsvarende størrelse, så fører det til en hel masse andre politiske og sikkerhedsmæssige spørgsmål, som man skal tage sig af.”
COmputing SPeed + Power = Military Might
Over for de sikkerhedsmæssige og økonomiske aspekter, tilføjer han, ser de, der forstår konsekvenserne af højtydende databehandling, de enorme fordele for videnskab, erhvervsliv og andre sektorer. “Så det er en selvfølge, at vi gør det her.” (Nogle rapporter siger ganske vist, at disse fordele er overdrevne.) På atomvåbenfronten har supercomputere f.eks. vist sig at være en stor fordel for ting, der går bum. Sofistikerede simuleringer har gjort det unødvendigt at afprøve dem i den virkelige verden.
“Man udvikler ikke noget, tager ud i ørkenen, borer et hul og ser, om det virker”, siger Dongarra om en praksis, der ophørte for årtier siden. “De simulerer designet på en supercomputer. De simulerer også, hvad der sker med dem, hvis de ligger på hylden i så mange år, fordi de er nødt til at verificere, at lageret vil fungere.”
I en større opgradering for nylig installerede Air Force Research Lab – et af fem supercomputercentre i det amerikanske forsvarsministerium – fire delbare supercomputere, som hele det amerikanske militær kan udføre klassificeret forskning på. Projektet blev promoveret som en måde at hjælpe forskerne i Air Force, hæren og flåden med “hurtigt at reagere på vores nations mest presserende og komplekse udfordringer, hvilket også fremskynder nye kapaciteter til krigsdeltagerne til lavere omkostninger for skatteyderne.”
Interpret det, som du vil.
Supercomputere og kunstig intelligens
Kunstig intelligens er stadig ret rudimentær, men supercomputere ændrer det ved at sætte turbo på maskinlæringsprocesser for at producere hurtigere resultater ud fra flere data – som i denne klimavidenskabelige forskning.
“At være involveret i supercomputere er at tro på algoritmens evne til at destillere værdifulde, meningsfulde oplysninger fra den gentagne gennemførelse af proceduremæssig logik”, skriver Scott Fulton III i en indsigtsfuld historie på ZDNet. “Grundlaget for supercomputere er to idealer: et, der hævder, at dagens maskine i sidste ende vil nå frem til en ny og ekstraordinært værdifuld løsning, efterfulgt af en anden og mere subtil forestilling om, at dagens maskine er en prototype for morgendagens.”
Som Argonne-direktør Paul Kearns fortalte HPCWire, er Aurora beregnet til “næste generations” AI, der vil fremskynde videnskabelige opdagelser og muliggøre forbedringer på områder som ekstreme vejrprognoser, medicinske behandlinger, kortlægning af hjernen og udvikling af nye materialer. Den vil endda hjælpe os med at forstå universet bedre, tilføjede han, “og det er kun begyndelsen.”
Mens Dongarra mener, at supercomputere vil forme fremtiden for kunstig intelligens, er det ikke helt til at forudse præcis, hvordan det vil ske.
“I et vist omfang vil de computere, der udvikles i dag, blive brugt til applikationer, der har brug for kunstig intelligens, dyb indlæring og beregninger af neuronetværk,” siger Dongarra. “Det vil være et værktøj, der hjælper forskere med at forstå og løse nogle af de mest udfordrende problemer, vi har.”
“Kommer til at være” – fremtidsform. AI-arbejde er stadig kun en lille procentdel af det, som supercomputere gør. For det meste, siger Jones, er de “tidsmaskiner”, der “bringer den næste videnskab fra fem år frem til i dag.”
“90 procent af de traditionelle HPC-installationer udfører stadig traditionelle HPC-arbejdsbyrder – tekniske simuleringer, væskedynamik, vejr- og klimamodellering”, forklarer han. “Og AI er der på fem eller 10 procents niveau og supplerer dem og hjælper med at få dem til at fungere bedre, men det dominerer endnu ikke kravene til køb af HPC-platforme eller endog til at styre HPC-finansieringsprogrammer.”
Hemsoth mener, at der sandsynligvis vil gå yderligere fem år, før de eksisterende HPC-arbejdsgange omfatter en masse AI og deep learning, som begge vil have andre krav til beregning, end de gør i dag.
“Alle forhaster sig lidt, når det kommer til AI,” siger hun. “De køber systemer, der er rigtige til AI, som det er nu. AI vil være en praktisk del af arbejdsbelastningerne, men det vil ændre sig. Og den faktiske software og applikation, som tingene skal køre på, vil ændre sig, hvilket vil ændre den hardware, som du skal have. Disse ting udvikler sig hurtigt, men med virkelig lange hardwareproduktionscyklusser – især hvis man er et nationalt laboratorium og skal anskaffe disse ting tre til fem år, før man overhovedet får maskinen.”
Fremtiden for supercomputere
“At forbedre menneskeheden er et ædelt mål at have.”
En anden hjerneblæser: Din nuværende smartphone er lige så hurtig som en supercomputer var i 1994 – en der havde 1.000 processorer og lavede simuleringer af atomkraft. (Findes der en app til det?) Det er derfor nærliggende at tro, at den smartphone (eller hvad den nu hedder), du har om et kvart århundrede, teoretisk set kan være på niveau med Aurora. Pointen er, at disse ting er hurtige – og de bliver kun hurtigere. Her er, hvordan Dongarra beskriver det i en nøddeskal:
“Vi nåede teraflops i 1997 på en maskine på Sandia National Laboratories. Det var 1012 teraflops. I 2008 nåede vi så petaflops – 1015 – på Los Alamos. Nu er vi på nippet til at nå exascale, med 1018 operationer, omkring starten af 2020 eller 2021. Om 10 eller 11 år vil vi sandsynligvis nå zettascale – 1021 operationer pr. sekund. Da jeg startede som datamatiker, arbejdede vi med megaflops – 106 operationer. Så tingene ændrer sig. Der er ændringer i arkitekturen, ændringer i softwaren og de applikationer, der skal følge med. At gå til det næste niveau er en naturlig udvikling.”
En nyere historie på TOP500.com med titlen “Supercomputing is heading towards an existential crisis” tegner et billede af de kommende ting, hvor simuleringer træder i baggrunden.
“Machine learning, in particular, could come to dominate most computing domains, including HPC (and even data analytics) over the next decade-and-a-half,” skriver forfatteren Michael Feldman. “Mens det i dag mest bruges som et hjælpetrin i traditionel videnskabelig databehandling – både til for- og efterbehandling af simuleringer – kan det i nogle tilfælde, f.eks. ved opdagelse af lægemidler, muligvis erstatte simuleringer helt og holdent.”
Uanset hvilken form supercomputere antager, siger Papka fra Argonne, at de vil blive stadig mere kraftfulde og transformative og påvirke alt fra fodgængeren til det dybereliggende – fra design af mere effektive batterier til elbiler til, måske, udryddelse af sygdomme som kræft, der længe har været bekæmpet. Det håber han i hvert fald.
“Forbedring af menneskeheden”, siger Papka, “er et ædelt mål at have.”
RelateretLæs flere historier om hardwarevirksomheder