Kävellessäsi supertietokoneiden kaappirivien välissä Argonnen kansallisen laboratorion Leadership Computing Facility -laskentalaitoksessa, joka sijaitsee noin 80 kilometrin päässä Chicagosta, on kuin vaeltaisit ”Hohdon” Overlook Labyrintin huipputeknisessä versiossa – ilman kirvestä heiluttavaa hullua.
Tämän teräslabyrintin kaksi ensisijaista supertietokonetta, jotka on nimetty Miraksi ja Thetaksi, koostuvat 101 tavallisen jääkaapin kokoisesta kaapista, jotka sisältävät pinoja telineitä ja painavat kumpikin 3 450-4 390 kiloa. Niiden yhteenlaskettu paino on 160 tonnia, josta suuri osa johtuu ylikuumenemisen estävistä vesijäähdytysjärjestelmistä. Koneet ja useat muut pienemmät järjestelmät on sijoitettu 25 000 neliömetrin konesaliin, jossa on matalat katot ja valkoinen laattalattia. Kun kaikki nämä laitteet surisevat, paikka ei ole hiljainen. Lähimpänä tietokoneita vierailijoiden on puhuttava-huudettava, jotta heidät kuultaisiin jatkuvan kovan huminan yläpuolella.
- Six Billion Times Faster: Aurora-supertietokoneen uusi koti
- Mikä on supertietokone?(Vinkki: Rinnakkaislaskenta on avainasemassa)
- Mihin supertietokoneita käytetään?Vain todellisuuden simulointiin, siinä kaikki
- Mihin supertietokoneita käytetään?
- Nopeuden tarve
- COmputing SPeed + Power = Military Might
- Supertietokoneet ja tekoäly
- Supertietokoneiden tulevaisuus
Six Billion Times Faster: Aurora-supertietokoneen uusi koti
Vaikka laitos onkin laaja, se ei riitä majoittamaan sinne pian laskeutuvaa petoa. Jos kaikki sujuu suunnitelmien mukaan, joskus vuonna 2021 sinne asettuu fantastisen tehokas uusi supertietokone nimeltä Aurora. Sen saapumiseen valmistauduttaessa on käynnissä suuri laajennus. Aurora, jonka hinta on 500 miljoonaa dollaria, on ensimmäinen kolmesta niin sanotusta exascale-supertietokoneesta, jotka kykenevät suorittamaan miljardi miljardia miljardia (eli kvintiljoonaa) laskutoimitusta sekunnissa ja joihin Argonnea ja 17 muuta kansallista laboratoriota ylläpitävä Yhdysvaltain energiaministeriö (Department of Energy, DOE) investoi 1,8 miljardia dollaria. (Toinen, nimeltään Frontier, asennetaan pian Oak Ridge National Laboratoryyn Tennesseessä.)
Ei ole yllättävää, että tuollaiseen rahamäärään nähden Aurora pystyy tekemään pieniä laskennallisia ihmeitä. Mitattuna 1018 FLOPS:lla (joka tarkoittaa liukulukuoperaatioita sekunnissa) järjestelmä tulee olemaan kuusi miljardia kertaa nopeampi kuin sen pitkäaikainen edeltäjä, uraauurtava Cray-1 vuodelta 1964. Konkreettisemmin ilmaistuna Design Newsin avulla: ”Henkilö, joka laskee käsilaskimella 1+1+1 kerran sekunnissa ilman, että hänellä olisi aikaa syödä tai nukkua, tarvitsisi 31,7 triljoonaa vuotta tehdäkseen sen, minkä Aurora tekee yhdessä sekunnissa.”
Se on 5-10 kertaa nopeampi kuin nykyinen supertietokoneiden hallitseva mestari, IBM:n ja Nvidian Summit-niminen megakone, joka sijaitsee Oak Ridgessä. Mind, blown.
Kenen Aurora syrjäyttää? Tässä on katsaus maailman 10 nopeimpaan supertietokoneeseen TOP500:n aivoriihen mukaan.
”On olemassa rajoituksia sille, mitä voimme tehdä nykyään supertietokoneella”, sanoi Mike Papka, Leadership Computing Facilityn johtaja, hiljattain kierrettyään tiloissa. ”Auroran avulla voimme viedä ne seuraavalle tasolle. Tällä hetkellä voimme tehdä simulaatioita maailmankaikkeuden kehityksestä. Mutta Auroran avulla voimme tehdä niitä realistisemmin, ja niihin voidaan lisätä enemmän fysiikkaa ja kemiaa”. Alamme esimerkiksi yrittää ymmärtää, miten eri lääkkeet ovat vuorovaikutuksessa keskenään ja esimerkiksi jonkinlaisen syövän kanssa. Voimme tehdä sitä nyt pienessä mittakaavassa. Auroran avulla pystymme tekemään sen vielä suuremmassa mittakaavassa.”
Aurora on yksi energiaministeriön 52 supertietokoneesta, ja se on luultavasti ainoa olemassa oleva exascale-järjestelmä, kun se aloittaa toimintansa. (Ellei Kiina rakenna sellaista ensin – mikä on joidenkin sisäpiiriläisten mukaan melko epätodennäköistä huolimatta raporteista, joiden mukaan maa pyrkii tekemään sellaisen vuoteen 2020 mennessä). Maaliskuussa 2019 pidetyssä lehdistötilaisuudessa, jossa ilmoitettiin Auroran asentamisesta, Argonnen apulaislaboratorion johtaja Rick Stevens selitti, että järjestelmä käsittelee suurteholaskentasovelluksia sekä kiihdyttimien, ilmaisimien, teleskooppien ja muiden tutkimuslaitteiden tuottaman virtaavan datan analysointia.
Tässä vaiheessa Aurora on kuitenkin vielä keskeneräinen, kun taas Summit saa kunnian. Summit, jonka oli alun perin määrä käynnistyä useita vuosia sitten paljon tehottomampana ja joka käynnistettiin vuoden 2018 puolivälissä, maksoi 200 miljoonaa dollaria, pystyy suorittamaan monimutkaisia matemaattisia laskutoimituksia 200 kvadriljoonan (eli 200 triljoonan) kappaleen sekuntinopeudella ja on vastuussa siitä, että Amerikka on napannut TOP500-listan ykköspaikan takaisin Kiinalta. Fyysisesti vaikuttava keskusyksikkö koostuu yli 300 yksiköstä – jotka ovat kooltaan samanlaisia kuin Miran ja Thetan yksiköt -, jotka painavat yhteensä 340 tonnia, ovat neliömetrin kokoisia ja käyttävät 9 216 keskusyksikkösirua. Sisällä on kilometreittäin valokuitukaapeleita, ja tämän jättiläisen jäähdyttäminen vaatii 4 000 gallonaa vettä minuutissa. Lisäksi se kuluttaa energiaa ahnaasti – sen verran, että se riittäisi tuhansien kotien virransyöttöön.
Kun ”supertietokoneiden isä” Seymour Cray aloitti vallankumouksellisten koneidensa rakentamisen 1960-luvulla, tällainen laskennallisen lihaksen aaltoileva esitys oli käsittämätön. Yli puoli vuosisataa myöhemmin siitä on hitaasti tulossa normi – ja jonain päivänä se tuntuu yhtä omituiselta kuin Atari 2600 nyt.
Mikä on supertietokone?(Vinkki: Rinnakkaislaskenta on avainasemassa)
Supertietokoneissa on jo vuosia käytetty tekniikkaa nimeltä ”massiivisesti rinnakkainen prosessointi”, jossa ongelmat jaetaan osiin ja niitä työstetään samanaikaisesti tuhansilla prosessoreilla, toisin kuin esimerkiksi tavallisessa vanhassa MacBook Air -tietokoneessasi. Tässä on toinen hyvä vertaus, tämä on Explainthatstuff.com-sivustolta:
Se on kuin saapuisi kassalle ostoskori täynnä tavaroita, mutta jakaisi sitten tavarasi useiden eri ystävien kesken. Jokainen ystävä voi mennä erillisen kassan läpi muutaman tuotteen kanssa ja maksaa erikseen. Kun olette kaikki maksaneet, voitte kokoontua jälleen yhteen, lastata ostoskärryn ja lähteä. Mitä enemmän kohteita on ja mitä enemmän ystäviä, sitä nopeammin asiat hoituvat rinnakkaiskäsittelyllä – ainakin teoriassa.
”Rinnakkaislaskentaa on käytettävä, jotta supertietokoneen tehoa voidaan todella hyödyntää”, sanoo Rensselaer Polytechnic Instituten tohtorikoulutettava Caitlin Joann Ross, joka teki hiljattain kuuden kuukauden residenssin Argonnessa. ”On ymmärrettävä, miten dataa on vaihdettava prosessien välillä, jotta se voidaan tehdä tehokkaasti, joten on paljon erilaisia pieniä haasteita, jotka tekevät työskentelystä hauskaa”. On tosin päiviä, jolloin se voi olla turhauttavaa.”
”Virheenkorjausongelmat” ovat hänen mukaansa suurin syy turhautumiseen. Laskutoimitukset, jotka saattaisivat sujua ongelmitta esimerkiksi neljällä prosessorilla, saattavat hajota, jos niihin lisätään viides prosessori.
”Jos kaikki toimii moitteettomasti”, Ross sanoo, ”se, mitä suoritat, toimii paljon nopeammin kuin tietokoneella, jossa on vähemmän prosessoreita tai vain yksi prosessori”. On laskutoimituksia, joiden suorittaminen kannettavalla tietokoneella saattaa kestää viikkoja tai kuukausia, mutta jos sen voi rinnakkaistaa tehokkaasti supertietokoneella suoritettavaksi, se saattaa kestää päivän.”
Muutama Rossin työn osa-alue liittyy itse supertietokoneiden simulointiin – tarkemmin sanottuna supertietokoneissa käytettävien verkkojen simulointiin. Todellisilla supertietokoneilla toimivien sovellusten tiedot syötetään simulaattoriin, jonka avulla voidaan testata eri toimintoja ottamatta koko järjestelmää pois käytöstä. Eräs näistä toiminnoista on niin sanottu ”kommunikaatiohäiriö”.
”Oikeassa elämässä eri käyttäjät lähettävät töitä supertietokoneelle, joka tekee jonkinlaisen aikataulutuksen määrittääkseen, milloin nämä työt suoritetaan”, Ross sanoo. ”Supertietokoneella on tyypillisesti useita eri töitä käynnissä samaan aikaan. Ne käyttävät eri laskentasolmuja, mutta jakavat verkkoresursseja. Niinpä jonkun toisen työn viestintä voi hidastaa sinun työtäsi, koska tiedot kulkevat verkon kautta. Simulaatioiden avulla voimme tutkia tällaisia tilanteita ja testata esimerkiksi muita reititysprotokollia, jotka voisivat parantaa verkon suorituskykyä.
Mihin supertietokoneita käytetään?Vain todellisuuden simulointiin, siinä kaikki
Viime vuosikymmenien ajan ja nykypäivään saakka supertietokoneiden tärkein panos tieteelle on ollut niiden jatkuvasti parantuva kyky simuloida todellisuutta, jotta ihmiset voivat tehdä parempia suorituskykyennusteita ja suunnitella parempia tuotteita aloilla teollisuudesta ja öljystä lääketeollisuuteen ja armeijaan. Jack Dongarra, yksi maailman johtavista supertietokoneasiantuntijoista, vertaa tätä kykyä kristallipalloon.
”Sanotaan, että haluan ymmärtää, mitä tapahtuu, kun kaksi galaksia törmää”, Dongarra sanoo. ”En voi oikeastaan tehdä sitä koetta. En voi ottaa kahta galaksia ja törmäyttää niitä. Minun on siis rakennettava malli ja ajettava se tietokoneella. Tai ennen vanhaan, kun suunniteltiin autoa, auto otettiin ja törmäytettiin seinään ja katsottiin, miten hyvin se kesti törmäyksen. Se on aika kallista ja aikaa vievää. Nykyään emme tee sitä kovinkaan usein; rakennamme tietokonemallin, jossa on kaikki fysiikka ja törmäämme sillä simuloituun seinään ymmärtääkseen, missä heikot kohdat ovat.”
Mihin supertietokoneita käytetään?
Erityisesti yritykset näkevät rahallista arvoa (ROI, kuten yritystyypit sanovat) supertietokoneiden simuloinneissa, olipa kyse sitten autojen valmistuksesta, öljynporauksesta tai uusien lääkkeiden löytämisestä. Vuonna 2018 yritysten ja hallitusten hankinnat vaikuttivat osaltaan yhä vahvempiin suurteholaskentamarkkinoihin.
”Viidestasadasta suurimmasta tietokoneesta yli puolet on teollisuudessa”, Argonnessa uransa alkuvaiheen viettänyt Dongarra sanoo. ”Teollisuus ymmärtää sen. Ne investoivat suuritehoisiin tietokoneisiin ollakseen kilpailukykyisempiä ja saadakseen etulyöntiaseman kilpailijoihinsa nähden. He kokevat, että raha on käytetty hyvin. Ne investoivat näihin laitteisiin edistääkseen tuotteitaan ja innovaatioitaan, tulostaan, tuottavuuttaan ja kannattavuuttaan.”
Mutta kyse on suuremmasta asiasta kuin pelkkä ROI.
”Perinteiset kaupalliset yritykset voivat nähdä sijoitetun pääoman tuottolaskelmia seuraavasti: ’Säästimme näin paljon fyysisen testauksen kustannuksia’ tai ’Pääsimme markkinoille nopeammin ja saimme siten lisätuloja'”, sanoo Andrew Jones, Yhdistyneessä kuningaskunnassa toimiva suursuorituskykyisen tietojenkäsittelyn konsultti. ”HPC:n ROI-laskelma ei kuitenkaan välttämättä ole se, mistä arvo syntyy. Jos kysytään öljy-yhtiöltä, se ei johdu siitä, että öljyä löytyy 30 prosenttia halvemmalla. Kyse on siitä, pystytäänkö öljyä löytämään vai ei.”
Yritykset, jotka käyttävät supertietokoneita kokonaisvaltaisten parannusten tekemiseen ja tehokkuuden lisäämiseen, ovat etulyöntiasemassa kilpailijoihinsa nähden.
”Ja sama pätee moneen tieteeseen”, Jones lisää. ”Sijoitukselle ei välttämättä haeta tuottoa tietyssä mielessä, vaan yleistä kyvykkyyttä – pystyvätkö tutkijamme tekemään tiedettä, joka on kansainvälisesti kilpailukykyistä vai ei.”
Nopeuden tarve
’”Ei ole kahta suurempaa ’katsokaa, kuinka suuri järjestelmäni on’ -hyökkääjää kuin U.USA ja Kiina.”’
Koska nopeammat tietokoneet mahdollistavat sen, että tutkijat saavat nopeammin enemmän tietoa siitä, minkä parissa he työskentelevät, nopeuden tarve – tai ainakin voimakas halu – kasvaa jatkuvasti. Dongarra kutsuu sitä ”loputtomaksi etsinnäksi”, ja Auroran (vielä todistamattomat) jatkuvat exascale-ominaisuudet olisivat tämän etsinnän huippu toistaiseksi. Se on kuitenkin vain yksi monista. Kymmeniä muita supertietokoneita, joilla on joskus eeppiseltä kuulostavia nimiä (Titan, Excalibur), toimii 26 muussa maassa eri puolilla maailmaa. Niitä valmistaa 36 eri toimittajaa, ja niitä ohjaa 20 prosessorisukupolvea, ja ne palvelevat erilaisia teollisuudenaloja sekä valtion toimintoja tieteellisestä tutkimuksesta maanpuolustukseen.
Nämä tilastot ovat TOP500.org-sivustolta. Dongarran perustama sivusto on pitänyt silmällä kaikkia supertietokoneita vuodesta 1993 lähtien, ja se käyttää hänen LINPACK-vertailumittariaan (joka arvioi, kuinka nopeasti tietokone todennäköisesti ajaa yhtä tai useampaa ohjelmaa) suorituskyvyn mittaamiseen. Sen viimeisimmän, maailman suurimpia ja pahimpia supertietokoneita koskevan luettelon mukaan Amerikassa on viisi (pian kuusi) huipputietokonetta 10:stä – mukaan lukien planeetan nopein supertietokone Oak Ridgen Summitissa ja toiseksi nopein Sierra Kaliforniassa sijaitsevassa Lawrence Livermoren kansallisessa laboratoriossa (Lawrence Livermore National Laboratory). Toiseksi sijoittuneella Kiinalla on vain kaksi (mutta pian kolme). Toki maa pitää hallussaan 227 paikkaa 500:sta parhaasta ja on valmistanut 303 listan koneista, mutta Yhdysvallat voi silti heiluttaa jättimäistä vaahtosormeaan. Toistaiseksi. Kilpailu on käynnissä, eikä se näytä laantumisen merkkejä.
”Ei ole kahta suurempaa ’katsokaa, miten suuri järjestelmäni on’ -rikkojia kuin Yhdysvallat ja Kiina”, sanoo Nicole Hemsoth, The Next Platform -lehden toinen perustaja ja päätoimittaja.
Kiinassa ei ole historiallisesti oltu niinkään kiinnostuneita Top 500 -listasta, hän selittää, mutta viime vuosina Kiina on tehnyt suursuorituskykyisestä tietojenkäsittelystä ”kansallisen ylpeyden aiheen”, ja se on painottanut entistä enemmän ”huippusuorituskykyä” ja käyttänyt miljardeja sen saavuttamiseen. Muita exascale-kilpailijoita ovat Ranska ja Japani. Erään tutkimuksen mukaan vuosina 2018-2021 supertietokoneisiin käytetyistä 130 miljardista dollarista 10 miljardia dollaria käytetään Argonneen suunnitellun kaltaisiin exascale-järjestelmiin.
”Maiden välinen kilpailu on osittain todellista ja osittain keinotekoista”, Jones sanoo. ”Jos esimerkiksi olet Yhdysvaltain kansallisen laboratorion johtaja ja yrität saada rahoitusta seuraavalle HPC-koneellesi, on erittäin hyvä argumentti sanoa, että ’Kiinalla on kymmenen kertaa isompi kone, joten meidän on kurottava kiinni’. Euroopan unioni ja Kiina pelaavat samaa peliä Yhdysvaltoja vastaan, joten siellä on hieman luotu jännitteitä, jotka eivät välttämättä ole todellisia, mutta ne auttavat ajamaan .”
Myös tiedotusvälineillä on merkittävä rooli. Toimittajat rakastavat esitellä aivoja häkellyttäviä supertietokonetilastoja ja selittää niitä puhuttelevasti. Tästä on esimerkki tämän jutun alussa. Tässä on toinen esimerkki New York Timesista: ”Jos 100 000 hengelle rakennettu stadion olisi täynnä ja jokaisella stadionilla olisi nykyaikainen kannettava tietokone, tarvittaisiin 20 stadionia, jotta Summitin laskentateho olisi yhtä suuri.”
Hallituksen virkamiehet nauttivat myös supertietokoneiden kerskakulutuksesta ja puhuvat valtavasta laskentatehostaan avaimena yhteiskunnallisiin parannuksiin – ja tietysti todisteena maansa täydellisestä mahtavuudesta. John F. Kennedy, joka käynnisti avaruuskilpailun vuonna 1961, olisi ollut tästä innoissaan.
”Kyse on taloudellisesta kilpailukyvystä”, Jones sanoo. ”Jos putoat niin kauas, että kansakuntasi ei ole enää taloudellisesti kilpailukykyinen muiden samankokoisten kansakuntien kanssa, se johtaa lukuisiin muihin poliittisiin ja turvallisuuskysymyksiin.”
COmputing SPeed + Power = Military Might
Turva- ja taloudellisten näkökohtien lisäksi hän lisää, että ne, jotka selvästi ymmärtävät suurteholaskennan vaikutukset, näkevät sen valtavat hyödyt tieteelle, liike-elämälle ja muille aloille. ”On siis itsestään selvää, että teemme näitä juttuja.” (Tosin joissakin raporteissa sanotaan, että nämä hyödyt ovat liioiteltuja.) Esimerkiksi ydinaseiden alalla supertietokoneet ovat osoittautuneet valtavaksi avuksi pamahtaville asioille. Hienostuneet simulaatiot ovat poistaneet reaalimaailman testauksen tarpeen.
”Ei kehitetä jotain, mennä autiomaahan, porata reikä ja katsoa, toimiiko se”, Dongarra sanoo vuosikymmeniä sitten loppuneesta käytännöstä. ”He simuloivat suunnittelua supertietokoneella. He myös simuloivat, mitä niille tapahtuu, jos ne ovat hyllyssä niin monta vuotta, koska heidän on tarkistettava, että varasto toimii.”
Lentovoimien tutkimuslaboratorio, joka on yksi viidestä Yhdysvaltain puolustusministeriön supertietokonekeskuksesta, asensi hiljattain merkittävän päivityksen yhteydessä neljä yhteiskäyttöistä supertietokonetta, joilla koko Yhdysvaltain armeija voi tehdä salaista tutkimusta. Hanketta mainostettiin keinona auttaa ilmavoimien, armeijan ja laivaston tutkijoita ”vastaamaan nopeasti kansakuntamme kiireellisimpiin ja monimutkaisimpiin haasteisiin, mikä myös nopeuttaa uusien kykyjen tarjoamista sotilaan käyttöön veronmaksajille edullisemmin kustannuksin.”
Tulkitse tuo miten haluat.
Supertietokoneet ja tekoäly
Tekoäly on vielä melko alkeellista, mutta supertietokoneet ovat muuttamassa sitä turboahdattamalla koneoppimisprosesseja, jotta suuremmasta määrästä dataa saadaan nopeampia tuloksia – kuten tässä ilmastotieteen tutkimuksessa.
”Supertietokoneiden parissa toimiminen on uskoa algoritmin voimaan, joka pystyy tislaamaan arvokasta, merkityksellistä tietoa proseduraalisen logiikan toistuvasta toteuttamisesta”, Scott Fulton III kirjoittaa oivaltavassa jutussaan ZDNetissä. ”Supercomputingin perustana on kaksi ideaalia: yksi, joka tunnustaa, että tämän päivän kone pääsee lopulta uuteen ja poikkeuksellisen arvokkaaseen ratkaisuun, jota seuraa toinen ja hienovaraisempi ajatus, jonka mukaan tämän päivän kone on prototyyppi huomisen koneelle.”
Kuten Argonnen johtaja Paul Kearns kertoi HPCWirelle, Aurora on tarkoitettu ”seuraavan sukupolven” tekoälyä varten, joka kiihdyttää tieteellistä keksintöjen tekemistä ja tekee mahdolliseksi parannuksia esimerkiksi äärimmäisten sääolosuhteiden ennustamisessa, lääketieteellisissä hoitokeinoissa, aivojen kartoituksessa ja uusien materiaalien kehittämisessä. Se auttaa meitä jopa ymmärtämään maailmankaikkeutta entistä paremmin, hän lisäsi, ”ja se on vasta alkua.”
Vaikka Dongarra uskoo supertietokoneiden muokkaavan tekoälyn tulevaisuutta, ei ole täysin ennakoitavissa, miten se tarkalleen ottaen tapahtuu.
”Jossain määrin nyt kehitettäviä tietokoneita tullaan käyttämään sovelluksiin, joissa tarvitaan tekoälyä, syväoppimista ja neuroverkkolaskentaa”, Dongarra sanoo. ”Siitä tulee työkalu, joka auttaa tutkijoita ymmärtämään ja ratkaisemaan joitakin haastavimmista ongelmistamme.”
”Tulee olemaan” – tulevaisuuden aikamuoto. Tekoälytyö on edelleen vain pieni osa siitä, mitä supertietokoneet tekevät. Suurimmaksi osaksi ne ovat Jonesin mukaan ”aikakoneita”, jotka ”tuovat seuraavan tieteen viiden vuoden päähän tästä päivästä tähän päivään.”
”90 prosenttia perinteisistä HPC-installaatioista tekee edelleen perinteisiä HPC-työkuormia – insinöörisimulaatioita, nestedynamiikkaa, sää- ja ilmastomallinnusta”, hän kertoo. ”Tekoäly on mukana viiden tai kymmenen prosentin tasolla täydentämässä näitä ja auttamassa niitä toimimaan paremmin, mutta se ei vielä hallitse HPC-alustojen ostovaatimuksia tai edes HPC-rahoitusohjelmien ohjausta.”
Hemsoth uskoo, että menee luultavasti vielä viisi vuotta, ennen kuin nykyisiin HPC-työnkulkuihin sisällytetään paljon tekoälyä ja syväoppimista, joilla molemmilla on erilaiset laskentatehontarpeet kuin tällä hetkellä.
”Kaikki hätiköivät tekoälyä hiukan ennenaikaisesti”, hän sanoo. ”He ostavat järjestelmiä, jotka sopivat tekoälyyn sellaisena kuin se on nyt. Tekoäly tulee olemaan käytännön osa työtehtäviä, mutta se tulee muuttumaan. Varsinaiset ohjelmistot ja sovellukset, joilla tekoälyä on käytettävä, tulevat muuttumaan, mikä muuttaa myös tarvittavaa laitteistoa. Nämä asiat kehittyvät nopeasti, mutta laitteistojen tuotantosyklit ovat todella pitkiä – varsinkin jos olet kansallinen laboratorio ja joudut hankkimaan näitä laitteita kolmesta viiteen vuotta ennen kuin saat koneen.”
Supertietokoneiden tulevaisuus
”Ihmiskunnan parantaminen on jalo tavoite.”
Toinen aivopläjäys: nykyinen älypuhelimesi on yhtä nopea kuin supertietokone oli vuonna 1994 – sellainen, jossa oli 1000 prosessoria ja joka teki ydinsimulaatioita. (Onko siihen olemassa sovellusta?) On siis järkeenkäypää, että älypuhelin (tai mikä sen nimi onkaan), joka sinulla on neljännesvuosisadan päästä, voisi teoriassa olla Auroran tasolla. Pointti on se, että nämä laitteet ovat nopeita – ja ne vain nopeutuvat. Dongarra pähkinänkuoressa näin:
”Saavutimme teraflopsin vuonna 1997 Sandia National Laboratoriesin koneella. Se oli 1012 teraflopsia. Sitten, vuonna 2008, saavutimme petaflopsin – 1015 – Los Alamosissa. Nyt olemme saavuttamassa exascale-tason, 1018 operaatiota, vuoden 2020 tai 2021 alussa. Todennäköisesti 10 tai 11 vuoden kuluttua saavutamme zettascale-tason – 1021 operaatiota sekunnissa. Kun aloitin tietojenkäsittelyn parissa, teimme megafloppeja eli 106 operaatiota. Asiat siis muuttuvat. Arkkitehtuurissa, ohjelmistoissa ja sovelluksissa tapahtuu muutoksia, joiden on edettävä samassa tahdissa. Seuraavalle tasolle siirtyminen on luonnollinen kehityskulku.”
Top500.com-sivustolla julkaistussa tuoreessa jutussa ”Supercomputing is heading towards an existential crisis” (Supercomputing on menossa kohti eksistentiaalista kriisiä) piirtyy kuva tulevasta, jossa simuloinnit jäävät taka-alalle.
”Erityisesti koneoppiminen saattaa hallita useimpia tietojenkäsittelyn osa-alueita, mukaan lukien suurteholaskennan ja -laskennan (ja jopa data-analytiikan) seuraavan puolentoista vuosikymmenen ja puolentoista vuoden aikana,” kirjoittaa kirjoittaja Michael Feldman. ”Vaikka nykyään sitä käytetään enimmäkseen perinteisen tieteellisen laskennan apuvaiheena – sekä esikäsittelyssä että jälkikäsittelyn jälkeisissä simuloinneissa, joissakin tapauksissa, kuten lääkkeiden löytämisessä, se voisi mahdollisesti korvata simuloinnit kokonaan.”
Muotoiltiinpa supertietokoneet millaisiksi hyvänsä, Argonnen Papka sanoo, että niistä tulee yhä tehokkaampia ja mullistavampia, ja ne tulevat vaikuttamaan kaikkeen arkipäiväisestä syvällisiin asioihin – tehokkaampien sähköautojen akkujen suunnittelusta ehkäpä pitkään taisteltujen tautien, kuten syövän, kitkemiseen. Näin hän ainakin toivoo.
”Ihmiskunnan parantaminen”, Papka sanoo, ”on jalo tavoite.”
Lue lisää tarinoita laitteistoyrityksistä
.