Przechadzanie się między rzędami szaf superkomputerowych w Argonne National Laboratory’s Leadership Computing Facility, położonym około 25 mil od Chicago, jest jak wędrówka przez zaawansowaną technologicznie wersję labiryntu Overlook z „Lśnienia” – bez szaleńca z siekierą.
Dwa główne superkomputery w tym stalowym labiryncie, nazwane Mira i Theta, składają się z 101 szaf wielkości standardowych lodówek, które zawierają stosy stojaków i ważą od 3,450 do 4,390 funtów każdy. Ich łączna waga to 160 ton – duża część tego ciężaru to zasługa systemów chłodzenia wodą, które zapobiegają przegrzaniu. Wraz z kilkoma innymi mniejszymi systemami, maszyny te znajdują się w centrum danych o powierzchni 25 000 stóp kwadratowych, z niskimi sufitami i podłogą wyłożoną białymi kafelkami. Z całym tym warczącym sprzętem, nie jest to ciche miejsce. W pobliżu komputerów odwiedzający muszą mówić – krzyczeć, aby być słyszanym ponad ciągłym głośnym szumem.
- Six Billion Times Faster: The Aurora SuperComputer’s New Home
- Co to jest superkomputer?(Hint: Parallel Computing Is Key)
- Do czego służą superkomputery?Just Simulating Reality, That’s All
- Do czego służą superkomputery?
- Potrzeba szybkości
- Komputerowe zasilanie + moc = militarna potęga
- Supercomputing and Artificial Intelligence
- Przyszłość superkomputerów
Six Billion Times Faster: The Aurora SuperComputer’s New Home
Rozległy obiekt nie jest w stanie pomieścić bestii, która wkrótce tam wyląduje. Jeśli wszystko pójdzie zgodnie z planem, gdzieś w 2021 roku zamieszka tam nowy, fantastycznie potężny superkomputer o nazwie Aurora. Dlatego też, aby przygotować się na jego przybycie, trwa wielka rozbudowa. Kosztująca 500 milionów dolarów Aurora będzie pierwszym z trzech tak zwanych superkomputerów „exascale”, zdolnych do wykonywania miliarda miliardów (lub kwintylionów) obliczeń na sekundę, w które Departament Energii USA (DOE), zarządzający Argonne i 17 innymi laboratoriami krajowymi, zainwestuje 1,8 miliarda dolarów. (Inny, nazwany Frontier, zostanie wkrótce zainstalowany w Oak Ridge National Laboratory w Tennessee).
Nic dziwnego, że za taką sumę, Aurora będzie w stanie dokonywać małych cudów obliczeniowych. Mierzony jako 1018 FLOPS (co oznacza operacje zmiennoprzecinkowe na sekundę), system będzie sześć miliardów razy szybszy od swojego poprzednika, przełomowego Cray-1 z 1964 roku. Ujmując to w bardziej namacalnych kategoriach dzięki uprzejmości Design News, „Osoba dodająca 1+1+1 do ręcznego kalkulatora raz na sekundę, bez czasu wolnego na jedzenie i sen, potrzebowałaby 31,7 biliona lat, aby zrobić to, co Aurora zrobi w ciągu jednej sekundy.”
To jest między pięć a 10 razy szybciej niż obecnie panujący mistrz superkomputerów, mega-maszyna IBM-Nvidia o nazwie Summit, która rezyduje w Oak Ridge. Umysł oszalał.
Kogo Aurora zdetronizuje? Oto spojrzenie na 10 najszybszych superkomputerów na świecie, według trustu mózgów TOP500.
„Istnieją ograniczenia tego, co możemy dziś zrobić na superkomputerze”, powiedział Mike Papka, dyrektor Leadership Computing Facility, niedawno po oprowadzeniu po przestrzeni. „Dzięki Aurorze możemy przenieść je na wyższy poziom. W tej chwili możemy wykonywać symulacje ewolucji wszechświata. Ale z Aurorą będziemy w stanie robić to w bardziej realistyczny sposób, z większą ilością fizyki i chemii. Zaczynamy robić takie rzeczy, jak próba zrozumienia, jak różne leki oddziałują na siebie nawzajem i, powiedzmy, na jakąś formę raka. Teraz możemy to robić na małą skalę. Dzięki Aurorze będziemy w stanie robić to na jeszcze większą skalę.”
Jako jeden z 52 superkomputerów Departamentu Energii, Aurora będzie prawdopodobnie jedynym istniejącym systemem exascale, gdy zadebiutuje. (To znaczy, chyba że Chiny zbudują jeden pierwszy – co, jak twierdzą niektórzy wtajemniczeni, jest dość mało prawdopodobne, pomimo doniesień, że kraj ten szykuje się do stworzenia jednego do 2020 roku). Na konferencji prasowej w marcu 2019 r. zapowiadającej instalację Aurory, dyrektor laboratorium Argonne Rick Stevens wyjaśnił, że system będzie obsługiwał aplikacje o wysokiej wydajności obliczeniowej, a także analizę danych strumieniowych generowanych przez akceleratory, detektory, teleskopy i inne urządzenia badawcze.
W tym momencie jednak Aurora pozostaje w toku prac, podczas gdy Summit zdobywa chwałę. Pierwotnie przewidziany do uruchomienia kilka lat temu w znacznie mniej potężnym wcieleniu i uruchomiony w połowie 2018 roku, Summit kosztował 200 milionów dolarów, może wykonywać złożone obliczenia matematyczne w tempie 200 kwadrylionów (lub 200 trylionów) na sekundę i jest odpowiedzialny za wyrwanie Ameryce z rąk Chin miejsca numer jeden na liście TOP500. Fizycznie imponujący, składa się z ponad 300 jednostek – podobnych wielkością do Mira i Theta – które ważą w sumie 340 ton, zajmują 9 250 stóp kwadratowych i są zasilane przez 9 216 centralnych chipów obliczeniowych. Wewnątrz znajdują się mile światłowodów, a chłodzenie tego behemota wymaga 4000 galonów wody na minutę. Ponadto zużywa on żarłocznie energię – wystarczająco dużo, by zasilić tysiące domów.
Gdy „ojciec superkomputerów”, Seymour Cray, po raz pierwszy zaczął budować swoje rewolucyjne maszyny w latach sześćdziesiątych, taki falujący pokaz obliczeniowej siły był niezrozumiały. Ponad pół wieku później powoli staje się to normą – i pewnego dnia będzie się wydawać tak osobliwe, jak teraz Atari 2600.
Co to jest superkomputer?(Hint: Parallel Computing Is Key)
Superkomputery od lat stosują technikę zwaną „przetwarzaniem masowo równoległym”, dzięki której problemy są dzielone na części i opracowywane jednocześnie przez tysiące procesorów, w przeciwieństwie do metody „szeregowej”, w której pracuje jeden na raz, powiedzmy, Twój stary MacBook Air. Oto kolejna dobra analogia, ta z Explainthatstuff.com:
To tak, jakby przyjechać do kasy z wózkiem pełnym przedmiotów, ale potem podzielić swoje przedmioty między kilku różnych przyjaciół. Każdy z nich może przejść przez osobną kasę z kilkoma przedmiotami i zapłacić osobno. Kiedy już wszyscy zapłacą, możesz zebrać się ponownie, załadować koszyk i wyjść. Im więcej jest przedmiotów i im więcej masz znajomych, tym szybciej można robić rzeczy poprzez przetwarzanie równoległe – przynajmniej w teorii.
„Musisz użyć przetwarzania równoległego, aby naprawdę wykorzystać moc superkomputera”, mówi doktorantka z Rensselaer Polytechnic Institute Caitlin Joann Ross, która niedawno odbyła sześciomiesięczny pobyt w Argonne. „Trzeba zrozumieć, w jaki sposób dane muszą być wymieniane pomiędzy procesami, aby zrobić to w efektywny sposób, więc jest wiele różnych małych wyzwań, które sprawiają, że praca z nimi jest bardzo przyjemna. Chociaż są dni, kiedy może to być frustrujące.”
Problemy z „usuwaniem błędów”, jak mówi, są główną przyczyną tej frustracji. Obliczenia, które mogą przebiegać płynnie przy użyciu czterech procesorów, na przykład, mogą się zepsuć, jeśli doda się piąty.
„Jeśli wszystko działa idealnie”, mówi Ross, „to cokolwiek to jest, co uruchamiasz, działa o wiele szybciej niż na komputerze z mniejszą liczbą procesorów lub z jednym procesorem. Istnieją pewne obliczenia, których wykonanie na laptopie może zająć tygodnie lub miesiące, ale jeśli można je skutecznie sparalelizować, aby uruchomić na superkomputerze, może to zająć jeden dzień.”
Inny obszar pracy Rossa obejmuje symulację samych superkomputerów – a dokładniej sieci używanych na superkomputerach. Dane z aplikacji działających na rzeczywistych superkomputerach są wprowadzane do symulatora, co pozwala na testowanie różnych funkcji bez konieczności wyłączania całego systemu. Jedną z takich funkcji jest coś, co nazywa się „zakłóceniami komunikacyjnymi”.
„W prawdziwym życiu różni użytkownicy będą przesyłać zadania do superkomputera, który będzie wykonywał pewnego rodzaju harmonogramy, aby określić, kiedy te zadania będą wykonywane” – mówi Ross. „Zazwyczaj na superkomputerze działa wiele różnych zadań w tym samym czasie. Korzystają one z różnych węzłów obliczeniowych, ale współdzielą zasoby sieciowe. Komunikacja z innego zadania może więc spowolnić Twoje zadanie, bazując na sposobie, w jaki dane są kierowane przez sieć. Dzięki naszym symulacjom możemy badać tego typu sytuacje i testować takie rzeczy, jak inne protokoły routingu, które mogłyby pomóc poprawić wydajność sieci.
Do czego służą superkomputery?Just Simulating Reality, That’s All
Przez ostatnie kilkadziesiąt lat i do dziś głównym wkładem superkomputerów do nauki jest ich coraz lepsza zdolność do symulowania rzeczywistości, aby pomóc ludziom w lepszym przewidywaniu wydajności i projektowaniu lepszych produktów w dziedzinach od produkcji i ropy naftowej po farmację i wojsko. Jack Dongarra, jeden z największych na świecie ekspertów w dziedzinie superkomputerów, porównuje tę zdolność do posiadania kryształowej kuli.
„Powiedzmy, że chcę zrozumieć, co się dzieje, gdy zderzają się dwie galaktyki” – mówi Dongarra. „Tak naprawdę nie mogę przeprowadzić takiego eksperymentu. Nie mogę wziąć dwóch galaktyk i zderzyć ich ze sobą. Muszę więc zbudować model i uruchomić go na komputerze. Albo w dawnych czasach, kiedy projektowano samochód, zabierano go i rozbijano o ścianę, aby sprawdzić, jak dobrze wytrzyma uderzenie. Cóż, jest to dość kosztowne i czasochłonne. Dziś nie robimy tego zbyt często; budujemy model komputerowy z całą fizyką i rozbijamy go o symulowaną ścianę, aby zrozumieć, gdzie są słabe punkty.”
Do czego służą superkomputery?
Przedsiębiorstwa, w szczególności, widzą wartość pieniężną (ROI, jak mówią typy korporacyjne) w symulacjach superkomputerowych, niezależnie od tego, czy produkują samochody, wiercą w poszukiwaniu ropy naftowej, czy odkrywają nowe leki. W 2018 r. zakupy korporacyjne i rządowe przyczyniły się do coraz solidniejszego rynku obliczeń o wysokiej wydajności.
„Z najlepszych pięciuset komputerów ponad połowa jest w przemyśle” – mówi Dongarra, który spędził wczesną część swojej kariery w Argonne. „Przemysł to rozumie. Inwestują w wysokowydajne komputery, aby być bardziej konkurencyjnymi i zyskać przewagę nad konkurencją. Uważają, że są to dobrze wydane pieniądze. Inwestują w te rzeczy, aby pomóc w napędzaniu ich produktów i innowacji, ich dolnej linii, ich produktywności i rentowności.”
Ale to coś więcej niż tylko ROI.
„Tradycyjne przedsiębiorstwa komercyjne mogą zobaczyć kalkulacje zwrotu z inwestycji w stylu: 'Dzięki temu zaoszczędziliśmy tyle kosztów testów fizycznych’ lub 'Mogliśmy szybciej wejść na rynek i dzięki temu uzyskać dodatkowe dochody'”, mówi Andrew Jones, brytyjski konsultant ds. obliczeń o wysokiej wydajności. „Ale podstawowa kalkulacja ROI dla HPC niekoniecznie jest tym, skąd bierze się wartość. Jeśli zapytać firmę naftową, to nie sprowadza się to do możliwości znalezienia ropy o 30 procent taniej. Sprowadza się to do możliwości znalezienia ropy lub nie.”
Firmy, które używają superkomputerów do wprowadzania dużych usprawnień i zwiększania wydajności, mają przewagę nad swoimi konkurentami.
„To samo odnosi się do wielu dziedzin nauki”, dodaje Jones. „Niekoniecznie szukasz zwrotu z inwestycji w konkretnym sensie, szukasz ogólnej zdolności – czy nasi badacze są w stanie prowadzić naukę, która jest konkurencyjna na arenie międzynarodowej, czy nie.”
Potrzeba szybkości
'”Nie ma dwóch większych sprawców 'patrzcie, jak duży jest mój system’ niż USA.USA i Chiny.”’
Ponieważ szybsze komputery pozwalają naukowcom szybciej uzyskać lepszy wgląd w to, nad czym pracują, istnieje coraz większa potrzeba – lub przynajmniej silne pragnienie – szybkości. Dongarra nazywa to „niekończącym się poszukiwaniem”, a (wciąż niesprawdzone) możliwości Aurory w zakresie eksaskali byłyby jak dotąd szczytem tych poszukiwań. Będzie to jednak jeden z wielu. W 26 innych krajach na całym świecie działa wiele innych superkomputerów o czasem epicko brzmiących nazwach (Titan, Excalibur). Produkowane przez 36 różnych dostawców, napędzane są przez 20 generacji procesorów i służą różnym gałęziom przemysłu, a także funkcjom rządowym, od badań naukowych po obronę narodową.
Statystyki te pochodzą z witryny TOP500.org. Strona ta, której współzałożycielem jest Dongarra, śledzi wszystkie sprawy związane z superkomputerami od 1993 roku i wykorzystuje benchmark LINPACK (który szacuje, jak szybko komputer może uruchomić jeden lub wiele programów) do pomiaru wydajności. Według najnowszego zestawienia największych i najgroźniejszych superkomputerów na świecie, Ameryka ma pięć (wkrótce sześć) z dziesięciu najlepszych – w tym najszybszy na świecie superkomputer w Oak Ridge’s Summit i drugi najszybszy, Sierra, w Lawrence Livermore National Laboratory w Kalifornii. Drugie Chiny mają tylko dwa (ale wkrótce będą trzy). Oczywiście, kraj ten zajmuje 227 z 500 pierwszych miejsc i wyprodukował 303 maszyny z tej listy, ale USA wciąż może pokazywać swój wielki palec z pianą. Na razie. Konkurs trwa i nie zanosi się na to, by miał się zakończyć.
„Nie ma dwóch większych przestępców 'patrzcie jak wielki jest mój system’ niż USA i Chiny”, mówi Nicole Hemsoth, współzałożycielka i współredaktorka The Next Platform.
Choć Chiny historycznie były mniej zainteresowane Top 500, wyjaśnia, w ciągu ostatnich kilku lat uczyniły z obliczeń o wysokiej wydajności „punkt narodowej dumy”, kładąc większy nacisk na „wydajność na szczytach list przebojów” i wydając miliardy, aby to osiągnąć. Inni konkurenci w dziedzinie eksaskali to Francja i Japonia. Według jednego z badań, 10 miliardów dolarów z przewidywanych 130 miliardów dolarów wydanych na superkomputery w latach 2018-2021 zostanie przeznaczonych na systemy exascale, takie jak ten przeznaczony dla Argonne.
„Wyścig między krajami jest częściowo prawdziwy, a częściowo sztuczny” – mówi Jones. „Na przykład, jeśli jest się dyrektorem amerykańskiego laboratorium narodowego i stara się o fundusze na kolejną maszynę HPC, bardzo dobrym argumentem jest stwierdzenie, że 'Chiny mają dziesięciokrotnie większą maszynę, więc musimy ją dogonić’. Unia Europejska i Chiny grają w tę samą grę przeciwko Stanom Zjednoczonym, więc istnieje trochę stworzonego napięcia, które niekoniecznie jest prawdziwe, ale pomaga napędzać .”
Media też odgrywają znaczącą rolę. Dziennikarze uwielbiają przytaczać zapierające dech w piersiach statystyki superkomputerowe i wyjaśniać je w sugestywny sposób. Jest tego przykład na początku tej historii. Oto inny, z New York Times: „Gdyby stadion zbudowany dla 100,000 ludzi był pełny i każdy na nim miał nowoczesny laptop, potrzeba by 20 stadionów, aby dorównać mocy obliczeniowej Summit”. NIE JESTEŚ ZAINTERESOWANY?
Urzędnicy państwowi również cieszą się odrobiną superkomputerowej swawoli, mówiąc o swojej gargantuicznej mocy obliczeniowej jako kluczu do poprawy społeczeństwa – i, oczywiście, dowodzie na całkowitą niesamowitość ich kraju. John F. Kennedy, który ożywił wyścig kosmiczny w 1961 roku, byłby na to gotowy.
„To podstawowa konkurencyjność ekonomiczna”, mówi Jones. „Jeśli spadniesz tak daleko, że twój naród nie jest już ekonomicznie konkurencyjny z innymi krajami o porównywalnej wielkości, to prowadzi to do całego mnóstwa innych politycznych i bezpieczeństwa kwestii, z którymi trzeba sobie poradzić.”
Komputerowe zasilanie + moc = militarna potęga
Poza bezpieczeństwem i aspektami ekonomicznymi, dodaje, ci, którzy jasno rozumieją implikacje obliczeń o wysokiej wydajności, widzą ich ogromne korzyści dla nauki, biznesu i innych sektorów. „Więc nie ma się co zastanawiać, że robimy te rzeczy”. (Przyznaję, niektóre raporty mówią, że te korzyści są wyolbrzymione). Na przykład na froncie zbrojeń nuklearnych, superkomputery okazały się ogromnym dobrodziejstwem dla rzeczy, które mogą wybuchnąć. Zaawansowane symulacje wyeliminowały konieczność przeprowadzania testów w warunkach rzeczywistych.
„Nie opracowują czegoś, nie wyjeżdżają na pustynię, nie wiercą dziury i nie sprawdzają, czy to działa” – mówi Dongarra o praktyce, która ustała kilkadziesiąt lat temu. „Symulują ten projekt na superkomputerze. Symulują również, co się z nimi stanie, jeśli będą leżały na półce przez tyle lat, ponieważ muszą sprawdzić, czy zapas będzie działał.”
W ramach niedawnej modernizacji, Laboratorium Badawcze Sił Powietrznych – jedno z pięciu centrów superkomputerowych Departamentu Obrony USA – zainstalowało cztery superkomputery, na których całe wojsko amerykańskie może prowadzić tajne badania. Projekt był promowany jako sposób, aby pomóc naukowcom z Sił Powietrznych, Armii i Marynarki Wojennej „szybko reagować na najbardziej pilne i złożone wyzwania naszego narodu, co również przyspiesza nowe możliwości dla wojska przy niższych kosztach dla podatnika.”
Interpretuj to jak chcesz.
Supercomputing and Artificial Intelligence
Sztuczna inteligencja jest wciąż dość prymitywna, ale superkomputery zmieniają to poprzez turbodoładowanie procesów uczenia maszynowego, aby uzyskać szybsze wyniki z większej ilości danych – jak w tym badaniu klimatologicznym.
„Być zaangażowanym w superkomputerach to wierzyć w moc algorytmu do destylacji cennych, znaczących informacji z powtarzalnej implementacji logiki proceduralnej”, pisze Scott Fulton III w wnikliwej historii na ZDNet. „U podstaw superkomputerów leżą dwa ideały: jeden, który głosi, że dzisiejsza maszyna w końcu osiągnie nowe i niezwykle wartościowe rozwiązanie, a drugi, bardziej subtelny, głosi, że dzisiejsza maszyna jest prototypem dla jutrzejszej.”
Jak powiedział HPCWire dyrektor Argonne Paul Kearns, Aurora jest przeznaczona dla sztucznej inteligencji „następnej generacji”, która przyspieszy odkrycia naukowe i umożliwi ulepszenia w takich dziedzinach jak prognozowanie ekstremalnych zjawisk pogodowych, leczenie, mapowanie mózgu, rozwój nowych materiałów. Pomoże nam to nawet w dalszym zrozumieniu wszechświata, dodał, „a to dopiero początek.”
Choć Dongarra uważa, że superkomputery ukształtują przyszłość AI, dokładnie jak to się stanie nie jest do końca przewidywalne.
„W pewnym stopniu, komputery, które są dziś rozwijane, będą wykorzystywane do zastosowań, które wymagają obliczeń związanych ze sztuczną inteligencją, głębokim uczeniem i neurosieciami”, mówi Dongarra. „To będzie narzędzie, które pomoże naukowcom w zrozumieniu i rozwiązaniu niektórych z najtrudniejszych problemów, jakie mamy.”
„Going to be” – czas przyszły. Praca AI to wciąż tylko niewielki procent tego, co robią superkomputery. W przeważającej części, mówi Jones, są to „maszyny czasu”, które „przenoszą następną naukę z pięciu lat do przodu do dnia dzisiejszego.”
„Dziewięćdziesiąt procent tradycyjnych instalacji HPC nadal wykonuje tradycyjne obciążenia HPC – symulacje inżynieryjne, dynamikę płynów, modelowanie pogody i klimatu”, wyjaśnia. „AI jest tam na poziomie pięciu lub dziesięciu procent, wspomagając je i usprawniając ich działanie, ale nie dominuje jeszcze w wymaganiach dotyczących zakupu platform HPC, ani nawet w kierowaniu programami finansowania HPC.”
Hemsoth uważa, że prawdopodobnie minie kolejne pięć lat, zanim istniejące przepływy pracy HPC będą zawierały dużo AI i głębokiego uczenia, z których oba będą miały inne wymagania obliczeniowe niż obecnie.
„Wszyscy trochę przesadzają, jeśli chodzi o AI”, mówi. „Kupują systemy, które są odpowiednie dla AI w jej obecnej formie. AI będzie praktyczną częścią obciążeń roboczych, ale to się zmieni. Zmieni się rzeczywiste oprogramowanie i aplikacje, na których będzie działać, a to z kolei zmieni sprzęt, który będzie potrzebny. To wszystko rozwija się szybko, ale z naprawdę długimi cyklami produkcyjnymi sprzętu – zwłaszcza jeśli jesteś laboratorium narodowym i musisz zaopatrywać się w ten sprzęt przez trzy do pięciu lat zanim w ogóle dostaniesz maszynę.”
Przyszłość superkomputerów
„Lepsza kondycja ludzkości to szlachetny cel.”
Kolejny brain blaster: Twój obecny smartfon jest tak szybki, jak superkomputer w 1994 roku – taki, który miał 1000 procesorów i przeprowadzał symulacje nuklearne. (Czy istnieje aplikacja do tego?) To idzie do rozumu, a następnie, że smartphone (lub cokolwiek to jest nazywane) masz w ćwierć wieku może teoretycznie być na poziomie Aurora. Chodzi o to, że te rzeczy są szybkie – i to tylko coraz szybsze. Oto jak Dongarra to podsumowuje:
„Osiągnęliśmy teraflops w 1997 roku na maszynie w Sandia National Laboratories. To było 1012 teraflopów. Następnie, w 2008 roku, osiągnęliśmy petaflops – 1015 – w Los Alamos. Teraz jesteśmy o krok od osiągnięcia exascale, czyli 1018 operacji, na początku 2020 lub 2021 roku. Prawdopodobnie za 10 lub 11 lat osiągniemy zettascale – 1021 operacji na sekundę. Kiedy ja zaczynałem pracę w branży obliczeniowej, wykonywaliśmy megaflopy – 106 operacji. Tak więc wszystko się zmienia. Następują zmiany w architekturze, zmiany w oprogramowaniu i aplikacjach, które muszą za tym podążać. Przejście na następny poziom jest naturalną koleją rzeczy.”
Ostatni artykuł na TOP500.com zatytułowany „Supercomputing is heading toward an existential crisis” (Superkomputer zmierza w kierunku kryzysu egzystencjalnego) maluje obraz nadchodzących wydarzeń, w których symulacje zajmą drugorzędne miejsce.
„Uczenie maszynowe, w szczególności, może zdominować większość dziedzin obliczeniowych, w tym HPC (a nawet analitykę danych) w ciągu następnej dekady i pół,” pisze autor Michael Feldman. „Podczas gdy dziś jest on głównie używany jako krok pomocniczy w tradycyjnych obliczeniach naukowych – zarówno do wstępnego, jak i końcowego przetwarzania symulacji, w niektórych przypadkach, takich jak odkrywanie leków, może on całkowicie zastąpić symulacje.”
Niezależnie od tego, jaką formę przybiorą superkomputery, Papka z Argonne twierdzi, że będą one coraz potężniejsze i coraz bardziej przekształcające, wpływając na wszystko, od spraw przyziemnych po głębokie – od projektowania bardziej wydajnych akumulatorów do samochodów elektrycznych po, być może, zwalczanie chorób od dawna zwalczanych, takich jak rak. Lub tak ma nadzieję.
„Polepszenie losu ludzkości”, mówi Papka, „to szlachetny cel, który warto mieć.”
PowiązaneRead More Stories About Hardware Companies