Wenn man durch die Reihen der Supercomputer-Schränke in der etwa 25 Meilen von Chicago entfernten Leadership Computing Facility des Argonne National Laboratory geht, ist es, als würde man durch eine High-Tech-Version des Overlook Labyrinths aus „The Shining“ wandern – ohne den axtschwingenden Verrückten.
Die beiden primären Supercomputer in diesem Stahllabyrinth mit den Namen Mira und Theta bestehen aus 101 Schränken von der Größe eines normalen Kühlschranks, die Stapel von Gestellen enthalten und jeweils zwischen 3.450 und 4.390 Pfund wiegen. Insgesamt wiegen sie 160 Tonnen – ein Großteil dieses Gewichts ist auf die Wasserkühlung zurückzuführen, die eine Überhitzung verhindert. Zusammen mit mehreren anderen kleineren Systemen sind die Maschinen in einem 25.000 Quadratmeter großen Rechenzentrum mit niedrigen Decken und einem weißen Fliesenboden untergebracht. Bei all den Geräten, die dort vor sich hin surren, ist es nicht gerade ein ruhiger Ort. In der Nähe der Computer müssen Besucher schreien, um über das konstante laute Brummen hinweg gehört zu werden.
- Sechs Milliarden Mal schneller: Das neue Zuhause des Aurora-Supercomputers
- Was ist ein Supercomputer?(Tipp: Paralleles Rechnen ist der Schlüssel)
- Wofür werden Supercomputer verwendet?Nur zur Simulation der Realität
- Wofür werden Supercomputer verwendet?
- Das Bedürfnis nach Geschwindigkeit
- COmputing SPeed + Power = Military Might
- Supercomputing und künstliche Intelligenz
- Die Zukunft des Supercomputing
Sechs Milliarden Mal schneller: Das neue Zuhause des Aurora-Supercomputers
So groß die Anlage auch ist, sie reicht nicht aus, um das Ungeheuer zu beherbergen, das bald dort landen wird. Wenn alles nach Plan läuft, wird irgendwann im Jahr 2021 ein fantastisch leistungsfähiger neuer Supercomputer mit dem Namen Aurora dort einziehen. In Vorbereitung auf seine Ankunft ist eine umfangreiche Erweiterung im Gange. Aurora wird der erste von drei so genannten „Exascale“-Supercomputern sein, die in der Lage sind, eine Milliarde (auch Quintillion genannt) Berechnungen pro Sekunde durchzuführen. Das US-Energieministerium (DOE), das Argonne und 17 weitere nationale Laboratorien betreibt, investiert dafür 1,8 Milliarden Dollar. (Ein weiteres System mit dem Namen Frontier wird demnächst im Oak Ridge National Laboratory in Tennessee installiert).
Für so viel Geld ist es nicht überraschend, dass Aurora in der Lage sein wird, kleine Rechenwunder zu vollbringen. Mit 1018 FLOPS (Gleitkommaoperationen pro Sekunde) wird das System sechs Milliarden Mal schneller sein als sein langjähriger Vorgänger, die bahnbrechende Cray-1 von 1964. Mit freundlicher Genehmigung von Design News in konkreteren Worten ausgedrückt: „Eine Person, die einmal pro Sekunde 1+1+1 in einen Taschenrechner eintippt, ohne Zeit zum Essen oder Schlafen, bräuchte 31,7 Billionen Jahre, um das zu tun, was Aurora in einer Sekunde tun wird.“
Das ist fünf- bis zehnmal schneller als der derzeitige Champion der Supercomputer, eine IBM-Nvidia-Megamaschine namens Summit, die in Oak Ridge steht. Unglaublich.
Wen wird Aurora ablösen? Hier ein Blick auf die 10 schnellsten Supercomputer der Welt, die von den Experten von TOP500 ermittelt wurden.
„Es gibt Grenzen für das, was wir heute mit einem Supercomputer tun können“, sagte Mike Papka, Direktor der Leadership Computing Facility, kürzlich nach einer Führung durch den Raum. „Mit Aurora können wir diese auf die nächste Stufe heben. Im Moment können wir Simulationen der Entwicklung des Universums durchführen. Aber mit Aurora werden wir in der Lage sein, dies auf realistischere Weise zu tun, mit mehr Physik und mehr Chemie. Wir fangen damit an, zu verstehen, wie verschiedene Medikamente miteinander interagieren und zum Beispiel eine Form von Krebs behandeln. Das können wir jetzt in kleinem Maßstab tun. Mit Aurora werden wir das in einem noch größeren Maßstab tun können.“
Als einer von 52 Supercomputern des Energieministeriums wird Aurora wahrscheinlich das einzige Exascale-System sein, das es bei seinem Debüt gibt. (Das heißt, es sei denn, China baut zuerst einen – was einige Insider für ziemlich unwahrscheinlich halten, trotz Berichten, dass sich das Land darum bemüht, bis 2020 einen zu bauen.) Auf einer Pressekonferenz im März 2019, auf der die Installation von Aurora angekündigt wurde, erklärte der stellvertretende Direktor des Argonne-Labors, Rick Stevens, dass das System sowohl für Hochleistungsrechneranwendungen als auch für die Analyse von Datenströmen eingesetzt wird, die von Beschleunigern, Detektoren, Teleskopen und anderen Forschungsgeräten erzeugt werden.
Allerdings ist Aurora derzeit noch in der Entwicklung, während Summit den Ruhm erntet. Ursprünglich sollte Summit vor einigen Jahren in einer weitaus weniger leistungsstarken Version in Betrieb gehen und wurde Mitte 2018 in Betrieb genommen. Summit kostete 200 Millionen Dollar, kann komplexe mathematische Berechnungen mit einer Geschwindigkeit von 200 Quadrillionen (oder 200 Billionen) pro Sekunde durchführen und ist dafür verantwortlich, dass Amerika China den ersten Platz auf der TOP500-Liste entrissen hat. Er besteht aus mehr als 300 Einheiten – ähnlich groß wie Mira und Theta -, die insgesamt 340 Tonnen wiegen, eine Fläche von 9.250 Quadratmetern einnehmen und von 9.216 zentralen Verarbeitungschips angetrieben werden. Im Inneren befinden sich kilometerlange Glasfaserkabel, und zur Kühlung dieses Ungetüms werden 4.000 Gallonen Wasser pro Minute benötigt. Außerdem verbraucht er unermesslich viel Energie – genug, um Tausende von Haushalten mit Strom zu versorgen.
Als der „Vater des Supercomputing“, Seymour Cray, in den 1960er Jahren mit dem Bau seiner revolutionären Maschinen begann, war eine derartig gewaltige Demonstration von Rechenkraft noch unvorstellbar. Mehr als ein halbes Jahrhundert später wird sie langsam zur Norm – und wird eines Tages so kurios erscheinen wie ein Atari 2600 heute.
Was ist ein Supercomputer?(Tipp: Paralleles Rechnen ist der Schlüssel)
Supercomputer verwenden seit Jahren eine Technik, die als „massiv parallele Verarbeitung“ bezeichnet wird, bei der Probleme in Teile aufgeteilt und gleichzeitig von Tausenden von Prozessoren bearbeitet werden, im Gegensatz zu der „seriellen“ Methode, bei der nur ein einziger Prozessor zum Einsatz kommt, wie z. B. bei Ihrem normalen alten MacBook Air. Hier ist eine weitere gute Analogie, diesmal von Explainthatstuff.com:
Es ist so, als ob man mit einem vollen Einkaufswagen an der Kasse ankommt, dann aber die Waren auf mehrere Freunde aufteilt. Jeder Freund kann mit einigen Artikeln eine separate Kasse durchlaufen und separat bezahlen. Wenn Sie alle bezahlt haben, können Sie sich wieder zusammensetzen, den Einkaufswagen beladen und gehen. Je mehr Artikel es gibt und je mehr Freunde man hat, desto schneller geht es mit der Parallelverarbeitung – zumindest theoretisch.
„Man muss die Parallelverarbeitung nutzen, um die Leistung des Supercomputers wirklich auszuschöpfen“, sagt Caitlin Joann Ross, Doktorandin am Rensselaer Polytechnic Institute, die kürzlich einen sechsmonatigen Aufenthalt in Argonne absolvierte. „Man muss verstehen, wie die Daten zwischen den Prozessen ausgetauscht werden müssen, um sie effizient zu verarbeiten. Allerdings gibt es auch Tage, an denen es sehr frustrierend sein kann.“
Die Hauptursache für diese Frustration sind ihrer Meinung nach „Debugging“-Probleme. Berechnungen, die zum Beispiel mit vier Prozessoren reibungslos laufen, können zusammenbrechen, wenn ein fünfter hinzukommt.
„Wenn alles perfekt läuft“, sagt Ross, „dann läuft das, was Sie tun, viel schneller als auf einem Computer mit weniger Prozessoren oder einem einzigen Prozessor. Es gibt bestimmte Berechnungen, die auf einem Laptop Wochen oder Monate dauern, aber wenn man sie effizient parallelisieren kann, um sie auf einem Supercomputer laufen zu lassen, dauert es vielleicht nur einen Tag.“
Ein weiterer Bereich von Ross‘ Arbeit ist die Simulation von Supercomputern selbst – genauer gesagt, der auf Supercomputern verwendeten Netzwerke. Daten von Anwendungen, die auf echten Supercomputern laufen, werden in einen Simulator eingespeist, mit dem verschiedene Funktionen getestet werden können, ohne das gesamte System vom Netz zu nehmen. Eine dieser Funktionen ist die so genannte „Kommunikationsstörung“.
„Im wirklichen Leben übermitteln verschiedene Benutzer Aufträge an den Supercomputer, der eine Art Zeitplanung vornimmt, um festzulegen, wann diese Aufträge ausgeführt werden“, sagt Ross. „In der Regel laufen auf dem Supercomputer mehrere verschiedene Aufträge gleichzeitig. Sie nutzen verschiedene Rechenknoten, aber sie teilen sich die Netzwerkressourcen. So kann die Kommunikation eines anderen Jobs den eigenen Job verlangsamen, je nachdem, wie die Daten durch das Netzwerk geleitet werden. Mit unseren Simulationen können wir diese Art von Situationen erforschen und Dinge wie andere Routing-Protokolle testen, die dazu beitragen könnten, die Leistung des Netzes zu verbessern.
Wofür werden Supercomputer verwendet?Nur zur Simulation der Realität
In den letzten Jahrzehnten und bis heute besteht der wichtigste Beitrag der Supercomputer zur Wissenschaft in ihrer immer besseren Fähigkeit, die Realität zu simulieren, um den Menschen zu helfen, bessere Leistungsvorhersagen zu machen und bessere Produkte zu entwerfen, und zwar in Bereichen wie der Fertigung, der Ölindustrie, der Pharmazie und dem Militär. Jack Dongarra, einer der weltweit führenden Supercomputing-Experten, vergleicht diese Fähigkeit mit einer Kristallkugel.
„Angenommen, ich möchte verstehen, was passiert, wenn zwei Galaxien zusammenstoßen“, sagt Dongarra. „Ich kann dieses Experiment nicht wirklich durchführen. Ich kann nicht zwei Galaxien nehmen und sie kollidieren lassen. Also muss ich ein Modell bauen und es auf einem Computer laufen lassen. Oder wenn man früher ein Auto konstruierte, nahm man das Auto und fuhr es gegen eine Wand, um zu sehen, wie gut es dem Aufprall standhielt. Das ist ziemlich teuer und zeitaufwendig. Heute machen wir das nicht mehr so oft; wir bauen ein Computermodell mit allen physikalischen Eigenschaften und lassen es gegen eine simulierte Wand prallen, um herauszufinden, wo die Schwachstellen sind.“
Wofür werden Supercomputer verwendet?
Vor allem Unternehmen sehen den monetären Wert (ROI, wie die Unternehmenstypen sagen) in Supercomputer-Simulationen, ob sie nun Autos herstellen, nach Öl bohren oder neue Medikamente entdecken. Im Jahr 2018 trugen Käufe von Unternehmen und Regierungen zu einem zunehmend robusten Markt für Hochleistungsrechner bei.
„Von den fünfhundert größten Computern sind mehr als die Hälfte in der Industrie angesiedelt“, sagt Dongarra, der einen frühen Teil seiner Karriere in Argonne verbrachte. „Die Industrie hat es verstanden. Sie investieren in Hochleistungsrechner, um wettbewerbsfähiger zu sein und einen Vorsprung vor der Konkurrenz zu haben. Und sie haben das Gefühl, dass das Geld gut angelegt ist. Sie investieren in diese Dinge, um ihre Produkte und Innovationen, ihr Endergebnis, ihre Produktivität und ihre Rentabilität voranzutreiben.“
Aber es geht um mehr als nur den ROI.
„Herkömmliche kommerzielle Unternehmen können Berechnungen der Kapitalrendite sehen, wie z.B. ‚Wir haben diese Menge an Kosten für physische Tests eingespart‘ oder ‚Wir konnten schneller auf den Markt kommen und daher zusätzliche Einnahmen erzielen'“, sagt Andrew Jones, ein im Vereinigten Königreich ansässiger Berater für Hochleistungsrechnen. „Aber eine einfache ROI-Berechnung für HPC zeigt nicht unbedingt, woher der Wert kommt. Wenn Sie eine Ölgesellschaft fragen, geht es nicht darum, dass sie Öl 30 Prozent billiger finden kann. Es kommt darauf an, ob man Öl findet oder nicht.“
Unternehmen, die Supercomputing nutzen, um groß angelegte Verbesserungen vorzunehmen und die Effizienz zu steigern, haben einen Vorteil gegenüber ihren Wettbewerbern.
„Und das Gleiche gilt für einen großen Teil der Wissenschaft“, fügt Jones hinzu. „Man sucht nicht unbedingt nach einer Investitionsrendite in einem bestimmten Sinne, sondern nach allgemeinen Fähigkeiten – ob unsere Forscher in der Lage sind, Wissenschaft zu betreiben, die international wettbewerbsfähig ist oder nicht.“
Das Bedürfnis nach Geschwindigkeit
‚“Es gibt keine zwei größeren Übeltäter von ‚Seht euch an, wie groß mein System ist‘ als die U.USA und China.“
Da schnellere Computer den Forschern einen schnelleren Einblick in das, woran sie arbeiten, ermöglichen, gibt es einen immer größeren Bedarf – oder zumindest einen starken Wunsch – nach Geschwindigkeit. Dongarra bezeichnet dies als „eine nie endende Suche“, und die (noch nicht bewiesenen) anhaltenden Exascale-Fähigkeiten von Aurora wären der bisherige Höhepunkt dieser Suche. Dennoch wird es nur einer von vielen sein. Dutzende weiterer Supercomputer mit manchmal episch klingenden Namen (Titan, Excalibur) sind in 26 anderen Ländern der Welt in Betrieb. Sie werden von 36 verschiedenen Anbietern hergestellt, von 20 Generationen von Prozessoren angetrieben und dienen einer Vielzahl von Branchen sowie staatlichen Aufgaben, die von der wissenschaftlichen Forschung bis zur nationalen Verteidigung reichen.
Diese Statistiken stammen von der Website TOP500.org. Die von Dongarra mitbegründete Website beobachtet seit 1993 alles, was mit Supercomputern zu tun hat, und verwendet seinen LINPACK-Benchmark (der schätzt, wie schnell ein Computer ein oder mehrere Programme ausführen kann), um die Leistung zu messen. Nach der jüngsten Aufstellung der größten und schlechtesten Rechner der Welt hat Amerika fünf (bald sechs) der Top 10 – darunter den schnellsten Supercomputer der Welt im Summit von Oak Ridge und den zweitschnellsten, Sierra, im Lawrence Livermore National Laboratory in Kalifornien. Der Zweitplatzierte China hat nur zwei (aber bald drei). Sicher, das Land belegt 227 der ersten 500 Plätze und hat 303 der Maschinen auf dieser Liste hergestellt, aber die USA können immer noch ihren riesigen Schaumstofffinger schwingen. Im Moment noch. Der Wettbewerb ist im Gange und es gibt keine Anzeichen dafür, dass er nachlässt.
„Es gibt keine zwei größeren Übeltäter des ‚Schaut mal, wie groß mein System ist‘ als die USA und China“, sagt Nicole Hemsoth, Mitbegründerin und Mitherausgeberin von The Next Platform.
Während China sich in der Vergangenheit weniger um die Top 500 gekümmert hat, erklärt sie, hat das Land in den letzten Jahren High Performance Computing zu einem „Punkt des nationalen Stolzes“ gemacht, indem es mehr Wert auf „Spitzenleistung“ legt und Milliarden dafür ausgibt. Andere Exascale-Konkurrenten sind Frankreich und Japan. Einer Studie zufolge werden 10 Milliarden Dollar der prognostizierten 130 Milliarden Dollar, die zwischen 2018 und 2021 für Supercomputer ausgegeben werden, in Exascale-Systeme wie das in Argonne geplante fließen.
„Der Wettlauf zwischen den Ländern ist teilweise real und teilweise künstlich“, sagt Jones. „Wenn Sie zum Beispiel der Direktor eines US-Labors sind und versuchen, die Finanzierung Ihrer nächsten HPC-Maschine zu sichern, ist es ein sehr gutes Argument zu sagen: ‚Nun, China hat eine, die zehnmal größer ist, also müssen wir aufholen.‘ Die Europäische Union und China spielen das gleiche Spiel gegen die USA, so dass ein wenig Spannung erzeugt wird, die nicht unbedingt real ist, aber sie trägt dazu bei, die .“
Auch die Medien spielen eine wichtige Rolle. Journalisten lieben es, hirnverbrannte Supercomputer-Statistiken zu präsentieren und sie anschaulich zu erklären. Ein Beispiel dafür finden Sie am Anfang dieser Geschichte. Hier ist ein weiteres, von der New York Times: „Wenn ein Stadion, das für 100.000 Menschen gebaut wurde, voll wäre und jeder darin einen modernen Laptop hätte, bräuchte es 20 Stadien, um die Rechenleistung von Summit zu erreichen. SIND SIE NICHT ENTERTAINED?
Auch Regierungsvertreter schwärmen von ihren Supercomputern und preisen ihre gigantische Rechenleistung als Schlüssel zur Verbesserung der Gesellschaft an – und natürlich als Beweis für die totale Großartigkeit ihres Landes. John F. Kennedy, der 1961 den Weltraumwettlauf ankurbelte, wäre davon begeistert gewesen.
„Es geht um grundlegende wirtschaftliche Wettbewerbsfähigkeit“, sagt Jones. „Wenn man so weit zurückfällt, dass eine Nation wirtschaftlich nicht mehr mit anderen vergleichbar großen Nationen konkurrenzfähig ist, dann führt das zu einer ganzen Reihe anderer politischer und sicherheitspolitischer Probleme, mit denen man sich auseinandersetzen muss.“
COmputing SPeed + Power = Military Might
Abgesehen von den sicherheitspolitischen und wirtschaftlichen Aspekten, fügt er hinzu, sehen diejenigen, die die Implikationen des Hochleistungsrechnens genau verstehen, dessen enormen Nutzen für Wissenschaft, Wirtschaft und andere Bereiche. „Es ist also eine Selbstverständlichkeit, dass wir diese Dinge tun.“ (Zugegeben, in einigen Berichten werden diese Vorteile übertrieben dargestellt.) An der Atomwaffenfront beispielsweise haben sich Supercomputer als großer Segen für Dinge erwiesen, die in die Luft fliegen. Ausgefeilte Simulationen haben Tests in der realen Welt überflüssig gemacht.
„Sie entwickeln nicht mehr etwas, gehen in die Wüste, bohren ein Loch und sehen, ob es funktioniert“, sagt Dongarra über eine Praxis, die vor Jahrzehnten eingestellt wurde. „Sie simulieren das Design auf einem Supercomputer. Sie simulieren auch, was damit passiert, wenn sie so viele Jahre im Regal stehen, denn sie müssen überprüfen, ob der Vorrat funktioniert.“
Im Rahmen einer umfassenden Modernisierung hat das Air Force Research Lab – eines von fünf Supercomputerzentren des US-Verteidigungsministeriums – kürzlich vier gemeinsam nutzbare Supercomputer installiert, auf denen das gesamte US-Militär geheime Forschungsarbeiten durchführen kann. Das Projekt wurde als Möglichkeit beworben, Forschern der Air Force, der Army und der Navy dabei zu helfen, „schnell auf die dringlichsten und komplexesten Herausforderungen unserer Nation zu reagieren, was auch die Bereitstellung neuer Fähigkeiten für die Streitkräfte zu geringeren Kosten für den Steuerzahler beschleunigt.“
Interpretieren Sie das, wie Sie wollen.
Supercomputing und künstliche Intelligenz
Künstliche Intelligenz ist noch ziemlich rudimentär, aber Supercomputer ändern das, indem sie maschinelle Lernprozesse beschleunigen, um aus mehr Daten schnellere Ergebnisse zu erzielen – wie in dieser klimawissenschaftlichen Forschung.
„Wer sich mit Supercomputing beschäftigt, glaubt an die Macht des Algorithmus, der aus der wiederholten Umsetzung von Verfahrenslogik wertvolle, aussagekräftige Informationen herausdestillieren kann“, schreibt Scott Fulton III in einem aufschlussreichen Artikel auf ZDNet. „Dem Supercomputing liegen zwei Ideale zugrunde: das eine besagt, dass die Maschine von heute irgendwann zu einer neuen und außerordentlich wertvollen Lösung gelangen wird, gefolgt von der zweiten und subtileren Vorstellung, dass die Maschine von heute ein Prototyp für die Maschine von morgen ist.“
Wie der Direktor von Argonne, Paul Kearns, gegenüber HPCWire erklärte, ist Aurora für die „nächste Generation“ der KI gedacht, die wissenschaftliche Entdeckungen beschleunigen und Verbesserungen in Bereichen wie der extremen Wettervorhersage, medizinischen Behandlungen, der Kartierung des Gehirns und der Entwicklung neuer Materialien ermöglichen wird. Es wird uns sogar helfen, das Universum besser zu verstehen, fügte er hinzu, „und das ist erst der Anfang.“
Während Dongarra glaubt, dass Supercomputer die Zukunft der KI prägen werden, ist nicht ganz absehbar, wie genau das geschehen wird.
„Bis zu einem gewissen Grad werden die Computer, die heute entwickelt werden, für Anwendungen verwendet werden, die künstliche Intelligenz, Deep Learning und Neuro-Networking-Berechnungen benötigen“, sagt Dongarra. „Es wird ein Werkzeug sein, das den Wissenschaftlern hilft, einige der schwierigsten Probleme, die wir haben, zu verstehen und zu lösen.“
„Going to be“ – Zukunftsformel. KI-Arbeiten machen immer noch nur einen kleinen Teil der Arbeit von Supercomputern aus. Zum größten Teil, so Jones, sind sie „Zeitmaschinen“, die „die nächste Wissenschaft von vor fünf Jahren in die Gegenwart bringen“
„Neunzig Prozent der traditionellen HPC-Installationen führen immer noch traditionelle HPC-Arbeitslasten aus – technische Simulationen, Fluiddynamik, Wetter- und Klimamodellierung“, erklärt er. „Und KI ist bei fünf oder zehn Prozent dabei, um diese zu ergänzen und zu verbessern, aber sie dominiert noch nicht die Anforderungen für den Kauf von HPC-Plattformen oder sogar für die Ausrichtung von HPC-Finanzierungsprogrammen.“
Hemsoth glaubt, dass es wahrscheinlich noch fünf Jahre dauern wird, bis bestehende HPC-Workflows viel KI und Deep Learning enthalten, die beide andere Rechenanforderungen haben werden als heute.
„Jeder ist ein bisschen voreilig, wenn es um KI geht“, sagt sie. „Sie kaufen Systeme, die für KI geeignet sind, so wie sie jetzt ist. KI wird ein praktischer Teil der Arbeitslasten sein, aber sie wird sich verändern. Und die eigentliche Software und Anwendung, auf der die Dinge laufen müssen, wird sich ändern, was wiederum die benötigte Hardware verändern wird. Diese Dinge entwickeln sich rasant, aber mit sehr langen Hardware-Produktionszyklen – vor allem, wenn man ein nationales Labor ist und diese Dinge drei bis fünf Jahre beschaffen muss, bevor man die Maschine überhaupt bekommt.“
Die Zukunft des Supercomputing
„Die Verbesserung der Menschheit ist ein edles Ziel.“
Weiterer Denkanstoß: Ihr heutiges Smartphone ist so schnell wie ein Supercomputer im Jahr 1994 – einer, der 1.000 Prozessoren hatte und Nuklearsimulationen durchführte. (Gibt es dafür eine App?) Es liegt also nahe, dass das Smartphone (oder wie auch immer es heißen mag), das Sie in einem Vierteljahrhundert haben werden, theoretisch auf dem Niveau von Aurora sein könnte. Der Punkt ist, dass dieses Zeug sehr schnell ist – und es wird immer schneller. Dongarra bringt es folgendermaßen auf den Punkt:
„Wir haben 1997 auf einer Maschine der Sandia National Laboratories Teraflops erreicht. Das waren 1012 Teraflops. Dann, im Jahr 2008, erreichten wir Petaflops – 1015 – in Los Alamos. Jetzt stehen wir kurz davor, Anfang 2020 oder 2021 die Exascale mit 1018 Operationen zu erreichen. In wahrscheinlich 10 oder 11 Jahren werden wir Zettascale erreichen – 1021 Operationen pro Sekunde. Als ich mit der Datenverarbeitung begann, waren es noch Megaflops – 106 Operationen. Die Dinge ändern sich also. Es gibt Änderungen in der Architektur, Änderungen in der Software und in den Anwendungen, die damit einhergehen müssen. Der Wechsel auf die nächste Stufe ist eine natürliche Entwicklung.“
Ein kürzlich auf TOP500.com erschienener Artikel mit dem Titel „Supercomputing is heading towards an existential crisis“ zeichnet ein Bild der Zukunft, in der Simulationen in den Hintergrund treten.
„Insbesondere das maschinelle Lernen könnte in den nächsten anderthalb Jahrzehnten die meisten Bereiche der Datenverarbeitung, einschließlich HPC (und sogar Datenanalyse), dominieren“, schreibt der Autor Michael Feldman. „Während es heute meist als zusätzlicher Schritt im traditionellen wissenschaftlichen Rechnen eingesetzt wird – sowohl für vor- als auch für nachgelagerte Simulationen -, könnte es in einigen Fällen, wie z. B. bei der Entdeckung von Arzneimitteln, Simulationen möglicherweise ganz ersetzen.“
Welche Form Supercomputer auch immer annehmen, Papka von Argonne sagt, dass sie immer leistungsfähiger und umwälzender werden und sich auf alles auswirken, von der Entwicklung effizienterer Batterien für Elektroautos bis hin zur Ausrottung lange bekämpfter Krankheiten wie Krebs. Zumindest hofft er das.
„Die Verbesserung der Menschheit“, sagt Papka, „ist ein edles Ziel.“
VerwandteLesen Sie mehr Geschichten über Hardware-Unternehmen