Zuhause Vorausdenken Endlich sind große Veränderungen für Supercomputer in Sicht

Endlich sind große Veränderungen für Supercomputer in Sicht

Video: Fugaku: the supercomputer helping us understand how coronavirus spreads | ABC News (November 2024)

Video: Fugaku: the supercomputer helping us understand how coronavirus spreads | ABC News (November 2024)
Anonim

Rückblickend auf die dieswöchige ISC 17 Supercomputing-Konferenz sieht es so aus, als würde die Supercomputing-Welt in den nächsten Jahren einige große Verbesserungen erfahren, aber das Update auf die zweimal jährlich erscheinende Top 500-Liste der schnellsten Supercomputer der Welt war nicht sehr unterschiedlich die vorherige Version.

Die schnellsten Computer der Welt sind nach wie vor die beiden massiven chinesischen Computer, die seit einigen Jahren an der Spitze der Liste stehen: Sunway TaihuLight-Computer vom chinesischen National Supercomputing Center in Wuxi mit einer anhaltenden Linpack-Leistung von mehr als 93 Petaflops (93.000 Billionen Gleitkomma) Operationen pro Sekunde); und der Tianhe-2-Computer des chinesischen Super-Computer-Zentrums in Guangzhou mit einer anhaltenden Leistung von mehr als 33, 8 Petaflops. Diese bleiben mit großem Abstand die schnellsten Maschinen.

Die neue Nummer drei ist das Piz Daint-System des Swiss National Supercomputing Center, ein Cray-System, das Intel verwendet Xeons und Nvidia Tesla P100s, die kürzlich aufgerüstet wurden, um eine anhaltende Linpack-Leistung von 19, 6 Petaflops zu erzielen, doppelt so hoch wie zuvor. Damit ist es von Platz acht auf der Liste aufgerückt.

Damit fällt das US-amerikanische Spitzensystem - das Titan-System im Oak Ridge National Laboratory - auf den vierten Platz zurück. Damit ist es das erste Mal seit zwanzig Jahren, dass es kein US-amerikanisches System unter den ersten drei gibt. Der Rest der Liste bleibt unverändert, wobei die USA immer noch fünf der Top 10 und Japan zwei der Top 10 ausmachen.

Auch wenn sich an der schnellsten Computerliste nicht viel geändert hat, gibt es anderswo große Änderungen. Auf der Green 500-Liste der energieeffizientesten Systeme haben sich neun der Top Ten geändert. Hinzu kommt das Tsubame 3.0-System, ein modifiziertes HPE ICE XA-System am Tokyo Institute of Technology, das auf einem Xeon E5-2680v4 14-Core, einer Omni-Path-Verbindung und Nvidias Tesla P100 basiert und 14, 1 Gigaflops pro Watt ermöglicht. Dies ist ein enormer Sprung von Nvidias DGX Saturn V, basierend auf der DGX-1-Plattform und den P100-Chips des Unternehmens, die mit 9, 5 Gigaflops / Watt die Nummer eins auf der November-Liste und diesmal die Nummer zehn waren. Der P100 gehört zu neun der zehn besten Green500-Systeme.

Das Brechen von 10 Gigaflops / Watt ist eine große Sache, da dies bedeutet, dass ein hypothetisches Exaflop-System, das mit der heutigen Technologie gebaut wurde, weniger als 100 Megawatt (MW) verbraucht. Das ist immer noch zu viel - das Ziel für ein Exaflop-System liegt bei 20 bis 30 MW, was die Forscher in den nächsten fünf Jahren erhoffen -, aber es ist ein großer Schritt nach vorn.

Wie bei der Top 500-Liste gab es auch bei ähnlichen Listen mit unterschiedlichen Benchmarks nur geringfügige Änderungen, z. B. beim HPCG-Benchmark (High Performance Conjugate Gradients), bei dem Maschinen in der Regel nur 1 bis 10 Prozent ihrer theoretischen Spitzenleistung erzielen und bei denen die Spitzenleistung erreicht wird System - in diesem Fall die Riken K-Maschine - liefert immer noch weniger als 1 Petaflop. Sowohl das TaihuLight- als auch das Piz Daint-System rückten in dieser Liste nach oben. Wenn Forscher von einer Exaflop-Maschine sprechen, meinen sie in der Regel den Linpack-Benchmark, aber HPCG ist in Bezug auf die tatsächliche Leistung möglicherweise realistischer.

Das Aufkommen des GPU-Computing als Beschleuniger - fast immer unter Verwendung von Nvidia-GPU-Prozessoren wie dem P100 - war in den letzten Jahren die sichtbarste Änderung in diesen Listen, gefolgt von der Einführung des Intel-eigenen Beschleunigers, des Xeon Phi mit vielen Kernen (einschließlich die neueste Version von Knights Landing). Die aktuelle Top 500-Liste umfasst 91 Systeme, die Beschleuniger oder Coprozessoren verwenden, darunter 74 mit Nvidia-GPUs und 17 mit Xeon Phi (weitere drei verwenden beide). eine mit einer AMD Radeon-GPU als Beschleuniger und zwei mit einem Vielkernprozessor von PEZY Computing, einem japanischen Zulieferer. Weitere 13 Systeme verwenden jetzt den Xeon Phi (Knights Landing) als Hauptverarbeitungseinheit.

Viele der größeren Änderungen an Supercomputern stehen jedoch noch am Horizont, da wir größere Systeme sehen, die unter Berücksichtigung dieser Konzepte entwickelt wurden. Ein Beispiel ist das neue MareNostrum 4 im Barcelona Supercomputing Center, das unter der Nummer 13 in die Top 500-Liste aufgenommen wurde. Das bisher installierte Lenovo-System basiert auf der kommenden Skylake-SP-Version von Xeon (offiziell das Xeon Platinum 8160 24) -Kernprozessor). Interessant sind hier die drei neuen Cluster der "aufstrebenden Technologie", die für die nächsten Jahre geplant sind, einschließlich eines Clusters mit IBM Power 9-Prozessoren und Nvidia-GPUs, die für eine Spitzenverarbeitungskapazität von über 1, 5 Petaflops ausgelegt sind. eine Sekunde, die auf der Knights Hill-Version von Xeon Phi basiert; und ein dritter basiert auf 64-Bit-ARMv8-Prozessoren, die von Fujitsu entwickelt wurden.

Diese Konzepte werden in einer Reihe anderer großer Supercomputing-Projekte verwendet, insbesondere in mehreren Projekten, die vom US-Energieministerium im Rahmen seiner CORAL-Zusammenarbeit an den Oak Ridge, Argonne und Lawrence Livermore National Labs gefördert wurden. An erster Stelle steht Summit bei Oak Ridge, wo IBM Power 9-Prozessoren und Nvidia Volta-GPUs zum Einsatz kommen und über 150 bis 300 Spitzen-Petaflops bereitgestellt werden sollen. gefolgt von Sierra bei Lawrence Livermore, der über 100 Peak Petaflops liefern soll.

Wir sollten uns dann den Aurora-Supercomputer im Argonne National Laboratory ansehen, der auf der Knights Hill-Version von Xeon Phi basiert und von Cray gebaut wurde und 180 Spitzen-Petaflops liefern soll. Die CORAL Systeme sollten up und Laufen nächstes Jahr.

In der Zwischenzeit haben die chinesischen und japanischen Gruppen ebenfalls Upgrades geplant, die zumeist einzigartige Architekturen verwenden. Es sollte interessant sein zu sehen.

Eine noch größere Verschiebung scheint nur ein wenig weiter entfernt zu sein: die Verschiebung hin zum maschinellen Lernen, typischerweise auf massiv parallelen Prozessoreinheiten innerhalb des Prozessors. Während sich die Linpack-Zahl auf eine Leistung mit 64-Bit- oder doppelter Genauigkeit bezieht, gibt es Anwendungsklassen - einschließlich vieler Deep-Neural-Network-basierter Anwendungen -, die mit Berechnungen mit einfacher oder sogar halber Genauigkeit besser funktionieren. Davon profitieren neue Prozessoren wie die kürzlich angekündigte Volta V100 von Nvidia und die kommende Knights Mill-Version von Xeon Phi. Auf der Messe teilte Intel mit, dass die Version, die im vierten Quartal in Produktion sein soll, neue Befehlssätze für "Low-Precision Computing" mit der Bezeichnung "Quad Fused Multiply Add" (QFMA) und "Quad Virtual Neural Network Instruction" (QVNNI) enthalten werde..

Ich gehe davon aus, dass diese Konzepte auch auf andere Architekturen angewendet werden können, wie beispielsweise die TPUs von Google oder die FPGAs und Nervana-Chips von Intel.

Auch wenn wir in diesem Jahr keine großen Veränderungen sehen, sollten wir nächstes Jahr mit mehr rechnen. Das Konzept einer Exascale-Maschine (1000 Teraflops) ist noch in Sicht, obwohl es wahrscheinlich eine Reihe noch größerer Änderungen beinhalten wird.

Endlich sind große Veränderungen für Supercomputer in Sicht