Weltrekordsimulation: Paderborner Wissenschaftler durchbrechen Exascale-Rechenleistungsschranke

Symbolbild (Universität Paderborn, Thorsten Hennig): Superrechner (hier der Paderborner Noctua) können komplexe Rechenaufgaben in kürzester Zeit erledigen.
Bild: Universität Paderborn

Einem Team um die Paderborner Wissenschaftler Prof. Dr. Thomas D. Kühne und Prof. Dr. Christian Plessl ist es gelungen, als erste Gruppe weltweit die bedeutsame Rechenleistungsschranke von einem sogenannten Exaflop – das sind mehr als eine Trillion Gleitkommaberechnungen pro Sekunde – für eine Anwendung in den rechnergestützten Wissenschaften zu durchbrechen. Damit haben sie einen neuen Weltrekord aufgestellt.

Die Professoren – Plessl ist Informatiker, Kühne Chemiker – haben die Exaflop-Hürde bei einer Simulation des SARS-CoV-2 Spike-Proteins in einer realen Anwendung des wissenschaftlichen Rechnens überwunden. Den Durchbruch haben sie mithilfe des Supercomputers „Perlmutter“ am National Energy Research Scientific Computing Center (NERSC) in den USA geschafft. Aktuell ist Perlmutter der fünftschnellste Rechner der Welt. Grundlage war eine neue Simulationsmethode, die Plessl und Kühne in den vergangenen Jahren entwickelt und in das Open-Source Quantenchemie Softwareprogramm CP2K integriert haben.

Wettlauf um die schnellsten Computer der Welt

Der Hintergrund: In der Welt des Hochleistungsrechnens ist die pro Sekunde durchgeführte Anzahl von Gleitkomma-Rechenoperationen in sogenannter doppelter (64bit) Genauigkeit ein Maßstab für die Leistungsfähigkeit eines Supercomputers. 1984 wurde erstmals die Marke von einer Milliarde Rechenoperationen pro Sekunde erreicht – ein Wert, der heute von jedem Smartphone übertroffen wird. „Mit der wachsenden Bedeutung von Hochleistungsrechen für die Wissenschaft hat ein zunehmender technologischer Wettlauf um den schnellsten Rechner eingesetzt. Seitdem wird halbjährlich eine aktualisierte Rangliste der weltweit 500 schnellsten Hochleistungsrechner veröffentlicht“, erklärt Plessl, der Vorstandsvorsitzender des Paderborn Center for Parallel Computing (PC2) ist, das an der Universität den Superrechner Noctua betreibt. Weitere Meilensteine wurden 1997 (eine Billion Operationen pro Sekunde, ein Teraflop) bzw. 2008 (eine Billiarde Operationen, ein Petaflop) erreicht. Das Rennen um die nächste symbolträchtige Marke von einem Exaflop wurde unmittelbar eröffnet. Plessl: „Die Dimension dieser Zahl wird deutlicher, wenn man sich vergegenwärtigt, dass das Universum etwa 10^18 Sekunden alt ist. Das heißt, hätte ein Mensch seit dem Urknall jede Sekunde eine Rechnung ausgeführt, könnte ein Exascale-Rechner die gleiche Arbeit in einer einzigen Sekunde verrichten.“

Da sich die Technologiesouveränität bei der Digitalisierung der Wissenschaft zunehmend zu einer Frage der internationalen Wettbewerbsfähigkeit entwickelt hat, wurde das Rennen um den ersten Exascale-Rechner zu einem weltweiten Wettstreit, den man auch als das „Space Race des 21. Jahrhunderts“ bezeichnet. „Aktuell stehen wir unmittelbar vor der Schwelle zum Exascale-Zeitalter. Es wird allgemein damit gerechnet, dass der erste Supercomputer, der die Exascale-Schwelle für 64bit Gleitkomma-Berechnungen durchbricht, Ende Mai auf der Internationalen Konferenz zum Hochleistungsrechnen, der ISC, in Hamburg öffentlich angekündigt wird“, erklärt Plessl.

Neue Methode zur massiv parallelen Quantenchemie Simulation

Für die einheitliche Bewertung der Geschwindigkeit eines Supercomputers für die Top 500 Liste wird ein Programm verwendet, das die Lösung eines sehr großen Gleichungssystems berechnet. Plessl erklärt: „Aufgrund der hervorragenden Parallelisierungseigenschaften des Programms können Supercomputer einen sehr hohen Anteil der theoretisch maximal verfügbaren Rechenleistung nutzen. Ein Kritikpunkt an dieser Messmethode ist, dass die praktisch nutzbare Rechenleistung für reale wissenschaftliche Anwendungen oft nur ein kleiner Bruchteil der maximalen Rechenleistung ist. Denn die Verteilung von Rechenaufgaben, der Transfer von Daten und die Koordination der Ausführung auf hunderttausenden von Rechenelementen bringt in der Regel einen erheblichen Verwaltungsaufwand mit sich.“ Die Entwicklung optimierter Simulationsmethoden und Algorithmen zur effizienteren Nutzung der Rechenleistung von massiv parallelen Supercomputern sei daher ein wichtiger Forschungsgegenstand auf dem Gebiet des wissenschaftlichen Rechnens. Dieser Herausforderung hat sich das Team um Plessl und Kühne angenommen. Mit Blick auf Exascale Computer für den Bereich der Simulation chemischer Systeme haben sie 2020 mit der „Submatrix Methode zur genäherten Berechnung von Matrixfunktionen“ ein neues Verfahren vorgestellt, das ideal auf die Anforderungen von Exascale Supercomputern zugeschnitten ist. Kern des Verfahrens ist ein Ansatz, bei dem viele unabhängige Berechnungen auf kleinen dichten Matrizen durchgeführt werden. „Genau diese Art von Operationen lassen sich mit sehr hoher Rechenleistung und Energieeffizienz auf besonders leistungsfähigen Supercomputern ausführen, die über GPU-Beschleunigerhardware verfügen“, ergänzt Kühne.

Simulation in Rekordgröße auf dem JUWELS Booster Supercomputer

Bereits im vergangenen Jahr haben die Paderborner Wissenschaftler auf dem damals schnellsten Supercomputer Europas (heute Platz 8 weltweit), dem „JUWELS Booster“ am Jülich Supercomputing Centre, Simulationen des HI-Virus mit bis zu 102 Millionen Atomen durchgeführt und damit einen Rekord für die größte Elektronenstruktur-basierte Ab-Initio Molekulardynamik-Simulation aufgestellt. Dabei wurde eine Rechenleistung von 324 Petaflops in mixed-precision Gleitkomma-Arithmetik und eine für diese Anwendungsdomäne herausragende Effizienz von 67,7 Prozent der theoretisch verfügbaren Rechenleistung erzielt. Seit der Rekordsimulation in Jülich wurde die Methode stetig weiter verbessert, um die Effizienz der Nutzung der GPU-Hardwarebeschleuniger zu steigern. Um die Exascale-Tauglichkeit der Methode praktisch auszuloten, konnte sich das Team Zugang zum Supercomputer „Perlmutter“ am National Energy Research Scientific Computing Center (NERSC) in den USA sichern. Der Rechner verfügt über genügend Ressourcen, um die Exascale-Schranke zu durchbrechen, wenn statt in 64bit Präzision mit gemischter 32/16bit Präzision gerechnet wird. Das Verfahren steht damit im Kontext des sogenannten Approximate Computing, das – vereinfacht ausgedrückt – mit ungefähren anstatt mit exakten Werten arbeitet.

„Bei einer Simulation des SARS-CoV-2 Spike-Proteins haben wir dann im April unter Verwendung von 4400 GPU Beschleunigern die Exaflop-Schranke durchbrochen und im rechenzeitkritischen Teil der Anwendung 1,1 Exaflops in gemischter Präzision Arithmetik erzielt“, sagt Plessl. „Zur Einordnung: Ein einzelner Simulationsschritt für 83 Millionen Atome dauert 42 Sekunden. Dabei werden etwa 47 x 10^18 Gleitkommaoperationen ausgeführt. Ohne Berücksichtigung des Speicherbedarfs hätte eine solche Berechnung mit dem ersten System der Petaflops-Klasse, Roadrunner aus dem Jahr 2008, etwa 13 Stunden gedauert, mit dem ersten System der Teraflops-Klasse, ASCI Red aus dem Jahr 1997, sogar rund 1,5 Jahre.“

Die Paderborner Wissenschaftler arbeiten bereits an ihrem nächsten Coup: „Der Goldstandard für Atomistische Simulationen in der Chemie und Festkörperphysik ist die Methode der Dichtefunktional-Theorie. Wir sind sehr zuversichtlich, dass wir die Submatrix-Methode auch in diesem Bereich anwenden können“, so Kühne.

Wissenschaftliche Ansprechpartner:

Prof. Dr. Christian Plessl, Fakultät für Elektrotechnik, Informatik und Mathematik der Universität Paderborn und Paderborn Center for Parallel Computing (PC2), Fon: (0)5251 60-5399, E-Mail: christian.plessl@uni-paderborn.de

Prof. Dr. Thomas D. Kühne, Department Chemie und Paderborn Center for Parallel Computing (PC2) der Universität Paderborn, Fon: +49 (0)5251-60 5726, E-Mail: tdkuehne@mail.upb.de

https://www.uni-paderborn.de/nachricht/98024

Media Contact

Nina Reckendorf Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Spitzenforschung in der Bioprozesstechnik

Das IMC Krems University of Applied Sciences (IMC Krems) hat sich im Bereich Bioprocess Engineering (Bioprozess- oder Prozesstechnik) als Institution mit herausragender Expertise im Bereich Fermentationstechnologie etabliert. Unter der Leitung…

Datensammler am Meeresgrund

Neuer Messknoten vor Boknis Eck wurde heute installiert. In der Eckernförder Bucht, knapp zwei Kilometer vor der Küste, befindet sich eine der ältesten marinen Zeitserienstationen weltweit: Boknis Eck. Seit 1957…

Rotorblätter für Mega-Windkraftanlagen optimiert

Ein internationales Forschungsteam an der Fachhochschule (FH) Kiel hat die aerodynamischen Profile von Rotorblättern von Mega-Windkraftanlagen optimiert. Hierfür analysierte das Team den Übergangsbereich von Rotorblättern direkt an der Rotornabe, der…