Neue Einblicke in das 2004 Sumatra-Erdbeben

Ein Seismograf zeichnet die bei Erdbeben entstehenden Wellen auf. (Foto: iStockphoto.com / gpflman)

Münchner Wissenschaftlerinnen und Wissenschaftler haben das Sumatra-Erdbeben, das den verheerenden Tsunami an Weihnachten 2004 auslöste, erstmals detailliert simuliert und neue Einblicke in die geophysikalischen Abläufe gewonnen. Es handelt sich um die größte Bruchmechanik-Simulation eines Erdbebens überhaupt.

Sie wurde auf dem Höchstleistungsrechner SuperMUC des Leibniz-Rechenzentrums (LRZ) der Bayerischen Akademie der Wissenschaften durchgeführt. Die Ergebnisse könnten dazu beitragen, zuverlässigere Frühwarnsysteme zu entwickeln. Das Sumatra-Andamanen-Erdbeben an Weihnachten 2004 war eines der stärksten und zerstörerischsten Erdbeben der Geschichte. Es löste einen verheerenden Tsunamis im Indischen Ozean aus, mindestens 230.000 Menschen starben. Der genaue Ablauf des Bebens wirft immer noch viele Fragen auf.

Genauere Einblicke in die geophysikalischen Abläufe verspricht nun eine Bruchmechanik-Simulation, die ein Team aus Geophysikern, Informatikern und Mathematikern der Technischen Universität München (TUM) und der Ludwig-Maximilians-Universität München auf dem Höchstleistungsrechner SuperMUC des Leibniz-Rechenzentrums (LRZ) durchgeführt hat.

Genaue Vorhersage praktisch unmöglich

Wenn Erdplatten an den Nahtstellen der Erdkruste aufeinander treffen und untereinander abtauchen, entstehen in diesen sogenannten Subduktionszonen in regelmäßigen Abständen starke Erdbeben. Allerdings ist nicht bekannt, unter welchen Bedingungen solch ein „Subduktionsbeben“ einen Tsunami welcher Größe auslöst – eine genaue Vorhersage ist praktisch nicht möglich.

Erdbeben sind hochkomplizierte physikalische Vorgänge. Während sich die mechanischen Prozesse des aufreißenden Gesteins auf einer Skala von einigen Metern abspielen, hebt und senkt sich die gesamte Erdoberfläche über hunderte Kilometer. Während des Sumatra Erdbebens erstreckte sich der Erdbeben-herd über mehr als 1500 Kilometer (etwa die Distanz München–Helsinki oder Los Angeles–Seattle), die größte Bruchlänge, die jemals beobachtet wurde. Der Meeresboden wurde durch das Beben innerhalb von zehn Minuten um bis zu zehn Meter angehoben.

Simulation mit über 100 Milliarden Freiheitsgraden

Um das gesamte Erdbeben zu simulieren, zerlegten die Wissenschaftler das Gebiet, das sich von Indien bis nach Thailand erstreckt, in ein dreidimensionales Gitter mit über 200 Millionen Zellen und mehr als 100 Milliarden Freiheitsgraden.

Die Größe der einzelnen Zellen variierte dabei, je nachdem, welche Auflösung benötigt wurde: An der Erbebenquelle waren die Zellen sehr klein, um die komplizierten Reibungsprozesse aufzulösen, ebenso nahe der Oberfläche, wo es topographische Besonderheiten und relativ langsame seismische Wellen gibt. In Bereichen mit wenig Komplexität und schnellen Wellen wurden die Zellen entsprechend größer gewählt.

Zur Berechnung der Ausbreitung der seismischen Wellen mussten auf den kleinsten Zellen mehr als drei Millionen Zeitschritte berechnet werden. Als Datenquelle nutzte das Team alle verfügbaren Informationen über die geologische Struktur der Subduktionszone und über die Beschaffenheit des Ozeanbodens sowie Laborexperimente zum Gesteinsbruchverhalten.

Zusätzlich zur Plattengrenze berücksichtigten die Wissenschaftler drei verzweigte Verwerfungen, sogenannte „Splay Faults“, die in Verdacht stehen, einen besonders starken Einfluss auf die Tsunami-verursachende Verformung des Ozeanbodens zu haben.

Fast 50 Trillionen Rechenoperationen

„Um die Simulation auf SuperMUC überhaupt und in vertretbarer Zeit durchführen zu können, waren letztlich fünf Jahre Vorarbeit zur Optimierung unserer Erdbeben-Simulations-Software SeiSol nötig – noch vor zwei Jahren hätten wir die 15-fache Rechenzeit für diese Simulation benötigt“, erläutert Informatik-Professor Michael Bader von der TUM.

Alle algorithmischen Komponenten, von der Ein- und Ausgabe der Daten über die numerischen Algorithmen zur Lösung der physikalischen Gleichungen bis hin zur parallelen Implementierung auf tausenden von Multicore-Prozessoren, mussten für den SuperMUC optimiert werden.

Trotzdem rechnete die Sumatra-Simulation fast 14 Stunden auf allen 86.016 Rechenkernen des Super-MUC, und führte dabei fast 50 Trillionen Rechenoperationen (beinahe 10^15 Operationen pro Sekunde, oder ca. 1 Petaflop/s, ein Drittel der theoretischen Spitzenrechenleistung) aus.

Größte und längste Erdbebensimulation

„Uns ist die größte und mit etwa acht Minuten Dauer längste Erdbebensimulation dieser Art gelungen sowie das erste physikalische Szenario eines realen Subduktions-Bruchprozesses überhaupt“, sagt die Geophysikerin Dr. Alice-Agnes Gabriel von der Ludwig-Maximilians-Universität München. „Durch das gleichzeitige Berechnen des komplizierten Brechens mehrerer Verwerfungssegmente und der Ausbreitung seismischer Wellen im Untergrund konnten wir spannende Einsichten in die geophysikalischen Abläufe des Bebens gewinnen.“

„Insbesondere die verzweigten “splay faults”, die man sich als Pop-up Brüche neben dem bekannten Subduktions-Graben vorstellen kann, führen zu langgezogenen, ruckartigen Erhebungen des Meeresbo-dens und damit zu einem erhöhtem Tsunami-Risiko,“ erläutert die Geophysikerin weiter. „Dass wir solch realistische Geometrien in physikalische Erdbeben-Modelle einbeziehen können, ist momentan weltweit einzigartig”.

Gefördert wurde das Projekt von der Volkswagen Stiftung (Projekt ASCETE), von Intel (im Rahmen eines Intel Parallel Computing Center) sowie durch das Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften.

Publikation:

„Extreme scale multi-physics simulations of the tsunamigenic 2004 Sumatra megathrust earthquake“ / doi>10.1145/3126908.3126948 wird auf der SC17 Conference in Denver, Colorado (USA) von 12-17 November 2017.
https://dl.acm.org/citation.cfm?doid=3126908.3126948
http://sc17.supercomputing.org/

Mehr Information:

https://www.lrz.de/services/compute/supermuc/
http://www.seissol.org/

Kontakt:

Prof. Dr. Michael Bader,
Technische Universität München
Lehrstuhl für Informatik V
Tel: +49 (0) 89 35831-7810
bader@in.tum.de
https://www5.in.tum.de/wiki/index.php/Michael_Bader

Die Technische Universität München (TUM) ist mit mehr als 550 Professorinnen und Professoren, 41.000 Studierenden sowie 10.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands.

Media Contact

Erica Gingerich Technische Universität München

Alle Nachrichten aus der Kategorie: Geowissenschaften

Die Geowissenschaften befassen sich grundlegend mit der Erde und spielen eine tragende Rolle für die Energieversorgung wie die allg. Rohstoffversorgung.

Zu den Geowissenschaften gesellen sich Fächer wie Geologie, Geographie, Geoinformatik, Paläontologie, Mineralogie, Petrographie, Kristallographie, Geophysik, Geodäsie, Glaziologie, Kartographie, Photogrammetrie, Meteorologie und Seismologie, Frühwarnsysteme, Erdbebenforschung und Polarforschung.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Lichtmikroskopie: Computermodell ermöglicht bessere Bilder

Neue Deep-Learning-Architektur sorgt für höhere Effizienz. Die Lichtmikroskopie ist ein unverzichtbares Werkzeug zur Untersuchung unterschiedlichster Proben. Details werden dabei erst mit Hilfe der computergestützten Bildverarbeitung sichtbar. Obwohl bereits enorme Fortschritte…

Neue Maßstäbe in der Filtertechnik

Aerosolabscheider „MiniMax“ überzeugt mit herausragender Leistung und Effizienz. Angesichts wachsender gesetzlicher und industrieller Anforderungen ist die Entwicklung effizienter Abgasreinigungstechnologien sehr wichtig. Besonders in technischen Prozessen steigt der Bedarf an innovativen…

SpecPlate: Besserer Standard für die Laboranalytik

Mehr Effizienz, Tempo und Präzision bei Laboranalysen sowie ein drastisch reduzierter Materialverbrauch: Mit der SpecPlate ersetzt das Spin-off PHABIOC aus dem Karlsruher Institut für Technologie (KIT) durch innovatives Design gleich…