Noch schneller: Münchner Superrechner europaweit auf Platz 8
Forscher aus ganz Deutschland nutzen den Hochleistungsrechner am Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften zur Bearbeitung von besonders komplexen Forschungsaufgaben.
Der am Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften betriebene Höchstleistungsrechner Hitachi SR8000-F1 ist nach einer Kapazitätserweiterung um 50% wieder in Benutzerbetrieb. Die erste Ausbaustufe des Superrechners im Wert von 30,7 Millionen Euro, die je zur Hälfte von Bayern und vom Bund aufgebracht worden sind, ging im Juni 2000 als schnellster Rechner Europas mit einer Kapazität von 1,3 Billionen Rechenoperationen pro Sekunde ans Netz. Seither nutzen ihn Wissenschaftler aus ganz Deutschland zur Bearbeitung von besonders komplexen Forschungsaufgaben. Der Rechner war von Anfang an voll ausgelastet.
Nach dem Ausbau stehen jetzt 1344 Prozessoren mit einer Spitzenleistung von 2016 GigaFlop/Sekunde und 1300 Gigabyte Hauptspeicher zur Verfügung. 1 GigaFlop bedeutet hierbei 1 Milliarde Rechenoperationen. Für die Einstufung des Rechners in der sogenannten TOP500 Liste der schnellsten Rechner der Welt wurde eine LINPACK-Leistung von 1645 GFlop/Sekunde gemessen. Damit rangiert der Rechner auf Platz 8 der TOP500-Liste; die erste Ausbaustufe war bis November 2001 auf Rang 17 abgerutscht. Wie weit Europa jedoch insgesamt im Bereich des Höchstleistungsrechnens hinter den USA und Japan herhinkt, zeigt sich u. a. daran, dass derzeit in Europa außer der Maschine am LRZ nur noch der neue Rechner des Deutschen Wetterdienstes unter den weltweit 20 schnellsten Rechnern vertreten ist. Deutschland hat in diesem Bereich folglich dringenden Nachholbedarf: Vor der Inbetriebnahme des Höchstleistungsrechners am LRZ konnten komplexe technische Probleme in den Natur- und Ingenieurwissenschaften zum Teil deswegen nicht gelöst werden, weil es in Deutschland keine Rechner mit der erforderlichen Kapazität gab.
Einsatz von Hochleistungsrechnern in Forschung und Entwicklung
Die Überprüfung durch Experimente wird heute in vielen Bereichen durch detailgenaue Simulationen auf einem Superrechner ergänzt: Zusammen mit geeigneten Visualisierungsmöglichkeiten lassen sich Forschungs- und Entwicklungsarbeiten so deutlich schneller vorantreiben. Möglich wird das durch die rapide Entwicklung der Leistungsfähigkeit von Computern und die Effizienz der für wissenschaftliche Aufgabenstellungen verwendeten Algorithmen.
Schwarze Löcher auf Kollisionskurs
Im Bereich der numerischen Relativitätstheorie führt das Max-Planck-Institut für Gravitationsphysik in Potsdam mit dem Rechner Simulationen der Kollision schwarzer Löcher durch. Schwarze Löcher entstehen aus hinreichend massereichen Sternen am Ende ihres Lebenszyklus. Die Sternmaterie ist dann auf so kleinem Raum konzentriert, dass nicht einmal Licht den Stern verlassen kann. Ein schwarzes Loch ist im Wesentlichen also nur an seiner Gravitationswirkung zu erkennen. Entsprechend können aus Doppelsternsystemen Paare schwarzer Löcher entstehen. Solche Paare sind jedoch von endlicher Lebensdauer, da sich die Partner unter Abstrahlung von Gravitationswellen einander annähern; irgendwann tritt dann eine Kollision ein. Es war bislang aufgrund der mathematischen Komplexität der diesen Vorgang beschreibenden Theorie des Gravitationsfeldes, der allgemeinen Relativitätstheorie von Albert Einstein, nicht möglich, die hierbei entstehenden Gravitationswellen zu berechnen. Die jetzt durchzuführenden Simulationen könnten daher den Experimentatoren, die solche Gravitationswellen direkt messen wollen, wichtige neue Informationen liefern.
Von DNS bis Supraleitung
Im Bereich der theoretischen Festkörper- und Atomphysik sowie der theoretischen Chemie können nun Systeme von erheblich höherer Komplexität als bisher untersucht werden. Zu nennen ist hier die Anwendung von molekulardynamischen Methoden – das sind mathematische Verfahren, mit denen man direkt die Bewegung der Atome in Molekülen unter dem Einfluss der auf sie wirkenden Kräfte bestimmen kann auf die DNS (Desoxyribonukleinsäure). Weiter sind zur Beschreibung des Verhaltens von Hochtemperatur-Supraleitern neue theoretische Konzepte entwickelt worden: offenbar gibt es einen Zusammenhang zwischen dem Phänomen des Antiferromagnetismus – das ist eine spezifische Reaktion eines Festkörpers beim Einbringen in ein Magnetfeld – und der Supraleitung. Dieser Zusammenhang muss bei der Simulation der Hochtemperatur-Supraleiter verwendet werden, um deren physikalische Eigenschaften zuverlässiger als bisher theoretisch vorhersagen zu können. Die SR8000 ermöglicht es, dieses theoretische Konzept numerisch zu verifizieren.
Besser als bisher verstehen möchte man auch das Anlagerungsverhalten von Atomen und Molekülen an Oberflächen, auch Chemisorption genannt, das unter Verwendung von Dichtefunktionalmethoden studiert wird. Dichtefunktionalmethoden sind Verfahren, bei denen alle messbaren physikalischen Größen wie Energie, Impulsverteilung etc. als Funktionen der
Elektronendichte dargestellt werden. Abschließend zu nennen ist die bislang nicht durchführbare Simulation von energetisch hochangeregten Alkaliatomen (etwa Natrium- oder Kaliumatome) in Mikrowellen-Feldern, bei der auf der Hitachi erstmals Eigenwert-Probleme mit Band-Matrizen der Dimension 1,000,000 und der Bandbreite 6000 gelöst werden konnten. Damit kann man jetzt auch zuverlässige Voraussagen über das Ionisationsverhalten dieser Atome machen, also ermitteln, wie stark man das Mikrowellenfeld einstellen muss, damit das am schwächsten gebundene Elektron das Atom verlässt.
Krebsforschung
Im Bereich der Biowissenschaften sind die Simulation der Ausbildung von neuronalen Verbindungen im visuellen Cortex sowie der Einsatz von molekulardynamischen Methoden zur Beschreibung der Dynamik von Proteinen von herausragender Bedeutung. Um zu verstehen, wie man die Entstehung von Krebs bereits auf der zellularen Ebenen verhindern kann, gibt es weiterhin ein Projekt, in dem die Hydrolyse, also der Zersetzungsprozess mit Wasser, von Guanintriphosphat in einem für die Signalübertragung zwischen den Zellwänden wichtigen Protein simuliert werden soll.
Abschließend soll noch ein Projekt erwähnt werden, das tieferen Aufschluss über die Photosynthese in Purpurbakterien liefern soll: Hier spielt das photosynthetische Protein Bacteriorhodopsin eine wichtige Rolle, und seine experimentell gut bekannten Schwingungszustände sind dank der Rechenleistung der SR8000 endlich auch einer Simulation zugänglich.
Generell kann man bezüglich des numerischen Aufwandes im Bereich der Molekulardynamik mit Berücksichtigung quantenmechanischer Effekte folgende Aussage treffen: Die notwendige Rechenzeit wächst mit etwa der dritten Potenz der Zahl der chemisch relevanten Elektronen. Während man also mit den bisher in Deutschland verfügbaren Computern Systeme mit hunderten Atomen simulieren konnte, läßt die Hitachi SR8000 Simulationen mit tausenden Atomen zu.
Strömung, Fluid und Struktur
Die Entwicklungen im Bereich der Strömungsdynamik ermöglichen die numerische Handhabung immer komplexerer Geometrien und der im Zusammenhang damit auftretenden Turbulenzen. Die dazu notwendige Rechenleistung ergibt sich daraus, dass solche Geometrien eine immer feinere Rasterung der sie umgebenden Raumbereiche erforderlich machen. Aufgrund der Dreidimensionalität des Raumes zieht eine Verbesserung der Auflösung um den Faktor 2 in vielen Fällen eine Verachtfachung der Datenmenge und damit auch der Zahl der Rechenoperationen nach sich. Darüber hinaus kann man jetzt auch die Wechselwirkung von Fluid und Struktur zuverlässig simulieren: Eine typischerweise auftretende Situation, die von Mitarbeitern am Institut für Fluidmechanik der Universität Erlangen-Nürnberg auf der SR8000 gerechnet wurde, war die Bestimmung der Bewegung eines Vordaches unter dem Einfluss starker Winde. Bei solchem Forschungsprojekten wächst auch die Bedeutung interdisziplinärer Forschung, die für die Projekte am Höchstleistungsrechner durch das Kompetenznetzwerk für technisch-wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern (KONWIHR) Unterstützung erfährt. KONWIHR wird mit 4,6 Millionen Euro aus der High-Tech-Offensive des Freistaates Bayern gefördert, richtet seine Aktivitäten auf strategische Ziele und treibt notwendige Softwareentwicklungen voran. Diese Softwareprogramme und das Wissen über deren effizienten Einsatz auf Superrechnern sollen in Bayern, Deutschland und langfristig auch in Europa bereitstehen. Geschäftsstellen an der TU München und an der Friedrich Alexander-Universität Erlangen-Nürnberg koordinieren die regionalen Projektbereiche im Norden und Süden Bayerns.
Weitere Informationen:
Dr. Matthias Brehm, Leibniz-Rechenzentrum
der Bayerischen Akademie der Wissenschaften
Tel. 089-289-28773
E-Mail: Matthias.Brehm@lrz-muenchen.de
Media Contact
Weitere Informationen:
http://www.lrz-muenchen.de/services/compute/hlr/#publish1.1.0.0.0.0Alle Nachrichten aus der Kategorie: Interdisziplinäre Forschung
Aktuelle Meldungen und Entwicklungen aus fächer- und disziplinenübergreifender Forschung.
Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Mikrosystemforschung, Emotionsforschung, Zukunftsforschung und Stratosphärenforschung.
Neueste Beiträge
Größte bisher bekannte magnetische Anisotropie eines Moleküls gemessen
An der Berliner Synchrotronstrahlungsquelle BESSY II ist es gelungen, die größte magnetische Anisotropie eines einzelnen Moleküls zu bestimmen, die jemals experimentell gemessen wurde. Je größer diese Anisotropie ist, desto besser…
Tsunami-Frühwarnsystem im Indischen Ozean
20 Jahre nach der Tsunami-Katastrophe… Dank des unter Federführung des GFZ von 2005 bis 2008 entwickelten Frühwarnsystems GITEWS ist heute nicht nur der Indische Ozean besser auf solche Naturgefahren vorbereitet….
Resistente Bakterien in der Ostsee
Greifswalder Publikation in npj Clean Water. Ein Forschungsteam des Helmholtz-Instituts für One Health (HIOH) hat die Verbreitung und Eigenschaften von antibiotikaresistenten Bakterien in der Ostsee untersucht. Die Ergebnisse ihrer Arbeit…