Rechenleistung der Zukunft
Mit der Rechenleistung aber werden sich bei den neuen Vielkern-Prozessoren auch die Herausforderungen vervielfachen: Wie kann die Rechenleistung für hochgradig parallele Anwendungen nutzbar gemacht werden? Wie lässt sich die Ausführungszeit von Rechenoperationen verlässlich vorhersagen und planen? Wie kann man Hochleistungsrechnen energieeffizienter gestalten?
An diesen Fragen tüfteln Wissenschaftler von drei Hochschulen unter der Leitung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Forschungsverbund „Invasives Rechnen“.
Der Sonderforschungsbereich/Transregio wird von der Deutschen Forschungsgemeinschaft (DFG) nun in einer weiteren Förderperiode mit 9,6 Millionen Euro unterstützt.
Eine immer größere Zahl an gleichzeitigen Rechenoperationen: in Supercomputern ist dies heute schon Alltag. Auf handelsüblichen Computern sind es heute lediglich bis zu acht Kerne, die parallel arbeiten. Aber auch in der Rechnertechnologie von Smartphones, Tablet-PCs und auch im Automobil ist diese hohe Rechenleistung immer mehr gefragt. Die drei großen Herausforderungen, die diese Entwicklung mit sich bringt, nehmen die FAU-Forscher in den Blick.
Zum einen gilt es, bereits im Programm anzugeben, welche Rechenleistung im System bereitzustellen ist. Ein Anwendungsbeispiel, das die Forscher im Forschungsverbund „Invasives Rechnen“ hierfür im Visier haben, ist ein Roboter, der sich in einem bestimmten Umfeld bewegt und auf seine Umwelt reagiert.
Alle seine Funktionen müssen gleichzeitig einsatzbereit sein: die Bildverarbeitung beim Sehen zum Beispiel, so dass er die Treppe erkennt, auf die er zuläuft. Dies darf aber gleichzeitig nicht zu Lasten der Steuerung der Beinbewegung gehen, sonst fällt er die Treppe hinunter. Dieses Prinzip lässt sich auf viele komplexe Geräte und Anwendungen übertragen. Auf die Medizintechnik etwa, wo die Bildverarbeitung im Computertomographen ebenfalls hochgradig parallele Rechenleistung erfordert.
Der Zuwachs an Rechenleistung durch viele Prozessoren bringt jedoch eine weitere Herausforderung mit sich: den immer höheren Energieverbrauch. Mehr Prozessoren fressen mehr Strom. Und: Sie erhitzen sich stärker. Das heißt, sie brauchen Kühlung oder können gar nicht alle gleichzeitig betrieben werden, was den Nutzen so vieler Kerne wiederum einschränkt. Rechenzentren, wie das Leibniz-Rechenzentrum in München, haben Stromkosten in Millionenhöhe.
Aber auch im kleineren Maßstab steht ein geringer Energieverbrauch immer weiter oben auf der Prioritätenliste. Waren es früher die Hardwarekosten, die die Anzahl an Prozessoren auf einem Chip limitierten, sind es heute die Stromkosten. Neben vielen anderen technologischen Entwicklungen, die hier Abhilfe schaffen könnten, ist einmal mehr die Rechnersteuerung eine Stellschraube, an der sich drehen lässt.
Die Wissenschaftler arbeiten beispielswiese an Algorithmen, die intelligent die Rechenkapazität nutzen und Operationen von einem Teil des Chips in einen anderen verlagern, der gerade nichts zu tun hat – und dem ersten damit die Gelegenheit geben, abzukühlen. Gelingt es, die Hitzeentwicklung auf dem Chip einzudämmen, wird die Hardware auch sicherer und zuverlässiger – sie altert weniger schnell, fällt seltener aus. Nicht zuletzt in Systemen mit hohen Verlässlichkeitsanforderungen wie in der Luftfahrt oder im Automobil ist dies essentiell.
Schließlich ist das Thema Sicherheit von Anwendungen und deren Daten eine entscheidende Anforderung. Gerade bei Plattformen, auf denen unterschiedliche Anwendungen (Apps) laufen, stellt sich die Frage, mit welchen Mechanismen sich Sicherheit herstellen und garantieren lässt. Dabei geht es nicht nur um sicherheitskritische Daten, sondern auch darum, zu verhindern, dass eine Anwendung eine andere „beobachten“ kann. Schließlich lassen sich allein schon aus Rechenmustern – zum Beispiel der Rechenintensität zu bestimmten Zeiten – Informationen gewinnen.
Bei all diesen Fragestellungen bauen die Forscherinnen und Forscher der FAU auf den Ergebnissen der vergangenen vier Jahre auf, in denen sie zeigen konnten, dass sich die Idee des invasiven Rechnens von der Anwendung bis hinunter zur Hardware durchgängig umsetzen lässt.
„Für den IT-Standort Deutschland ist es von herausragender Bedeutung, dass Rechnertechnologie nicht nur im Ausland eingekauft und hier in Produkten verbaut wird, sondern dass auch die deutsche IT-Landschaft mit Innovationen aufwarten kann und die Technologie durchgängig beherrscht“, meint Transregio-Sprecher Prof. Dr. Jürgen Teich, Lehrstuhl für Informatik 12, Hardware-Software-Co-Design.
„Natürlich werden es weiterhin die großen bekannten Hersteller sein, die neue Generationen an Prozessoren auf den Markt bringen. Die Erfüllung von Qualitätszusagen für Programme, wie Zuverlässigkeit, Ausführungszeit und Sicherheit, erfordert jedoch ein radikales Umdenken aller Hard- und Softwarestrukturen inklusive der Betriebssystemfunktionen. Genau das will unser interdisziplinärer Sonderforschungsbereich darlegen durch eigene Neuentwicklungen – angefangen vom Aufbau von Vielkern-Prozessoren bis hin zu neuen Programmiersprachelementen.“
Weitere Informationen für die Medien:
Prof. Dr. Jürgen Teich
Tel.: 09131/85-25150
teich@informatik.uni-erlangen.de
Media Contact
Weitere Informationen:
http://www.fau.de/Alle Nachrichten aus der Kategorie: Informationstechnologie
Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.
Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.
Neueste Beiträge
Neue Erkenntnisse zur Blütezeit-Regulation
Einfluss von Kohlenstoff- und Stickstoff-Signalwegen auf Blütenrepressoren bei Arabidopsis. In einer aktuellen Publikation in der Fachzeitschrift Plant Physiology hat ein internationales Forschungsteam, dem unter anderem Dr. Justyna Olas als eine…
Wenn Hepatitis-E-Viren Nervenzellen angreifen
Hepatitis-E-Viren (HEV) verursachen normalerweise Leberinfektionen. Sie können aber auch andere Organe befallen und insbesondere neurologische Erkrankungen auslösen. Über die Details ist noch wenig bekannt. Ein Forschungsteam um Michelle Jagst und…
Was T-Zellen im Tumor müde macht
Detaillierte Analyse im Journal Blood von Extramedullären Läsionen beim multiplen Myelom und neue Therapieansätze. Die extramedulläre Erkrankung (EMD) ist ein Hochrisikofaktor beim Multiplen Myelom. Angela Riedel und Leo Rasche vom…