HYPERRAUM.TV-Doku: Quantencomputing für Teilchenmodelle

Themenschwerpunkt Quantencomputing (Folge 2): Karl Jansen vom DESY ist Professor für Teilchenphysik. Er versucht in einem großen Projekt die Möglichkeiten des Einsatzes von Quantencomputern für die Teilchenphysik auszuloten. Es könnte zuerst in Kombination mit Machine Learning und neuronalen Netzen zu besserer Klassifizierung der führen. Für den Theoretiker bietet das Quantencomputing aber eine noch viel weitreichendere Perspektive: Jansen ist überzeugt, dass es uns zu einer neuen Physik mit einem verbesserten Teilchenmodell führen wird. Wie, darüber spricht Susanne Päch in dieser Sendung mit ihm.

Noch haben Teilchenphysiker allerdings keine gemeinsame Sicht auf solche Zukunftsperspektiven. Jansen macht deutlich, dass sich die Welt der Physiker bei diesem Thema deutlich spaltet: in die Optimisten, die wie Jansen selbst, versuchen, diese Visionen ins Machbare umzusetzen – und in die Kritiker, die es bezweifeln, dass sie jemals Wirklichkeit werden könnten.

Noch geht es um Grundlagenforschung, die Jansen in seinem Projekt auf dem Quantencomputer One von IBM aufsetzt. Will man solchen Themen mit einem Set von sogenannten Quantengattern näher rücken, müssen sie zuerst einmal für diese Berechnungen im mehrdimensionalen Quantenraum programmiert werden. Diese Forschungen sind noch voll im Gange. Noch fehlt ein harter Nachweis, dass Quantencomputer so programmiert werden können, dass sie bessere Ergebnisse als konventionelle Computer erbringen. Insofern ist der Quantencomputer auch kein isoliertes System, vielmehr wird er „konventionell“, wenn auch mit spezifischen Programmieranforderungen, digital programmiert. Mikrowellenimpulse übertragen dann die digitalen Algorithmen in die analoge Welt von Quantenschaltkreisen, die die Rechnungen entsprechend der Anweisungen aus dem Programm dann ausführen.

Generell gilt: Etliche Aufgaben, beispielsweise einfaches Rechnen, können klassische Computer wohl auf lange Sicht wesentlich effizienter erledigen als QUantencomputer. Dagegen haben sie immer dann Vorteile, wenn es um die Berechnung wissenschaftlicher Simulationen geht. Zu identifizieren, welche Aufgaben von einem Quantencomputer bei solchen Simulationen besonders gut erledigt werden können, ist das Zentrum von Jansens Forschungen – ein Feld, das längst noch nicht erschlossen und eingebettet in weltweite Forschungsanstrengungen ist. Sogar hybride Systeme aus digitalen Rechnern und Quantencomputern werden inzwischen auf ihre Einsatzmöglichkeiten untersucht, um auszuloten, ob und wie sich das Beste aus beiden Welten zusammenbringen lässt.

Optimierung der Mustererkennung gegen die Datenexplosion

In der Teilchenphysik treffen Quantencomputer auf eine Forschungswelt, in der gerade Algorithmen der neuronalen Netze mit Künstlicher Intelligenz Einzug halten. Und das aus gutem Grund: Denn die Beschleuniger-Experimente werden immer mächtiger – und damit auch das Problem einer nicht beherrschbaren Datenexplosion bei den Teilchenkollisionen. Die Datenmengen eines Einzelbildes, die beispielsweise jeder der vier LHC-Detektoren generiert, sind mit der Auflösung einer Digitalkamera von rund 70 Megapixeln vergleichbar. Allerdings schießt das System in jeder Sekunde hunderttausend solcher Bilder – mit hunderten an Terabytes. Das sprengt die Speicherfähigkeit der größten Datenverarbeitungsanlagen. Deshalb sind die Detektoren schon heute mit sogenannten Triggern ausgestattet, die bereits bei der Detektion eines Teilchens darüber entscheiden, welche der Daten überhaupt gespeichert oder welche gleich verworfen werden. Beispielsweise löschen die Algorithmen sofort sämtliche Daten, die nicht den eingestellten Parametern der Trigger entsprechen.

Auch für die nach der Messung folgende Datenauswertung experimentieren die Wissenschaftler im CERN seit einiger Zeit mit lernenden KI-Algorithmen. Die Idee dabei: mit KI-erlernter, verbesserter Klassifizierung und der damit möglichen Optimierung der Mustererkennung in den Daten wollen die Forscher der Datenflut noch besser Herr werden. Das tut Not. Jansen berichtet in der Sendung darüber, dass heute in Forschungslabors schon an der nächsten Generation von Detektoren gearbeitet wird: an sogenannten Quantendetektoren. Sie würden dann schon auf der Detektorebene Quantendaten sammeln – mit einer weiteren deutlichen Erhöhung der bei Experimenten entstehenden Datenlast.

Das Quantencomputing könnte künftig im Verbund mit dem Machine Learning bei der Optimierung der Mustererkennung der Daten mitwirken. Damit wäre der Quantencomputer zuerst einmal ein neues Hilfsmittel der Experimentatoren in der Physik. Doch bleibt das Quantencomputing nicht auf solche Themen beschränkt. Der theoretische Teilchenphysiker Jansen sieht weitere Anwendungen auch für seine eigenen Forschungen zum Teilchenmodell. Er hofft, dass im Verbund mit Quantencomputern sogar die Entwicklung einer neuen theoretischen Teilchenphysik möglich wird. Gemeint sind Erkenntnisse, die durch neuartige Simulationen Bereiche des Teilchenmodells berechenbar machen, die bisher aufgrund ihrer gewaltigen Komplexität für klassische Computer nicht beherrschbar sind.

Ein Beispiel dazu: Im Standardmodell spielen Symmetrien eine große Rolle, beispielsweise Spiegelungen von Ladung und Spiegelungen im Raum. Der Physiker spricht von „CP-Verletzung“, wobei C t für charge conjugation, also Ladungskonjugation, und P für parity, also Parität, steht.  Auf das Verhalten der Teilchenwelt haben solche Spiegelungen meist keinen Einfluss. Das zeigen viele Experimente. Aber es gibt sonderbare Ausnahmen, in denen das anders ist. Warum? Erklären kann das der Theoretiker mit dem Standardmodell heute nicht geben, weil solche Detail-Berechnungen mit klassischen Computern unmöglich sind. Und ebenso hat er kaum Möglichkeiten, alternative komplexe Lösungsvorschläge numerisch zu simulieren, um ihrer Beantwortung so auf die Spur zu kommen. Die CP-Verletzung ist eines dieser Phänomene, für das sich Jansen durch das künftige Quantencomputing neue Aufschlüsse erhofft.

Jansen selbst forscht an der sogenannten Gittereichtheorie. Sie ist für die Modellierung von Computer-Simulationen generell von zentraler Bedeutung. Mit diesen Gittern lässt sich nämlich der kontinuierliche Raum der analogen Welt für die digitalen Berechnungen auf einem Computer diskret rastern und der physikalische Prozess darin in einem geeigneten Gittermodell beschreiben. Auch Wetter- und Klimaforscher arbeiten mit solchen Gittermodellen, die sie über die Erdoberfläche zu ziehen. Dort haben diese Gitter je nach Fragestellung eine Ausdehnung zwischen einem und hundert Kilometern. In der Teilchenphysik liegt die Dimension der Gittermodelle dagegen im Mikrobereich. Und für den künftigen Einsatz in Quantencomputern entwickelt Jansen jetzt sogar Modelle für Gitter, die geeignet sind, um die Physik des atomaren Innenlebens zu beschreiben. Denn das Gitter könnte in einem Quantencomputer auf die Größe eines Protons schrumpfen.

Jansen kann sich weiter vorstellen, in solchen Miniaturmodellen aus 4 x 4 x 4 Gitterpunkten vom bekannten Istzustand der Materie auszugehen und mit der starken Wechselwirkung in einem vierdimensionalen Modell wie in einer Zeitreise in die Vergangenheit bis nahe an den Urknall heranzurechnen – mit, wie er überzeugt ist, erheblichem Erkenntnispotenzial. Ein Beispiel: „Wir kennen heute drei Phasen der Materie: fest, flüssig, gasförmig. Aber vielleicht gibt es in der frühen Phase des Universums weitere, bisher unbekannte Zustände der Materie?“ Jansen ist sicher, dass man solchen Fragen künftig dank des Einsatzes von Quantencomputern genauer auf den Grund gehen kann.

Wird uns der Quantencomputer dem Teilchenphysiker bald eine neue Dimension des Standardmodells eröffnen? Jansen jedenfalls ist davon fest überzeugt.

Ansprechpartner:
Dr. Susanne Päch
Chefredaktion HYPERRAUM.TV
Bavariafilmplatz 3
82031 Grünwald
susanne.paech@hyperraum.tv

http://hyperraum.tv

Media Contact

Dr. Susanne Päch
HYPERRAUM.TV

Alle Nachrichten aus der Kategorie: Kommunikation Medien

Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.

Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Spitzenforschung in der Bioprozesstechnik

Das IMC Krems University of Applied Sciences (IMC Krems) hat sich im Bereich Bioprocess Engineering (Bioprozess- oder Prozesstechnik) als Institution mit herausragender Expertise im Bereich Fermentationstechnologie etabliert. Unter der Leitung…

Datensammler am Meeresgrund

Neuer Messknoten vor Boknis Eck wurde heute installiert. In der Eckernförder Bucht, knapp zwei Kilometer vor der Küste, befindet sich eine der ältesten marinen Zeitserienstationen weltweit: Boknis Eck. Seit 1957…

Rotorblätter für Mega-Windkraftanlagen optimiert

Ein internationales Forschungsteam an der Fachhochschule (FH) Kiel hat die aerodynamischen Profile von Rotorblättern von Mega-Windkraftanlagen optimiert. Hierfür analysierte das Team den Übergangsbereich von Rotorblättern direkt an der Rotornabe, der…