Roboter-U-Boot ahmt Sinnesorgan von Tieren nach: Clever wie ein blinder Fisch
In Zukunft könnten solche autonomen U-Boot-Roboter die Tiefsee erkunden oder trübe Kanäle und Tanks überprüfen. Präsentiert wird „Snookie“ bei der „Langen Nacht der Wissenschaften“ am 15. Mai auf dem TUM-Campus Garching.
Herkömmliche Roboter sind hart im Nehmen: Lebensfeindliche Umgebungen, giftige oder aggressive Gase, Hitze, schlechte Beleuchtung, Feuchtigkeit, Schmutz oder Krankheitserreger machen ihnen nichts aus, ganz im Gegensatz zu Menschen, denen derartige Bedingungen meist nicht zuzumuten sind. Doch diese Roboter können ihre Arbeit nur verrichten, solange das Programm ihnen exakt vorgibt, was sie zu tun haben, jedenfalls die heute üblichen.
Ganz anders bei autonomen Robotern, die in Zukunft intelligent auf ihre Umgebung reagieren und weitgehend selbständig ihre Aufgaben erfüllen sollen. Sie arbeiten nicht stur nach Programm, sondern sind auf ihre eigenen Sinneswahrnehmungen angewiesen. Nur so können sie die Situation erkennen, in der sie sich befinden, und ihre Aufgaben erfüllen. Doch in rauen Umgebungen versagen diese Sinne oft, werden durch Rauch, Staub, Wasser oder hohe Temperaturen lahmgelegt. Neue Sinne sind gefragt, vielleicht sogar Wahrnehmungsorgane, die nicht einmal der Mensch nutzt.
Neue Sinne für die Technik zu erschließen ist das Ziel eines Forschungsprojekts im Rahmen des Münchner Exzellenzclusters CoTeSys (Cognition for Technical Systems). Ausgerechnet im Tierreich sucht der Biophysiker Prof. Leo van Hemmen von der Technischen Universität München nach neuen Möglichkeiten, wie Roboter ihre Umgebung erschließen können. Fische, Skorpione oder Frösche nehmen nämlich Dinge wahr, die menschlichen Organen verborgen bleiben. Sie vermögen damit nicht nur, feinste Druckunterschiede oder Erschütterungen zu messen und Bedrohungen zu erkennen. Sie schaffen sich auf diese Weise auch ein genaues Bild ihrer Umgebung, so dass sie jederzeit in der Lage sind, Entscheidungen zu treffen, etwa welcher Weg der Beste ist, um ein Beutetier zu schnappen, oder wo sie sich hinter Hindernissen verstecken können. Prof. van Hemmen ergründet mit seinen Mitarbeitern, wie Tiere das tun, erforscht die Algorithmen, mit denen ihr Gehirn die Umgebung erfasst und entwickelt Hardware und Computerprogramme, damit Roboter es ihnen nachmachen.
Fische und Amphibien besitzen zum Beispiel das Seitenlinienorgan, das bei Landlebewesen nicht existiert. Mit diesem linienförmigen Sinnesorgan, das sich bei Fischen an beiden Körperseiten entlangzieht, nehmen sie feinste Druck- und Strömungsunterschiede wahr. Damit gelingt es ihnen, selbst in trübem Wasser im Abstand von etwa einer Körperlänge ein sehr differenziertes Bild ihrer unmittelbaren Umgebung zu gewinnen: Wo Hindernisse sind, wo Gefahren lauern oder wo welches Beutetier zu finden ist. Die Seitenlinien bestehen aus hunderten bis tausenden feiner Sinneshaare, die in winzigen Kanälen unter der Haut sitzen und auch kleine Veränderungen der Strömungsgeschwindigkeit registrieren. Der Krallenfrosch Xenopus laevis beispielsweise unterscheidet auf Grund der Schwingungen im Wasser sogar zwischen fressbaren und nicht fressbaren Insekten. In der Feinheit der Wahrnehmung sind diese Sensoren mit dem Innenohr des Menschen vergleichbar, wo hunderttausende feine Sinneshärchen für die differenzierte Wahrnehmung von Geräuschen sorgen, vom Windsäuseln bis zur Symphonie.
Das eigentlich Komplizierte aber ist nicht der Sensor selbst, sondern wie seine Signale weiter verarbeitet werden, so dass ein komplettes Bild der Umgebung entsteht. Denn Druckunterschiede sind weit schwieriger exakt zu orten als Lichtwellen. Das merkt der Mensch etwa daran, dass er – wenn ein Geräusch seine Aufmerksamkeit erregt – automatisch zur Geräuschquelle hinblickt, um den Ort zu bestätigen. Skorpione dagegen finden auch in finsterer Nacht ihre Beutetiere anhand von winzigen Erschütterungen, die sich im Boden übertragen: Die Spinnentiere haben Sinneshaare an den acht Beinen, ihr Gehirn wertet geringste Laufzeitunterschiede von Sandwellen aus und bestimmt so, wo sich die Beute befindet. Mit ähnlichen Algorithmen lassen sich auch die Seitenlinienorgane von Fischen auswerten.
Vorbild und beliebtes Versuchsobjekt für die Münchner Forscher ist der blinde mexikanische Höhlenfisch Astyanax. Er lebt in Höhlen, seine Augen, die er in der Dunkelheit nicht braucht, bilden sich im Laufe der Reife zurück. Dennoch navigiert der Fisch ungehindert in seinem lichtlosen Lebensraum, reagiert flexibel auf Veränderungen und passt sich an neue Umgebungen schnell an. Dass dies auch Roboter lernen können, zeigt der Unterwasserroboter „Snookie“, den ein interdisziplinäres Team von Wissenschaftlern und Technikern unter Leitung von Prof. van Hemmen gebaut hat. „Snookie“ – benannt nach einer Barschart mit ausgeprägtem Seitenlinienorgan – ist ein Roboterfisch aus Plexiglas und Aluminium, etwa 80 Zentimeter lang, mit einem Durchmesser von 30 Zentimetern, vollgestopft mit elektronischer Steuerung und Energieversorgung. An der Außenwand fallen sechs gelbe Propellergondeln auf, die für Fortbewegung und Positionierung sorgen, und der gelbe, halbrunde Bug des Roboterfischs, an dem die Sensoren befestigt werden, die das Unterwasserfahrzeug führen.
Die Wissenschaftler der Technischen Universität München haben bewusst ein Unterwasserfahrzeug als Technologieträger gewählt. Denn damit stellen sich ganz besondere technische Herausforderungen, gerade auch im Vergleich zu autonomen Robotern an Land:
– Die Sicht unter Wasser ist oft auf wenige Zentimeter begrenzt.
Infrarotdetektoren, bei Landrobotern neben Kameras die gängigen Sensoren zur Erkennung der Umgebung, funktionieren unter Wasser nicht.
– Drahtlose Kommunikation ist unter Wasser durch die schlechten Ausbreitungsbedingungen beschränkt.
– Der Energievorrat ist auf die Kapazität der Batterien begrenzt, daher müssen alle Systeme äußerst effizient arbeiten.
– Und außerdem ist höchste Zuverlässigkeit gefragt, denn wenn etwas schief geht, ist ein Unterwasserroboter schnell für immer verloren.
„Ein Unterwasserroboter ist so einsam wie ein Fahrzeug auf dem Mars“, meint der Elektroingenieur Stefan Sosnowski. Er ist Mitarbeiter am Robotik-Lehrstuhl von Prof. Sandra Hirche und zuständig für die Konstruktion des Wasserfahrzeugs. Sein Kollege, der Biophysiker Dr. Jan-Moritz Franosch, hat zusammen mit Studenten ein künstliches Seitenlinienorgan für den Unterwasserroboter entwickelt. Damit kann „Snookie“ etwa eine Handbreit vor dem Bug und an den Seiten Hindernisse und Bewegungen im Wasser erkennen. Das künstliche Organ ermittelt Druck- und Strömungsänderungen rund um den Roboter nicht mit herkömmlichen Staudruckmessern, die viel zu groß und ungenau wären, sondern mit Hitzethermistoren. Sobald sich die Strömungsgeschwindigkeit ändert, führt dies auch zu einer geänderten Wärmeabfuhr in einem beheizten Draht. Und die lässt sich elektronisch in den Sensorelementen auf kleinstem Raum und sehr schnell messen. So registrieren sie Druckschwankungen von weniger als einem Prozent, jede zehntel Sekunde auf einem Raum von wenigen Quadratmillimetern, bei geringstem Stromverbrauch.
Die beiden jungen Wissenschaftler sehen in dem Unterwasserroboter „Snookie “ nicht nur ein Versuchsfahrzeug. Sie erwarten breite Einsatzmöglichkeiten von autonomen Unterwasserrobotern, etwa bei der Untersuchung von Schiffswracks oder bei Suchaktionen in der Tiefsee, auch um nach Flugzeugunglücken die Flugschreiber zu finden. Oder auch – viel profaner – bei der Untersuchung von Tanks und Kanalisation. Prof. van Hemmen erwartet auch beachtliche Möglichkeiten für Roboter mit einem noch sensibleren Seitenliniensystem an Land, denn natürlich funktioniert die Erkennung von Druck- und Strömungsschwankungen auch in der Luft. Daran wird bereits in einem anderen Projekt extern gearbeitet. Die technischen Seitenlinienorgane könnten beispielsweise eine preiswerte Alternative zu Laserscannern sein, die heute die unmittelbare Umgebung eines Roboters abtasten – mit dem Vorteil, dass sie nicht durch andere Roboter geblendet werden wie Laserscanner. Dies würde es ermöglichen, autonome Roboter im Schwarm einzusetzen, was ihnen wiederum ganz neue Aufgabenfelder eröffnet.
Für den Biophysiker Prof. van Hemmen geht es um mehr als um autonome Unterwasserroboter. Er will neue Sinneswahrnehmungen für die Technik erschließen und sie kombinieren, weil er glaubt, dass so die Umgebung viel genauer zu erfassen ist. „Das Stichwort heißt 'multimodale Sensorik'“, erläutert der engagierte Wissenschaftler. „Auch ein Mensch verlässt sich nicht allein auf einen Sinn. Unser Gehirn verbindet vielmehr die Wahrnehmung der unterschiedlichsten Sinne zu einem Gesamtbild unserer Umgebung. Wie wichtig das für unsere Wahrnehmung ist, merken wir erst, wenn einer davon ausfällt.“ Prof. van Hemmen demonstriert dies plastisch an einem Beispiel: „Ein Streichholz zu entzünden dauert normalerweise vielleicht zehn Sekunden, wenn wir aber den Tastsinn durch dünne Handschuhe ausschalten, wird das viel schwerer. Dann reicht oft eine Minute nicht mehr.“
Für die Intelligenz von Robotern, so ist Prof. van Hemmen überzeugt, hilft es wenig, noch mehr Kameras einzubauen, die mehr und mehr Bilder liefern. Wichtiger ist es, dass sie mit unterschiedlichen Sensoren verschiedene Aspekte ihrer Umgebung erkennen. Doch wenn es darum geht, die unterschiedlichen Wahrnehmungen zu kombinieren, muss er tief in die Geheimnisse der Gehirnforschung eindringen: Wie filtern Tiere aus der Fülle der verschiedenen Daten die wirklich relevanten Informationen, wie macht dies der Mensch? Im Rahmen des Exzellenzclusters CoTeSys sieht er die Chance, dies nicht nur herauszufinden, sondern durch die interdisziplinäre Zusammenarbeit mit Physiologen, Informatikern und Ingenieuren die gefundenen Prinzipien auch in Technik zu übertragen: „Aufmerksamkeit ist eine Datenreduktion auf das Wesentliche. Roboter müssen dies lernen, auch mit den unterschiedlichsten Sensorinformationen.“
Gerade diese interdisziplinäre Zusammenarbeit ist eine Spezialität von CoTeSys. In diesem Forschungscluster arbeiten rund 100 Wissenschaftler der unterschiedlichsten Fachrichtungen aus fünf Hochschulen und Forschungsinstituten im Raum München zusammen, um für technische Systeme bessere kognitive Fähigkeiten zu entwickeln. Ziel ist es, dass Roboter selbständiger werden, die Situationen, in denen sie sich befinden, selbst analysieren und flexibel darauf reagieren, vom Erkennen ihrer Umgebung bis zum eigenständigen Wahrnehmen von Aufgaben. Die von der Technischen Universität München (TUM) koordinierte Kooperation wird im Rahmen der Exzellenzinitiative von Bund und Ländern mit insgesamt 28 Millionen Euro gefördert.
Für Rückfragen:
Dr. Uwe Haass,
Geschäftsführer CoTeSys
CCRL – CoTeSys Central Robotics Laboratory
Technische Universität München
Barer Straße 21, 80290 München
CoTeSys – Cognition for Technical Systems
Tel. +49 89 289 25 723, Fax +49 89 289 25 724
E-Mail: gst@cotesys.org
Media Contact
Alle Nachrichten aus der Kategorie: Interdisziplinäre Forschung
Aktuelle Meldungen und Entwicklungen aus fächer- und disziplinenübergreifender Forschung.
Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Mikrosystemforschung, Emotionsforschung, Zukunftsforschung und Stratosphärenforschung.
Neueste Beiträge
Wirkstoff-Forschung: Die Struktur von Nano-Genfähren entschlüsseln
LMU-Forschende haben untersucht, wie sich kationische Polymere beim Transport von RNA-Medikamenten auf molekularer Ebene organisieren. Kationische Polymere sind ein vielversprechendes Werkzeug für den Transport von RNA-Therapeutika oder RNA-Impfstoffen und werden…
Entwicklung klimaneutraler Baustoffe
…aus biogenen Materialien unter Einsatz phototropher Mikroorganismen. Das Fraunhofer-Institut FEP in Dresden bietet skalierbare Forschungs- und Entwicklungsmöglichkeiten, um technologische Innovationen auf neue Produktionsprozesse anzuwenden. Angesichts der steigenden Nachfrage nach klimaneutralen…
Optimiertes Notfallmanagement dank App
Wie die eGENA-App bei Notfällen in der Anästhesie hilft. Mit der eGENA-App hat die Deutsche Gesellschaft für Anästhesiologie und Intensivmedizin e.V. (DGAI) ein digitales Werkzeug geschaffen, das den Klinikalltag bei…