Absolventenpreis: Wie Roboter moralisches Verhalten lernen könnten

Ob Maschinen Moral lernen können, hat Lukas Brand in seiner Magisterarbeit analysiert. © RUB, Kramer

„Mit der zunehmenden Autonomie von Maschinen wird die Frage nach ihrem Verhalten in moralisch signifikanten Situationen immer drängender“, sagt Brand. „Große Technologieunternehmen schenken diesen Fragen daher wachsende Aufmerksamkeit.“

Wenn Maschinen auf moralische Probleme stoßen

Künstliche Intelligenz ist heute nicht nur in den digitalen Assistenten von Suchmaschinen und Onlineshops enthalten. „KI-Software hat in den vergangenen zwei Jahren sogar Weltmeister in klassischen Brettspielen wie Schach oder Go geschlagen“, erzählt Lukas Brand. Intelligente Maschinen könnten künftig praktische Aufgaben übernehmen und sich flexibel an neue Umgebungsbedingungen anpassen – wie etwa das selbstfahrende Auto. Was aber, wenn das System auf ein moralisches Problem stößt?

Genau mit dieser Frage beschäftigte sich der Bochumer Theologe in seiner Magisterarbeit „Künstliche Intelligenz und die Fähigkeit moralischen Urteilens“.

Software könnte entscheidendes Verhalten selbst lernen

Sein Fazit: „Die Merkmale moralischer Probleme sollten der Maschine nicht im klassischen Sinne einprogrammiert werden“, so Brand. Denn eine moderne künstliche Intelligenz ist in der Lage, die maßgeblichen Aspekte einer konkreten Situation selbst zu erkennen, indem sie aus vielen Beispielen lernt und Erfahrungen sammelt.

„Was KI heute so erfolgreich macht, ist ein künstliches neuronales Netzwerk, das in seiner Funktionsweise vom menschlichen Gehirn inspiriert ist“, erklärt der Theologe. In unterschiedlichen Verfahren lernen die Maschinen, Muster zu erkennen und so verschiedene Aufgaben zu bewältigen. „Ihre Lösungsstrategien sind dabei weitaus erfolgreicher als die von menschlichen Experten“, sagt Brand. Es sei nicht auszuschließen, dass ein künstliches neuronales Netzwerk auch ein Muster in menschlichem moralischen Verhalten finde und dieses auf neue Situationen anwende.

Moralisch urteilsfähig

Könnte die KI basierend auf ihren Erfahrungen moralisches Verhalten lernen, das dem des Menschen gleichkäme oder dieses sogar übertreffe, wäre sie als moralisch urteilsfähig anzusehen, folgert Brand in seiner Arbeit. Er stützt sich dabei auf die Definition des antiken Philosophen Aristoteles, der eine moralische, tugendhafte Handlung in der Erfahrung des Handelnden begründet sah.

Pressekontakt

Lukas Brand
Lehrstuhl für Philosophisch-Theologische Grenzfragen
Katholisch-Theologische Fakultät
Ruhr-Universität Bochum
Tel.: 0234 32 22414
E-Mail: lukas.brand@rub.de

Media Contact

Dr. Julia Weiler idw - Informationsdienst Wissenschaft

Weitere Informationen:

http://www.ruhr-uni-bochum.de/

Alle Nachrichten aus der Kategorie: Förderungen Preise

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Spitzenforschung in der Bioprozesstechnik

Das IMC Krems University of Applied Sciences (IMC Krems) hat sich im Bereich Bioprocess Engineering (Bioprozess- oder Prozesstechnik) als Institution mit herausragender Expertise im Bereich Fermentationstechnologie etabliert. Unter der Leitung…

Datensammler am Meeresgrund

Neuer Messknoten vor Boknis Eck wurde heute installiert. In der Eckernförder Bucht, knapp zwei Kilometer vor der Küste, befindet sich eine der ältesten marinen Zeitserienstationen weltweit: Boknis Eck. Seit 1957…

Rotorblätter für Mega-Windkraftanlagen optimiert

Ein internationales Forschungsteam an der Fachhochschule (FH) Kiel hat die aerodynamischen Profile von Rotorblättern von Mega-Windkraftanlagen optimiert. Hierfür analysierte das Team den Übergangsbereich von Rotorblättern direkt an der Rotornabe, der…