Beim autonomen Fahren stellen sich zahlreiche ethische Fragen, die sich aus den Entscheidungen ergeben, die ein autonomes Fahrzeug in komplexen und oft unvorhersehbaren Verkehrssituationen treffen muss. Hierzu ein Beispiel:
Da es auch bei selbstfahrenden Straßenfahrzeugen Situationen
geben kann, in denen Unfälle mit Personenschäden unvermeidbar sind, muss
im Vorfeld entschieden werden, welchen Maximen ihr Verhalten in solchen
Situationen folgen soll. Beispiel: Wen soll das selbstfahrende Auto opfern: die zwei Mitfahrer oder die zwei Fußgänger?
![]() |
Bildquelle |
Demnach könnten vollautomatisierte könnten so programmiert werden, dass sie sich für das geringere Übel entscheiden und so die höchstmögliche Anzahl an Leben schützen. Aber ist das ethisch vertretbar? Welche Leben dürfen dann geopfert werden? Ist es moralisch gerechtfertigt, einen "Unfall" in Kauf zu nehmen, um eine moralische Regel zu bewahren?
Das führt uns in das Feld moralphilosophischer Gedankenexperimente. Ein bekanntes Gedankenexperimente ist das Trolley-Problem (bzw. der Weichenstellerfall):
Utilitarismus vs. Deontologie - Die Herausforderung bei autonomem Fahren liegt womöglich in der Balance zwischen moralischer Integrität (Deontologie) und dem größtmöglichen Nutzen (Utilitarismus) für die Gesellschaft:
Weitere Informationen dazu findest du auch hier:
- Autonomes Fahren (Wikipedia)
- Autonomes Fahren: Ethische Fragen und moralische Dilemmatta
- Moralmachine.net
- Unterschied zwischen Utilitarismus und Deontologie
(Kontext B2.1, S. 72-73)
Keine Kommentare:
Kommentar veröffentlichen