Autonomes Fahren: Techniksegen und Ethikfluch zugleich

shutterstock_340152863

Autonomes Fahren verheißt ein Mehr an Freizeit und ein Mehr an Sicherheit. Im April diesen Jahres hat die Bundesregierung einen Entwurf des Verkehrsministers zu den rechtlichen Grundlagen selbstfahrender Autos beschlossen: Zusätzliche Fahraufgaben von Autos können fortan von künstlicher Intelligenz ausgeführt werden. Laut TNS glauben jedoch nur 41% der Deutschen, dass das autonome Fahren die Sicherheit im Straßenverkehr erhöhen wird (Interessant hierzu auch Lukas Neckermanns „The Mobility Revolution“). Die Gretchenfrage könnte nicht schwieriger sein und resultiert in einem schwerwiegendem ethischen Dilemma: Wie wägt man bei der Programmierung verschiedene Güter gegeneinander ab?

 

Wenn ein Zusammenstoß mit einer Person unausweichlich ist – soll das Auto die Spur wechseln, um statt einer Schwangeren einen alten Menschen zu überfahren? Wie verhält es sich bei Hund versus Mensch? Was, wenn das Auto mit einem Insassen bestückt ist und entscheiden muss, ob es gegen eine Betonwand kracht oder fünf Fußgänger überfährt? Soll überhaupt aktiv eingegriffen werden?

 

Während die deontologische Ethik (auch: Pflichtethik) unterscheidet, ob Handlungen intrinsisch gut oder schlecht sind, werden Handlungen im Utilitarismus nach ihren Konsequenzen beurteilt: Das kumulierte Wohlergehen aller Beteiligten wird für verschiedene Szenarien miteinander verglichen. Utilitarismus dürfte damit die fundamentale Grundlage der Programmierung selbstfahrender Autos sein.

 

Das Massachusetts Institute of Technology (MIT) hat jüngst ein Tool  – die Moral Machine – entwickelt, mit welchem man die Konsequenzen seiner eigenen ethischen Vorstellungen in Bezug auf autonomes Fahren überprüfen und sich mit dem Durchschnitt der anderen Teilnehmer vergleichen kann. Knallhart wird einem nach der Auswertung vor Augen geführt, welche Menschenleben man anderen vorgezogen hat. Für die wirklich Interessierten hält das MIT auch die Möglichkeit bereit, eigene Szenarien zu entwickeln. Was habe ich über mich selbst gelernt? Ich vermeide weitgehend Eingriffe (Pendant zur sozialen Marktwirtschaft? – außer wenn es darum geht, 2 Menschen zugunsten von 5 zu opfern), bevorzuge jüngere Menschen und – das muss unbewusst passiert sein – bevorzuge GANZ LEICHT Frauen.

 

Sehen Sie selbst und lernen Sie Ihr eigenes Wertesystem kennen: 13 ethische Dilemmata autonomen Fahrens

 

Bild: Shutterstock

Keine Kommentare

Hinterlasse einen Kommentar

Your email address will not be published.