Dass autonom agierende Roboter, auch in Form von Autos, möglich werden, lässt bisher theoretische moralische Dilemmata aktuell werden.
Denn ein automatisches System bietet die Möglichkeit, eine Bewältigungsstrategie für Unfallsituationen zu programmieren.
Somit werden folgende Fragen praktisch relevant:
Gibt es „ethisch einwandfreie“ oder „beste“ Handlungsmöglichkeiten für Unfallsituationen?
Soll ein selbstfahrendes Auto bei einer möglichen Kollision gezielt die Zahl der Opfer minimieren?
Soll das Auto ggf. sich selbst und seine Insassen opfern, um eine größere Opferzahl zu vermeiden?
Es tut mir ein wenig leid, aber diese Fragestellungen sind meiner Meinung nach trotz aller scheinbarer Relevanz eher konstruierter Unsinn.
Denn eine Abwägung von Opferzahlen verbietet sich nach der deutschen Verfassung. Entsprechend wären Algorithmen, die dicke Rentner zum gezielten Überfahren auswählen würden um kleine Mädchen zu schützen, verfassungswidrig.
Entsprechend müssten Algorithmen in Autos meiner Meinung nach immer versuchen, jede Kollision zu vermeiden.
Dass die Algorithmen so gemacht werden werden ist sowieso anzunehmen, denn sollte bei irgendeinem Unfall die Schuld des autonom fahrenden Autos festgestellt werden, würde wahrscheinlich die gesamte Fahrzeugflotte des betreffenden Herstellers stillgelegt. Das kann sich kein Hersteller leisten.
Folglich ist damit zu rechnen, dass autonom fahrende Autos sehr defensiv fahren werden, und dass der Algorithmus für Unfall-Situationen versuchen wird (in dieser Reihenfolge)
- sich an alle wichtigen Verkehrsregeln zu halten („Nicht auf die Gegenspur fahren“ wäre z.B. wichtig, keine durchgezogene Linie zu überfahren eher unwichtig)
- Kollisionen mit allen festen und „regelkonformen“ Hindernissen zu vermeiden (z.B. Brückenpfeiler, Menschen auf einem Zebrastreifen)
- Kollisionen auch mit „irregulären“ Hindernissen zu vermeiden (Geisterfahrer, Leute die auf die Straße laufen)
Ein so konstruierter Algorithmus ist jedenfalls juristisch nicht angreifbar und bildet auch das „ideale Verhalten“ eines menschlichen Fahrers ab.
Wenn ein Ausweichen ohne Kollision mit „irregulären“ Hindernissen nicht möglich ist, wird das Auto wahrscheinlich einfach die Richtung beibehalten und nur bremsen. Dass ist dann zwar immer noch Körperverletzung durch „Unterlassung“, aber eben nur die Unterlassung der Anwendung einer ausgefuchsten utilitaristischen Opferzahlenminimierungsstrategie, die gegen die Verfassung verstoßen würde, und damit die beste Lösung.
Wahrscheinlich aber werden autonom fahrende Autos generell die Unfallzahlen verringern, weil sie sich immer an die Verkehrsregeln halten werden. Sie werden durch „Car-to-X“-Kommunikation besser über ihr Umfeld informiert sein als menschliche Fahrer. Sie werden von Eis, Nebel oder Stau nicht überrascht werden und ggf. einfach nicht losfahren, wo menschliche Fahrer ins Risiko gehen. Unfälle wird es dann — theoretisch — nur noch bei einem Fehlverhalten des Unfallgegners geben.