Quo vadis Ethik des autonomen Fahrens

Eine Stellungnahme von Prof. Dr. Dr. h.c. mult. Hermann Simon

Prof. Dr. Dr. h.c. mult. Hermann Simon

Das Thema autonomes Fahren besitzt für Deutschland höchste Bedeutung. Denn deutsche Firmen, und nicht Google oder Tesla, sind auf diesem Gebiet führend. Von den 2828 Patenten zu autonomem Fahren, die seit 2010 weltweit registriert wurden, stammen 1646, das sind 58 Prozent, aus Deutschland. Insofern passt es durchaus, dass wir als eines der ersten Länder eine Kommission haben, die sich unter der Leitung des ehemaligen Richters am Bundesverfassungsgericht, Prof. Dr. Dr. Udo di Fabio, mit der Ethik des autonomen Fahrens beschäftigt. In dieser Kommission arbeiten hochkompetente Experten wie der ehemalige SAP-Vorstandsvorsitzende und heutige Präsident der Akademie der Technikwissenschaften, Prof. Dr. Henning Kagermann, mit.

Ich selbst bin weder Auto-, noch IT-Experte, noch Jurist, aber ein Bericht in der Welt am Sonntag, vom 25. September, veranlasst mich zu der folgenden Stellungnahme. Besonders bemerkenswert fand ich die dort wiedergegebene Empfehlung des Schweizer Informatikers und Philosophen Oliver Bendel, „das Auto relativ dumm zu lassen und autonomes Fahren nur in abgetrennten Bereichen wie der Autobahn zu erlauben.“ Vielleicht handelt es sich hier um ein „echtes“ Problem im Sinne von Murphy. „Echte“ Murphy-Probleme sind solche, für die es keine Lösung gibt.

Laut Kagermann ist in der Ethikkommission „relativ unumstritten“, dass Sachschaden immer dem Personenschaden vorgezogen werden müsse. Dieses Prinzip dürfte in der Gesellschaft kaum auf Widerspruch treffen. Doch bei der Umsetzung können gravierende Probleme auftreten. Es gibt Konstellationen, in denen sich das Prinzip eindeutig anwenden lässt. Besteht die Alternative darin, ob ein Menschen oder ein Tier überfahren wird, so gibt es keine Diskussion. Die weit überwiegende Mehrzahl der Unfallsituationen dürfte jedoch eine derart klare Trennung von Sach- und Personenschaden nicht zulassen. Allein schon diese vergleichsweise harmlose Grauzone deutet auf ein Grundproblem hin, nämlich dass es äußerst schwer werden dürfte, allgemeingültige Prinzipien aufzustellen.

Das zeigt sich drastisch beim zweiten Prinzip, das in der Kommission diskutiert wird. Kagermann beschreibt es wie folgt: „das Auto muss im Zweifel den Fußgänger schützen und nicht den Insassen des Fahrzeugs“. Für meine Argumentation unterstelle ich den positiven Fall, dass das Auto tatsächlich alle Informationen besitzt, also genau erkennt kann, wer gefährdet ist und welches die Konsequenzen einer bestimmen Aktion sind. Vermutlich ist das eine auf lange Sicht zu positive Annahme, wie etwa der kürzliche Tesla-Unfall zeigt, bei dem ein heller LKW nicht vom hellen Himmel unterschieden wurde. Aber sei es drum. Die Technik wird perfekter und ich glaube nicht, dass autonomes Fahren an der Technik scheitern wird. Zurück zum zweiten Prinzip: Nehmen wir als Gedankenmodell an, dass der Fußgänger ein Neunzigjähriger mit schlechter Gesundheit ist (das Auto wisse das!) und die Insassen des Autos drei Kinder im Alter von zehn Jahren sind. Das Auto fahre mit hoher Geschwindigkeit und es gäbe nur die Alternative, den neunzigjährigen Fußgänger zu überfahren oder die drei Kinder durch den Aufprall gegen den Baum zu Tode zu bringen. Dem Prinzip zu Folge müsste das Programm das Auto gegen den Baum steuern. Dieses Gedankenbeispiel zeigt, dass das zweite Prinzip zu absurden Konsequenzen führt.
Eine tiefergehende Frage ist die folgende: Wie entscheidet ein menschlicher Fahrer in einer solchen Situation? Die Antwort: niemand weiß das, selbst der Fahrer weiß es nicht. Er hat nämlich keine Zeit, langwierige, bewusste Abwägungen zu treffen, sondern er wird rein instinktiv (was immer das sein mag) entscheiden. Zu vermuten ist, dass er typischerweise sein eigenes Leben und das seiner mitfahrenden Angehörigen schützen wird. Im Nachhinein muss dann ein Gericht über Schuld oder Unschuld urteilen. Widerspricht das obige zweite Prinzip gar dem „normalen“ menschlichen Verhalten und was bedeutet das?

Nach dem, was bisher berichtet wurde, lehnt es die Kommission ab, Menschenleben gegeneinander aufzurechnen, in den Worten Kagermanns „Eine Quantifizierung von Menschenleben ist unzulässig.“ Er erläutert auch, dass ein Auto nicht automatisch das Szenario wählen sollte, bei dem nur ein Einzelner statt einer Gruppe getötet wird. Diese Frage bezeichnet er zu meiner Verwunderung als „sehr theoretisch“. Was ist daran theoretisch. Bei sehr vielen Verkehrsunfällen, bei denen Menschen zu Tode kommen, geht es um diese Frage, zum Beispiel um mehrere Insassen eines Fahrzeuges.

Beim autonomen Fahren muss das Programm jede denkbare Situation antizipieren. Der reale Mensch tut das nicht, sondern entscheidet bewusst oder unbewusst, wenn die Situation da ist. Wie kann ein Programm funktionieren, wenn ich Menschenleben nicht quantifiziere? Wie entscheidet das Programm dann, ob es das zehnjährige Kind (zwei zehnjährige Kinder) oder den Neunzigjährigen tötet? Es wird angedeutet, dass das Auto in solchen Lagen „auf seinem eingeschlagenen Kurs bleibt“. Doch auch das ist eine Entscheidung, die eine implizite Quantifizierung beeinhaltet. Oder man lässt die Entscheidung durch einen Zufallsgenerator fällen, zum Beispiel in 50 Prozent der Fälle das Kind, in den anderen
50 Prozent den Neunzigjährigen zu überfahren. Kann das sinnvoll sein? Wählt man unterschiedliche Wahrscheinlichkeiten, etwa 80 Prozent für den Neunzigjährigen, so ist das bereits eine Quantifizierung.

Man hört ständig, dass das autonome Fahren sicherer sei oder jedenfalls werde als das menschliche Fahren. Ich glaube an dieses Argument. Aber was ist mit folgender Analogie aus der Medizin. Ein neues Medikament rette nachweislich eine Million Leben, aber genauso werde eindeutig nachgewiesen, dass es Tausend Menschen tötet. Mit dieser Sterberate hat das neue Arzneimittel keine Chance auf eine Zulassung. Kann dieses Schicksal auch dem autonomen Fahren widerfahren? Es erhöht objektiv die Verkehrssicherheit und dennoch wird es gesellschaftlich nicht akzeptiert. Man braucht sich nur folgende Schlagzeile vorzustellen „Autonomes Auto tötet drei Kinder“.

Mein Fazit: ich sage nicht, dass das autonome Fahren scheitern wird. Technisch glaube ich daran. Auch die objektiven Daten werden für diese Systeme sprechen. Doch das reicht eventuell ähnlich wie in der Medizin nicht aus. Der Engpass für die gesellschaftliche Akzeptanz dieser neuen Technologie liegt in der Ethik. Der menschliche Fahrer entscheidet anders als es ein System mit den heute bekannten Technologien kann. Der Vorschlag von Oliver Brendel, das System „relativ dumm“ zu lassen, läuft letztlich darauf hinaus, dass es kein wirklich autonomes Fahren geben wird. Sicherlich sind alle Arten von Assistenzsystemen, die die Fahrsicherheit erhöhen, äußerst sinnvoll, aber vielleicht muss man die letzte Entscheidung, wie in einer lebensgefährdenden Situation reagiert wird, doch dem Menschen überlassen.

Aktuelle Ausgabe kostenfrei als E-Paper lesen
Eifelzeitung E-Paper Aktuelle Ausgabe kostenfrei als E-Paper lesen