Es ist wahrscheinlich dass die Technik immer besser wird, nach jedem Unfall wird die Software optimiert und am Ende stehen geringere Unfallzahlen als heute.
Mir stellt sich die Frage wie man die Entscheidungskriterien zusammenstellt um im Ernstfall das "kleinste Übel" zu wählen.
Jetzt stellen Sie sich vor Sie wären Programmierer und sitzen vor einer Zeile Programmcode in dem festgelegt wird was eine höhere Priorität hat, zwei betagte Fußgänger oder eine Person mit Kinderwagen (der ja leer sein könnte).
Sie haben den ganzen Tag Zeit sich gründlich und vorsätzlich zu überlegen wer mehr wert ist. Wie würden Sie entscheiden? Würden die Angehörigen des "Opfers" akzeptieren, dass diese vorsätzlich programmierte Entscheidung zum Wohle aller notwendig war? Affekt und Augenblicksversagen sind menschliche Qualitäten die viele Verkehrsrisiken in den Bereich "Schicksal" verschieben und somit, auch wenn es merkwürdig klingt, diese uns als unabwendbar und somit als hinnehmbar erscheinen lassen. Das ist im Falle einer vorsätzlich programmierten Maschine ganz anders. Dann hat im Extremfall ein Fremder an seinem Schreibtisch in Ruhe und vorsätzlich über den Tod Ihres Angehörigen entschieden. Was für ein Gefühl wäre das?
Die Befürworter des autonomen Fahrens wollen die juristischen Probleme nun so angehen, dass der Computer einem menschlichen Fahrer gleichgestellt wird. Werden dann zukünftig Computer als Zeugen vor Gericht erscheinen? Was sind Ihre "Aussagen" wert? Mehr oder weniger als die des menschlichen Fahrers? Oder ist die zertifizierte Technik immer im Recht, d. h. dass im Zweifelsfall immer der menschliche Fahrer die Schuld an einem Unfall trägt?
Ich verstehe schon dieses Dilemma, das öfters angeführt wurde.
Kam schon vor in dem Klassiker "I Robot" von Isaak Asimow, wo der rettende
Robot vor der Entscheidung steht, rette ich das ertrinkende Mädchen aus dem
sinkenden Wagen, oder den schwer verletzten Mann.
Das Kind hat noch das ganze Leben vor sich, wenn es denn überlebt.
Die Wahrscheinlichkeit zum Überleben des Mannes war aber größer, so entschied
sich der Roboter zur Rettung des Mannes, gegen dessen Willen.
Die Entscheidung, die Programmiert werden muss, muss auch von einem Fahrer
getroffen werden, in Bruchteilen von Sekunden, während der Programmierer Zeit hat zur Abwägung.
Die Entscheidung des Fahrers ist manchmal irrational, durch Emotionen wie z.B.Tierliebe
fehlgesteuert. Ein Hund überquert die Fahrbahn. Ein Hundenarr verreisst automatisch
das Steuer, donnert in die Hauswand, hat nicht überlegt, dass hinter und neben ihm die
Familie im Wagen sitzt. Einem Autopiloten würde das nicht passieren.
Zu deinem Beispiel mit dem Rentnerpaar und dem Kinderwagen (leer)? käme dann
die Abwägung, bei wem muss ich die Spur verlassen und gefährde damit auch
das eigene Leben oder das der Mitfahrer.
Aber Gott sei Dank sind das extrem seltene Situationen, die einen menschlichen Fahrer,
wie auch den Autopilot fordern.
Tatsache ist aber, dass viele "Normalunfälle" durch Computer verhindert werden.
Da, wo der Mensch nicht schnell genug reagiert, wo er den Überblick verliert,
oder sein Gesundheitszustand zur Fahruntüchtigkeit führt.
Die vielen nicht mehr erfolgten Unfälle überwiegen den einzelnen extremen Fall.
Nutzen überwiegt Schaden.
Natürlich werden die Angehörigen deines Opfers das nicht so sehen......