Das Automobil soll nach Willen der Autobauer „intelligent“ werden. Es soll mit „künstlicher Intelligenz“ dann selbstständig Entscheidungen treffen. Wir haben aber alle ein Problem damit.

Zitat(Merkur 2017):

In der Philosophie wird das Dilemma des Tötens, um Leben zu retten, als »Weichenstellerfall« diskutiert: Eine Straßenbahn ist außer Kontrolle geraten und droht fünf Personen zu überrollen; die einzige Handlungsoption eines Zeugen neben dem Weichenhebel besteht darin, die Bahn auf ein Nebengleis umzuleiten, wo sie nur eine Person überfahren würde. Der Tötungsbeschluss, den diese Weichenstellung enthält, wird in der sogenannten Fetter-Mann-Variante explizit, wenn man alternativ die Straßenbahn dadurch zum Halten bringt, dass man – möglicherweise nach einem erbitterten Zweikampf – einen fetten Mann von der Brücke auf die Schienen stößt.

Zitat (heise 4.Nov. 2019):Das Szenario ist simpel: Eine außer Kontrolle geratene Straßenbahn rast auf eine Gruppe von Menschen zu. Ein Beobachter steht zufällig am Weichenhebel und hat die Möglichkeit die Straßenbahn auf ein Nebengleis umzuleiten, auf dem sich „nur ein“ Bahnarbeiter befindet. Sollte der Beobachter nun den Hebel betätigen und eine Person zugunsten Mehrerer opfern?

Aber die Entscheidung, wen, von den zur Auswahl stehenden Personen, das Auto zu Tode bringt, wird weit vorher getroffen. Der Besitzer des Autos, mag es nun eine einzelne, private Person sein, mag es eine Gesellschaft sein, die Autos verleiht oder eine Gemeinschaft, die gemeinsam einen Park von Mobilen betreibt, um sich gelegentlich daraus zu bedienen, sie alle haben die Entscheidung getroffen, als sie sich für einen bestimmten Hersteller und ein bestimmtes Erzeugnis entschieden.

Nämlich: Die Entwickler haben einen Algorithmus implementiert, den sie nach ihren Erfahrungen, den ihnen bekannten Gesetzen und nach anderen Kriterien so gemacht haben und für richtig halten. Die Entwickler des einen Herstellers kommen aus Asien, die des anderen aus den USA, die nächsten aus Indien oder aus Europa. Jeder hat für sich ganz andere Vorstellungen und Erfahrungen. Aber von ihnen hängt ab, welche Entscheidungen das zukünftige Auto trifft, bei der Auswahl der Tötungsvorrangigkeit. Der Autokäufer entscheidet sich nur noch für eine Marke, ein Modell, wahrscheinlich ohne zu wissen, wie das Auto programmiert ist und welcher Vorrang also schon vorgegeben ist. Möglicherweise interessiert sich der Käufer nicht einmal dafür.

Das Auto fährt und es kommt zu einem Unfall und ein Mensch muss sterben. (Oder es sterben sogar mehrere.)

Wer bekommt jetzt den Ärger? Wer muss sich vor Gericht verantworten für das totgefahrene Kind oder die Frau, die umkam bei dem unvermeidlichen Unfall? Es ist in jedem Fall eine vorsätzliche Tötung, denn es wurde vorher genau abgewogen, wer getötet werden soll. Die Programmierer waren beteiligt, der Hersteller (die Firma) und auch der Käufer. Wer muss gerade stehen? Das Auto ist ein Ding. Es wird schon beim Unfall verschrottet.

Der Besitzer? Der Fahrer? Der Betreiber? Der Hersteller oder gar die Programmierer? Wer muss sich rechtfertigen?

Wenn wir tiefgründig über das Straßenbahn-Problem nachdenken, können wir uns, jedenfalls eigentlich – nicht entscheiden. Unsere Moral erlaubt uns nicht ein Leben gegen ein anderes auszutauschen, aufzurechnen oder sonst wie damit umzugehen. Wir erinnern uns an den Gerichtsentscheid, als es darum ging, ob ein Passagierflugzeug abgeschossen werden darf, wenn es von Terroristen besetzt ist und diese drohen in ein Kernkraftwerk zu steuern. Der Bundesgerichtshof hat verboten, das Flugzeug abzuschießen.

(Anders vielleicht bei einem Inder, der sich entscheidet, das Leben der heiligen Kuh zu schonen und besser drei Frauen, davon gibt es in manchen Teilen Indiens zu viele, zu Tode zu fahren. Wenn das Fahrzeug von einem Inder programmiert wurde, kann es also einem deutschen Autofahrer passieren, dass er gegen einen Baum gefahren wird, wenn eine Hirschkuh im Wege steht.)

Es gibt keine Lösung für unser Problem. Man nennt das Dilemma, wenn jede mögliche Lösung nicht möglich ist. Wenn wir schnell zu einer Entscheidung gezwungen werden, dann entscheiden wir, oder auch nicht, das ist dann auch eine Entscheidung. Aber wir treffen sie auf keinen Fall nach Faktenlage und ausreichender Überlegung.

Mit der Herstellung und Programmierung frei fahrender Fahrzeuge ist es nun aber notwendig, diese Entscheidung zu treffen und zwar lange bevor die Entscheidung gefordert wird. Wir wissen nur, das Ergebnis der Entscheidung wird irgendwann eingefordert.  Wir haben den Mord programmiert.

Es gibt Leute, die können damit umgehen. Jeder der Waffen herstellt, vertreibt, programmiert, usw. hat diese Entscheidung schon für sich getroffen. Es ist eine lange Tradition, die Waffenherstellung und der Waffeneinsatz. Und bei der Verteidigung des Landes oder auch der Familie kommt bei uns kaum die Frage auf, (so wie es in der Vergangenheit auch oft praktiziert und ausgenutzt wurde) ob es moralisch sei, die Soldaten des Gegners zu töten. Anders, wenn wir den eigenen Angriff für unmoralisch halten oder wir es für verwerflich halten, an eine kriegsführende Nation Waffen zu liefern, die damit Zivilisten umbringt oder umbringen könnte.

Mit der Moral ist das also so eine Sache. Auch wenn wir uns mit Kannibalismus, so wie er in Extremsituationen selbst bei Europäern (und europäischen Einwanderern nach Nordamerika) vorgekommen ist, beschäftigen, müssen wir uns harte Fragen stellen. So wie: Wie weit ist es mit der Moral und wo kommt sie her und wo endet sie. So unbedingt und eindeutig ist das alles nicht.

Außer beim selbstfahrenden Auto. Das weiß Bescheid. Schon bevor es auf der Straße ist. Ist eben kein Mensch.

Rating 3.00 out of 5
[?]