Moralische Entscheidungen bei lebensbedrohlichen Dilemmata (z. B. KI bei selbstfahrenden Autos)

  • Hallo,

    an einer anderen Stelle im Forum entstand eine spannende Diskussion über moralische Entscheidungen (u.a. bei selbstfahrenden Autos), die ich gerne hier an prominenter Stelle für alle öffnen möchte.


    Ich fasse die ursprüngliche Diskussion kurz zusammen und nun könnt ihr eure Gedanken und eure Erkenntnisse dazu teilen (Gerne auch Link und Buchempfehlungen):

    ChrisH eröffnete die Diskussion mit diesem Video:




    und der Frage

    Zitat


    Was in der Situation tun? Im Prinzip gibt es dann keine guten Entscheidungen mehr. Ist es dann nicht eher vernünftig, dies zu akzeptieren? In unseren Köpfen können wir auch ewig nach einer Lösung suchen. Im realen Leben muss eine Entscheidung her. Und zwar leider immer eine schlechte.



    RemoBucher darauf:

    Zitat

    Ich denke auch, dieses Beispiel zeigt paradigmatisch, dass im realen Leben eine rein ‚gute‘ Entscheidung eigentlich undenkbar ist. Bei jeder Entscheidungshandlung wird zugleich eine Option gewählt und eine andere eben nicht, was unweigerlich negative Konsequenzen für die abgewählte nach sich zieht. Auch wenn man (zumindest in DE und der Schweiz) bei beiden Varianten (Tun oder Unterlassen) juristisch gesehen straffrei bleiben würde, hinterliesse dies psychisch betrachtet gewichtige Traumata..


    Frank Koehler dazu:

    Zitat

    Eigentlich ein bemerkenswerter Befund (wenn er stimmt): Wir urteilen unentwegt unter Zuhilfenahme unserer Moralvorstellungen. Dies geschieht aber sehr oft ausschließlich intuitiv. Fragen wir nach, wie wir unsere Urteile begründen können, kommen viele von uns (mich eingeschlossen) ganz schön ins Schwimmen. Wer aber nicht weiß, warum er urteilt wie er urteilt, kann dessen Entscheidung überzeugen?


    Ich finde moralische Fragestellungen hochspannend und würde es gerne sehen, wenn sie fester Bestandteil aller Lehrpläne würden. Moralisch reflektiertes Urteilen ist in meiner Welt so wichtig wie die Grundrechenarten. Wir haben nicht zu viel Moral, sondern dessen Rückzug auf allen Ebenen. So jedenfalls mein Eindruck.


    Zum Strassenbahn-Problem selbst: Mir scheint, als sei das Abwägen von Menschenleben, ihr gegenseitiges Aufsummieren, eine Art Büchse der Pandora. Wer diese Logik in Bezug auf Menschenleben erst mal zulässt, der kommt in moralisch schweres Fahrwasser.


    Sonntagssoziologe  

    Zitat

    Sind wir in einem wirklichen Dilemma nicht absolut frei in unserer Entscheidung?

    Bei der Frage nach dem quantitaitven Abwägen von Menschenleben ja oder nein, könnte man iterativ. Wäre es gerechtfertigt, ein Leben zu opfern, um alle anderen Leben auf dem Planeten zu retten? Wäre es gerechtfertigt, ein Leben zu opfern, um die Hälfte aller anderen Leben auf dem Planeten zu retten? usw.


    Martin Finger meint:


    Darauf antwortete Sonntagssoziologe

    Zitat


    Mir wäre als Kunde eines Autos mit KI eigentlich vor allem wichtig, dass die KI nicht mich opfert, um z.B. eine Kindergartengruppe zu retten.


    Dazu Herr Breitenbach

    Zitat


    Grundsätzlich gibt es ja auch die Überlegung das Dilemma mit dem Zufall aufzulösen, was ich persönlich eher als fair empfände und es der jetzigen Lebenswelt entspricht. Womit wir philosophisch bei der Schicksalsfrage wären und ob der Mensch als Kontrollfreak jemals in der Lage sein wird das Sein an sich zu 100% zu kontrollieren.


    nihilin bestätigt und ergänzt:

    Zitat

    Dem kann ich mich nur anschließen. KIs sollten meiner Meinung nach blind für jegliche Dinge sein die zu problematischen, moralischen Zwickmühlen führen (Alter, Geschlecht, Status,...oder auch dem "Kollateralschaden", der ja im Kern des klassischen Trolley-Problems steckt) und nur darauf aus sein Personenschäden vollständig zu vermeiden. Ist dies nicht möglich, sollte die Entscheidung eben blind gefällt werden. Würde mich da vielleicht höchstens in die Richtung lehnen, dass das selbstfahrende Auto seine eigenen Insassen priorisieren sollte. Das wäre dann natürlich auch schon wieder eine gezielte, moralische Entscheidung und daher problematisch, entspricht aber denke ich auch dem intuitiven Verhalten der meisten menschlichen Lenker, wenn sie sich in so einer Split Second Entscheidung befinden.


    ChrisH fügt hinzu:

    Zitat

    Schicksal und Kontrolllosigkeit sind zwei Probleme. Denn Selbstkontrolle hängt davon ab, ob das Individuum sich selbst überhaupt erkennen kann. Trotzdem kann die Welt außerhalb unseres Wahrnemungsfilters, nach geordneten bahnen laufen.


    Sonntagssoziologe  

    Zitat

    In dem Fall, wo eine Einzelperson für eine Gruppe dadurch geopfert wird, geschieht ein gezielter Angriff auf ihr Leben. So etwas lässt das Grundgesetz nicht zu, wie sich bei dem Urteil über den Fliegerabschuss mit Terroristen an Bord zeigte. Autos würden zu einer Tötungsmaschine, welche nach ethischen Gesichtspunkten hinrichtet.


    Denken wir doch mal an eine KI bei der Bahn. Würden wir da eine automatische Entgleisung einbauen wollen, wenn die Chancen, dabei verletzt zu werden, aber zu überleben, für die Insassen größer ist als die Überlebenschancen für die Businsassen auf dem Bahnübergang. Wer wäre für so eine Maßnahme?


    Hinzu kommt die Schuldfrage bei Unfällen. Wenn das Leben, welches höher gewichtet, am Unfall Schuld ist, darf dann die unschuldige Person geopfert werden?


    Und jetzt kann dazu weiter diskutiert werden:

  • Ich denke bei ‚Auto vs. Passant‘ müsste die KI gegen den Lenker/Halter entscheiden. Aufgrund des (abstrakten) Risikos, das vom Auto als potenzieller Tötungsmaschine ausgeht, wäre es falsch, dieses Risiko auf den Passanten abzuwälzen. Den ganzen Nutzen aus dem Betrieb des Autos (schnelle Fortbewegungsart, Bequemlichkeit, Prestige) hatte ja der Halter im Voraus. Der Passant profitiert vom Existieren von Autos kein bisschen (es sei denn, er besitzt selbst ein KI-Auto ;)).

    Daher brauchts im Zivilrecht auch kein Verschulden bei einer Haftung als Motorfahrzeughalter (reine Gefährdungshaftung).

    Wie es bei einer Konfrontation zweier KI aussieht, ist dann nochmal eine etwas schwierigere Frage...

  • Es ist extrem spanndend, dass moralische und ethische Grundsatzdiskussionen und Probleme die nie gelöst wurden und wahrscheinlich auch nicht direkt lösbar sind mit dem Aufkommen von KI wieder relevant werden. Meiner Meinung nach blicken wir hier einfach medial und gesellschaftlich einfach in den neuesten Spiegel.


    Der tatsächliche technische Stand von KI ist nicht annähernd auf einem Level wo diese Fragestellungen wirklich relevant wären, aber der Gedanke, dass technischer Fortschritt möglicherweise eine endgültige Lösung für ein scheinbar unlösbares Problem bieten könnte ist faszinierend. Ich glaube wir haben schon viele schwierige Fragen und Dillemas umgehen können indem wir den Fokus auf (technischen) Fortschritt gelegt haben um von den unterliegenden Entscheidungen die getroffen werden abzulenken.


    Wenn es darauf ankommt legen wir die Weiche immer so um, dass wir den technischen Fortschritt schützen und blenden dann meist aus was wir dadurch zerstören.