Filosofix - Philosophische Gedankenexperimente

  • Gerade dieses Gedankenexperiment bringt mich zum nachdenken. Was in der Situation tun? Im Prinzip gibt es dann keine guten Entscheidungen mehr. Ist es dann nicht eher vernünftig, dies zu akzeptieren? In unseren Köpfen können wir auch ewig nach einer Lösung suchen. Im realen Leben muss eine Entscheidung her. Und zwar leider immer eine schlechte.



    "Man ist nie so lächerlich durch Eigenschaften, die man besitzt, als durch jene die man zu haben vorgibt."


    Jolan tru,

    Chris :whistling:

  • Ich denke auch, dieses Beispiel zeigt paradigmatisch, dass im realen Leben eine rein ‚gute‘ Entscheidung eigentlich undenkbar ist. Bei jeder Entscheidungshandlung wird zugleich eine Option gewählt und eine andere eben nicht, was unweigerlich negative Konsequenzen für die abgewählte nach sich zieht.

    Auch wenn man (zumindest in DE und der Schweiz) bei beiden Varianten (Tun oder Unterlassen) juristisch gesehen straffrei bleiben würde, hinterliesse dies psychisch betrachtet gewichtige Traumata..

  • Gerade dieses Gedankenexperiment bringt mich zum nachdenken. Was in der Situation tun? Im Prinzip gibt es dann keine guten Entscheidungen mehr. Ist es dann nicht eher vernünftig, dies zu akzeptieren? In unseren Köpfen können wir auch ewig nach einer Lösung suchen. Im realen Leben muss eine Entscheidung her. Und zwar leider immer eine schlechte.

    Knifflig, ja. Aber ich meine, nicht unlösbar. Jedenfalls würde ich davor warnen wollen, vor der vermeintlichen Komplexität des Problems zu kapitulieren. Dazu gibt es keinen Grund. Schwierig empfinden wir moralische Dilemmata deshalb, weil wir nie gelernt haben die ihnen zugrundeliegenden Prinzipien zu erkennen und zu gewichten.


    Eigentlich ein bemerkenswerter Befund (wenn er stimmt): Wir urteilen unentwegt unter Zuhilfenahme unserer Moralvorstellungen. Dies geschieht aber sehr oft ausschließlich intuitiv. Fragen wir nach, wie wir unsere Urteile begründen können, kommen viele von uns (mich eingeschlossen) ganz schön ins Schwimmen. Wer aber nicht weiß, warum er urteilt wie er urteilt, kann dessen Entscheidung überzeugen?


    Ich finde moralische Fragestellungen hochspannend und würde es gerne sehen, wenn sie fester Bestandteil aller Lehrpläne würden. Moralisch reflektiertes Urteilen ist in meiner Welt so wichtig wie die Grundrechenarten. Wir haben nicht zu viel Moral, sondern dessen Rückzug auf allen Ebenen. So jedenfalls mein Eindruck.


    Zum Strassenbahn-Problem selbst: Mir scheint, als sei das Abwägen von Menschenleben, ihr gegenseitiges Aufsummieren, eine Art Büchse der Pandora. Wer diese Logik in Bezug auf Menschenleben erst mal zulässt, der kommt in moralisch schweres Fahrwasser.


    Liebe Grüße!

  • Sind wir in einem wirklichen Dilemma nicht absolut frei in unserer Entscheidung?


    Bei der Frage nach dem quantitaitven Abwägen von Menschenleben ja oder nein, könnte man iterativ. Wäre es gerechtfertigt, ein Leben zu opfern, um alle anderen Leben auf dem Planeten zu retten? Wäre es gerechtfertigt, ein Leben zu opfern, um die Hälfte aller anderen Leben auf dem Planeten zu retten? usw.

  • Ich denke, eine absolut endgültige, wahrhaft moralisch "richtige" Entscheidung, kann es in einem solchen Dilemma gar nicht geben. Moralvorstellungen sind immer geprägt vom Subjekt selber, wie es die Welt erfasst, anschaut, reflektiert usw. Würde man beginnen, blind einzelne Leben abzuwägen und nach Quantität zu entscheiden, wäre dies (als Utilitarist denkend) z.B. moralisch rechtfertigend; ein Humanist würde nach anderen Kriterien vorgehen.

    Wichtig wäre sicherlich, bei einer solchen Entscheidung Wert auf den Hergang des Entscheidens zu legen, diskursiv mit möglichst allen Beteiligten darüber zu diskutieren und nach Vernunft und weniger nach Emotionen zu handeln.

  • Sind wir in einem wirklichen Dilemma nicht absolut frei in unserer Entscheidung?

    Ein wirkliches Dilemma, was wäre das? Eines, in dem nach Abwägen aller verfügbaren Informationen und Wertungen die Waagschale genau in der Mitte stehenbleibt? Ja, in so einem Fall gäbe es tatsächlich nicht die eine, bestmögliche Entscheidung. Aber Dilemmata dieser Qualität sind in der Praxis die absolute Ausnahme. Ich würde sogar so weit gehen zu sagen, es gibt sie nur theoretisch.

  • Ich denke, eine absolut endgültige, wahrhaft moralisch "richtige" Entscheidung, kann es in einem solchen Dilemma gar nicht geben. Moralvorstellungen sind immer geprägt vom Subjekt selber, wie es die Welt erfasst, anschaut, reflektiert usw. Würde man beginnen, blind einzelne Leben abzuwägen und nach Quantität zu entscheiden, wäre dies (als Utilitarist denkend) z.B. moralisch rechtfertigend; ein Humanist würde nach anderen Kriterien vorgehen.

    Wichtig wäre sicherlich, bei einer solchen Entscheidung Wert auf den Hergang des Entscheidens zu legen, diskursiv mit möglichst allen Beteiligten darüber zu diskutieren und nach Vernunft und weniger nach Emotionen zu handeln.

    Stimmt, eine absolut endgültig richtige Entscheidung kann es nicht geben. Aber das ist auch gar nicht notwendig. Moral unterliegt dem zeitlichen Wandel. Es reicht daher vollkommen, dass die Entscheidung die beste ist, die man zum Zeitpunkt ihres Beschlusses finden konnte.


    Natürlich setzen wir alle unsere subjektiven Schwerpunkte bei moralischen Urteilen. Das heißt aber nicht, dass sie deshalb alle gleich stark, gleich überzeugend wären. Es gibt moralische Reflexion auf verschiedenen Komplexitätsleveln. Es gilt, alle Vorschläge auf den Prüfstand zu stellen, und daraus den überzeugendsten herauszuarbeiten. Ich glaube, dass dies möglich ist.


    In der Zukunft, unter Einsatz von KI, wird dieser Prozess glaube ich eine erhebliche Vereinfachung und Berschleunigung erfahren.

  • Für mich ist die Entscheidungssituation "X Leben retten und Y Leben opfern mit Y<X" nicht schwierig. Einfach in dem ich mich in die Postion desjenigen versetzte, welcher am schlechtesten in der jeweiligen Situation abschneidet. Möchte ich einfach geopfert werde, ohne in die Entscheidungsfindung mit einbezogen zu werden? Ganz sicher nicht. Entsprechend werde ich mir selbst auch nicht eine solche Entscheidung anmaßen.


    Gerade bei dem Brückenbeispiel ist die Frage: Warum kann man den Mann nicht einfach fragen, ob er bereit wäre sich vor den Zug zu stürzen? Natürlich ist mir klar, dass man es deshalb nicht macht, um die Situation leichter als Dilemma erscheinen zu lassen.


    Interessant wird die Frage bei autonomen Fahrzeugen. Da bin ich sehr gespannt mit welchem Algorithmus diese letztlich versehen werden und wie dieses begründet werden wird. Wenn es nach den Menschen geht, sollte man als alter übergewichtiger Mann besonders vorsichtig sein und lieber nicht bei Rot über die Straße laufen. Im Buch QualityLand wird das Problem prima beschrieben mit Killer Car vs. Suizid Car. Als Fußgänger bevorzugt man natürlich, dass nur Suizid Cars unterwegs sind und als Insasse möchte man lieber in einem Killer Car sitzen. Die KI kann das Problem gerade nicht lösen, solange wir solche Situationen als Dilemmata ansehen, weil wir sich widersprechende moralisch Regeln zur Anwendung bringen und keine klare und einheitliche Werteorientierung haben, welche in jeder Situation zum gleichen eindeutigen Ergebnis führt.

  • Grundsätzlich gibt es ja auch die Überlegung das Dilemma mit dem Zufall aufzulösen, was ich persönlich eher als fair empfände und es der jetzigen Lebenswelt entspricht. Womit wir philosophisch bei der Schicksalsfrage wären und ob der Mensch als Kontrollfreak jemals in der Lage sein wird das Sein an sich zu 100% zu kontrollieren.

  • Grundsätzlich gibt es ja auch die Überlegung das Dilemma mit dem Zufall aufzulösen, was ich persönlich eher als fair empfände und es der jetzigen Lebenswelt entspricht. Womit wir philosophisch bei der Schicksalsfrage wären und ob der Mensch als Kontrollfreak jemals in der Lage sein wird das Sein an sich zu 100% zu kontrollieren.

    Dem kann ich mich nur anschließen. KIs sollten meiner Meinung nach blind für jegliche Dinge sein die zu problematischen, moralischen Zwickmühlen führen (Alter, Geschlecht, Status,...oder auch dem "Kollateralschaden", der ja im Kern des klassischen Trolley-Problems steckt) und nur darauf aus sein Personenschäden vollständig zu vermeiden. Ist dies nicht möglich, sollte die Entscheidung eben blind gefällt werden. Würde mich da vielleicht höchstens in die Richtung lehnen, dass das selbstfahrende Auto seine eigenen Insassen priorisieren sollte. Das wäre dann natürlich auch schon wieder eine gezielte, moralische Entscheidung und daher problematisch, entspricht aber denke ich auch dem intuitiven Verhalten der meisten menschlichen Lenker, wenn sie sich in so einer Split Second Entscheidung befinden.

  • Schicksal und Kontrolllosigkeit sind zwei Probleme. Denn Selbstkontrolle hängt davon ab, ob das Individuum sich selbst überhaupt erkennen kann. Trotzdem kann die Welt außerhalb unseres Wahrnemungsfilters, nach geordneten bahnen laufen.

    "Man ist nie so lächerlich durch Eigenschaften, die man besitzt, als durch jene die man zu haben vorgibt."


    Jolan tru,

    Chris :whistling:

  • In dem Fall, wo eine Einzelperson für eine Gruppe dadurch geopfert wird, geschieht ein gezielter Angriff auf ihr Leben. So etwas lässt das Grundgesetz nicht zu, wie sich bei dem Urteil über den Fliegerabschuss mit Terroristen an Bord zeigte. Autos würden zu einer Tötungsmaschine, welche nach ethischen Gesichtspunkten hinrichtet.


    Denken wir doch mal an eine KI bei der Bahn. Würden wir da eine automatische Entgleisung einbauen wollen, wenn die Chancen, dabei verletzt zu werden, aber zu überleben, für die Insassen größer ist als die Überlebenschancen für die Businsassen auf dem Bahnübergang. Wer wäre für so eine Maßnahme?


    Hinzu kommt die Schuldfrage bei Unfällen. Wenn das Leben, welches höher gewichtet, am Unfall Schuld ist, darf dann die unschuldige Person geopfert werden?