Logo IT.Niedersachsen Niedersachen klar Logo

Vom Trolley-Problem zur Künstlichen Intelligenz


Eine Kolumne von Frank Preßler


Über Moralethik im Zuge der Digitalisierung

In der Geschichte haben sich viele Gelehrte Gedanken über ganz unterschiedliche Themen gemacht. Die Empirie, also ein methodisch-praxisnaher Weg für das Sammeln von Erfahrungen, ist und war nicht immer die einzig relevante Option. Viele Experimente sind rein theoretisch erfolgt und haben gleichwohl zu neuen Erkenntnissen geführt. Das Trolley-Problem ist so eines.

Bereits zu Beginn der 1950er Jahre hat der deutsche Rechtsphilosoph Hans Welzel die Problemstellung skizziert, sie hat dann später eine kleine Veränderung erfahren, unter der das Gedankenexperiment als Trolley-Problem (abgeleitet aus dem englischen Wort für Straßenbahn) seitdem bekannt ist:

„Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen. Durch Umstellen einer Weiche kann die Straßenbahn auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Darf (durch Umlegen der Weiche) der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?“

Losgelöst von der heutigen juristischen Bewertung (hier: Nichtstun = nicht strafbar, Weiche umstellen = vermutlich nicht strafbar, allerdings weniger eindeutig) ist vielmehr die ethische Antwort auf das Trolley-Problem herausfordernd. Vor einer Antwort auf diese Frage beachten Sie bitte zuvor noch eine Abwandlung des Themas:

„Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen. Durch Herabstoßen eines unbeteiligten dicken Mannes von einer Brücke vor die Straßenbahn kann diese zum Stehen gebracht werden. Darf (durch Stoßen des Mannes) der Tod einer Person herbeigeführt werden, um das Leben von fünf Personen zu retten?“


Ethische Grundsätze

In beiden Fällen ist die potenzielle Opferzahl identisch, in beiden Fällen führt das Unterlassen zu fünf Opfern das Einschreiten zu einem. Erstaunlicherweise würden die meisten Menschen jedoch intuitiv unterschiedlich handeln. Die Antworten fallen grundsätzlich so aus, wie wir intuitiv ethisch denken. Hierbei gibt es zum einen den sogenannten utilitaristischen Ansatz, der rein zweck- oder nutzenorientiert ausgerichtet ist. Das Umstellen der Weiche ist richtig, da ein Toter besser als fünf Tote ist. Bedenken Sie die Abwandlung des Experiments: Bei gleicher Logik wäre dann auch das bewusste Schubsen eines Menschen auf die Gleise richtig, wenn dadurch fünf andere Personen gerettet würden!

Ganz anders sieht es bei der sogenannten deontologischen Ethik aus. Dabei geht es im Kern um die Frage, ob eine negative Folge als Mittel zum Erreichen eines guten Zwecks beabsichtigt ist oder nicht. Das Schubsen des Mannes auf die Gleise wäre hier rundweg abzulehnen. Beim Umstellen der Weiche könnte man zumindest anders argumentieren, da die dann tote Einzelperson als unbeabsichtigter Nebeneffekt gelten könnte.

Ganz schön heikel, oder? Wie würden Sie entscheiden? Und denken Sie das Weichenproblem weiter: Macht es einen Unterschied, ob ein unbeteiligter Dritter neben der Weiche steht oder der Lokführer selbst die Weiche verstellen könnte?

Autonome Autos benötigen einen moralischen Kompass Das Trolley-Problem hat längst eine Renaissance erfahren, seit autonome Autos nicht mehr nur eine Vision, sondern nur noch eine Frage der Zeit sind. Es ist eine der drängendsten Fragen: Nach welchem moralischen Kompass soll ein autonomes Auto in bestimmten Situationen programmiert werden? In den Medien haben Sie sicherlich immer wieder das Beispiel gelesen oder gesehen, wenn es nur die Entscheidung zwischen Kindern und älteren Personen gibt: Ist das Kind mehr wert, und wenn ja, warum?

Aktuelle Untersuchungen zeigen schon jetzt wenig überraschend, dass die meisten Menschen egozentrisch denken: Gerne sollten andere Personen in selbstfahrenden Autos sitzen, die utilitaristisch programmiert sind, man selbst aber will lieber in einem Wagen sitzen, das die Insassen unter allen Umständen schützt. Dieser Konflikt führt zu einem Paradoxon, dass nämlich im Zweifel die opferreduzierende KI-Ethik des Utilitarismus nicht durchgesetzt wird, weil sich dann für solche Autos keine Käufer finden lassen.

Ist Ihnen das alles zu theoretisch? Probieren Sie es einmal selbst aus! Das bekannte Massachusetts Institute of Technology (MIT) hat eine Moral-Maschine programmiert, mit der Sie 13 konkrete Fälle durchspielen können: http://moralmachine.mit.edu/hl/de. Einfach auf „Beurteilung beginnen“ klicken. Lesen Sie gut die Beschreibungen zu jedem Bild, sie sind wichtig für die eigene Bewertung. Am Ende erhalten Sie ein Ergebnis und den Vergleich mit dem Durchschnitt der bisherigen Antworten.


Zukunftsmusik und Realismus

Seien wir aber ehrlich: Das aufgeworfene Problemfeld ist spannend und diskutabel – jedoch nur eine Nische im Gesamtkomplex der KI-gestützten Mobilität. Anno 2017 befindet sich das autonome Fahren in Level 2 (von 5), bis 2020 wird vielleicht in Ansätzen Level 3 erreicht sein. Level 4 ist eventuell ab 2030, vermutlich aber später, relevant. Ebenso unstrittig ist: Das autonome Fahren wird, wenn es denn flächendeckend eingesetzt wird, zu einer erheblichen Reduktion von Verkehrsopfern führen, da schon das heutige Prinzip der Schadensminimierung in der Programmierung hinreichend ausgereift ist, um Unfälle besser zu vermeiden oder die Schäden zu reduzieren.

Die moderne Version des alten Trolley-Problems bezieht sich insofern auf eine sehr geringe Restmenge an Situationen, die gleichwohl vorkommen werden, aber nicht derart überhöht werden sollten, um als Contra-Argument gegen das autonome Fahren als solches herangezogen zu werden. Die einfachste Regel für die Programmierer lieferte hierbei schon der Philosoph Emmanuel Kant mit seinem kategorischen Imperativ, der hier angepasst lauten müsste: „Fahre nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

Übersetzt meint das insbesondere: Fahre defensiv und beachte die Verkehrsregeln. Und dann wird klar: Hier ist uns jede KI schon heute leider meilenweit überlegen.
Fotolia/Filip  

Fotolia/Filip

zum Seitenanfang
zur mobilen Ansicht wechseln