Samstag, 4. April 2020

Kollektive Moral?


aus nzz.ch, 5.03. 2020

Ein moralisches Gedankenspiel führt bei autonomen Fahrzeugen in die Sackgasse 
Frauen und Kinder sollten bei einem unausweichlichen Unfall verschont werden, das ergab eine online-Umfrage. Doch nun erheben zwei Psychologen schwere Vorwürfe gegen die Methodik dieser und ähnlicher Studien 

von Helga Rietz

Wie sollen autonome Fahrzeuge künftig entscheiden, wer einen tragischen Unfall überlebt und wer nicht? Diese Frage versuchten Forscher des Massachusetts Institute of Technology (MIT) in Boston mit einer Online-Befra- gung von vielen Millionen Probanden zu beantworten: Auf der Website der Moral Machine liessen sie Interes- sierte in einer Art Computerspiel über den Ausgang eines hypothetischen tragischen Unfalls entscheiden, bei dem der Tod eines oder mehrerer Verkehrsteilnehmer unausweichlich ist. Per Mausklick stimmen die Teilneh- mer ab, wessen Leben geschont wird: eine Frau mit Kinderwagen oder zwei Jogger? Der Mann mit Hund auf dem Gehweg oder fünf Schulkinder, die gerade bei Rot über die Strasse rennen? 

In zwei vielbeachteten Studien, die 2016 in «Science» und 2018 in «Nature» erschienen, legten die Forscher um Iyad Rahwan, der am renommierten MIT Media Lab arbeitet, die Ergebnisse der Umfragen mit der Moral Machi- ne dar: Demnach lassen sich aus den Antworten der fast 40 Millionen online rekrutierten Probanden recht klare Präferenzen ableiten. Selbst Menschen aus unterschiedlichen Kulturkreisen seien sich grosso modo darüber einig, wer im Fall einer unausweichlichen Kollision eher geschont und wer eher geopfert werden sollte. 

Gesellschaftliche Akzeptanz stärken 

Daraus liesse sich, so Rahwan und seine Kollegen, ein Regelwerk für einen (wie auch immer gearteten) Ethik-Algorithmus für das autonome Fahren destillieren. Denn wenn autonome Fahrzeuge in unausweichlichen Situa- tionen das tun, was die Mehrheit für die moralisch richtige Entscheidung hält, erhöht das die gesellschaftliche Akzeptanz für das autonome Fahren, so die Logik der Forscher.


Nun gibt es eine ganze Reihe von guten Gründen, Ethik-Algorithmen für autonome Fahrzeuge grundsätzlich abzulehnen. Der wichtigste ist, dass Value-of-life-Abwägungen im Stil der Moral Machine in krassem Gegen- satz zum Verbot jeglicher Diskriminierung stehen. Ein anderer, dass die überwältigend deutliche Mehrzahl der Unfälle im Strassenverkehr durch menschliches Versagen oder Fehlverhalten herbeigeführt werden. Ausserdem sind autonome Fahrzeuge noch nicht im entferntesten dazu in der Lage, Passanten nach deren Alter, Geschlecht, Fitness oder Beruf unterscheiden zu können. In der öffentlichen Diskussion aber ist die Frage nach der Entschei- dung über Leben und Tod durch den Fahrcomputer nicht totzukriegen. 

In der jüngsten Ausgabe des Wissenschaftsmagazins «Nature» führen Yochanan Bigman und Kurt Gray noch ein weiteres Argument gegen die Ergebnisse der MIT-Forscher um Rahwan an: Die Moral Machine finde nur deshalb durch die Bank Präferenzen für bestimmte Formen der Diskriminierung, weil sie den Probanden überhaupt nicht die Möglichkeit gebe, die Gleichbehandlung aller Menschen (oder sogar aller Lebewesen) unabhängig von irgendwelchen Charakteristika zu bevorzugen. Dies allein dadurch, dass das Gedankenex- periment die Probanden zwingt, einen Teil der virtuellen Verkehrsteilnehmer durch das Auto töten zu lassen. 

Fitte Frauen bevorzugt?

Bigman und Gray, die am der Abteilung Psychologie und Neurowissenschaften der University of North Carolina in den USA arbeiten, untermauern diese These mit einem abgewandelten Trolley-Problem, das sie um eine dritte Antwortoption erweiterten – nämlich jene, dass alle Verkehrsteilnehmer gleich behandelt werden sollen. Tatsäch- lich entschied sich die grosse Mehrzahl (rund 80 Prozent) der Studienteilnehmer jeweils für diese dritte Option und damit gegen die Bevorzugung von Frauen und Kindern sowie wohlhabenden, fitten und gesetzestreuen Menschen, die die Forscher am MIT aus der Online-Befragung mit der Moral Machine abgeleitet hatten. Nur dann, wenn eine der Unfalloptionen mit einer wesentlich grösseren Anzahl Geschädigter einherging als die andere, entschieden die Befragten mehrheitlich utilitaristisch; sprachen sich also dafür aus, möglichst viele Menschenleben zu retten. Dies zeige, so Bigman und Gray, dass es keineswegs generalisierbare Präferenzen für bestimmte Formen der Diskriminierung gebe. Vielmehr sei die Studie des MIT schlicht ungeeignet, tatsächliche Präferenzen abzufragen.


Nota. - Bestimmungen, die festlegen, was ich anderen und was andere mir schulden, sind rechtlicher Art: Das Recht regelt die Weisen des gesellschaftlichen Zusmmenlebens und erwägt daher, was für das Gemeinwesen am nützlichsten ist. Moralisch handle ich dagegen, wenn ich entscheide, was ich mir schuldig bin - nur mir, nur ich. Bei obiger Frage handelt es sich daher um ein Rechtsproblem, denn gemeint ist: Wie sollte irgendein Autofahrer in irgendeiner Situation handeln? Nicht gefragt ist: Was würdest du tun? Denn nähme ich mir nur drei, vier Se- kunden Zeit, würde ich antworten: Das kommt drauf an! Kenne ich die einen, kenne ich die anderen? Was, wenn unter den Joggern meine Tochter ist? Oder der Vater von meines Sohnes bestem Freund (11 Jahre)? Der Hund meiner ist und von einem Nachbarn Gassi geführt wird?

Ja, das sind moralische Fragen. 

Die kann nur jeder für sich selbst beantworten, und auch nur in der konkreten Situation, in der sie sich stellen. Da gibt es eine unendlich Möglichkeit von Varianten, und viele, die ich in drei, vier Sekunden gar nicht über- blicken könnte. Und wie ich entscheiden würde, wenn einer der Jogger ein reicher Erbonkel wäre, den ich nie leiden konnte, mag ich mir gar nicht ausmalen.

Offenkundig wäre es sinnlos, eine solche Frage an einen Logarithmus zu stellen. Der kennt niemanden, nicht meinen Sohn, nicht meine Freunde, keinen Erbonkel und keinen Hund. Der könnte nur in anstracto antworten. Doch damit ist keinem geholfen. Abstrakte Situation gibt es nur in der Abstraktion, aber nicht im Straßenver- kehr, der ist immer konkret; und wenn der Logarithmus nach Schema F urteilt, wird ihm keiner einen Vorwurf machen, weil er, dumm wie er ist, nur dem Recht Genüge getan hat, nicht aber der wirklichen Situation im wirklichen Leben.

Kurz gesagt, das Experiment ist völlig nichtssagend und der, der es gesponsort hat, hat sein Geld zum Fenster rausgeschmissen.
JE

Keine Kommentare:

Kommentar veröffentlichen