Stefan Riedener ist Professor für Moralphilosophie an der Universität Bergen. Im Gespräch mit ihm geht es um die Plausibilität verschiedener ethischer Prinzipien, über die Bewegung und Ideen des Effektiven Altruismus und über moralische Unsicherheit.
Ressourcen
- Mehr zu Effektivem Effektivem Altruismus ist auf Deutsch auf effektiveraltruismus.de und auf Englisch auf effectivealtruism.org zu finden.
- Ein guter Startpunkt ist der Text Effektiver Altruismus: Eine Einführung.
- Einen guten Überblick über die praktischen Implikationen des Utilitarismus bietet der Text Acting on Utilitarianism auf utilitarianism.net (bald auch auf Deutsch verfügbar). Die anderen Kapitel des Online-Textbuchs bieten einen guten Überblick über die utilitaristische Theorienfamilie.
- Informationen zu effektiven Hilfsorganisationen und zum steuerbegünstigten Spenden an sie gibt’s auf effektiv-spenden.org.
- Stefans akademische Publikationen sind auf dieser Seite gelistet.
- Weitere Literaturempfehlungen nach Themen aufgeschlüsselt:
- Populationsethik
- Kapitel 5 „Population Ethics“ auf utilitarianism.net (bald auch auf Deutsch verfügbar)
- Moralische Unsicherheit
- Uncertain Values: An Axiomatic Approach to Axiological Uncertainty, Stefan Riedener
- Moral Uncertainty, William MacAskill, Krister Bykvist und Toby Ord
Kapitelmarkierungen
[00:00:00] Intro
[00:01:30] Stefans Weg in die Moralphilosophie
[00:06:26] Effektiver Altruismus & warum Stefan 10 % seines Einkommens spendet
[00:15:35] Ethik ernst nehmen: Wann sollen wir auf unsere moralischen Überzeugungen hören?
[00:20:20] Handlungsfelder des Effektiven Altruismus und Methode der Priorisierung
[00:27:10] Distanzneutralität und zeitliche Neutralität
[00:29:24] Erfahrungsdistanz
[00:31:13] (Un)parteilichkeit
[00:38:48] Longtermism
[00:41:29] Möglichkeitsneutralität & das Nicht-Identitätsproblem
[00:45:35] Populationsethik: Paradoxie der bloßen Addition und Desiderata an Populationstheorien
[00:49:44] Risikoneutralität
[00:51:20] Tun-Unterlassen-Neutralität
[00:56:42] Moralische Pflicht zur Leistung von Hilfe
[00:59:27] Vervollkommnungspflichten
[01:04:43] Konvergieren ethische Theorien zu ähnlichen Empfehlungen?
[01:06:52] (Anti-)realismus in der Ethik
[01:10:17] Wohlergehen und Paternalismus
[01:15:07] Axiologische Unsicherheit
[01:26:03] Moralische Unsicherheit
[01:37:22] Outro
Transkript
[00:00:07] Stephan: Mit dem Moralphilosophen Stefan Riedener habe ich für Folge 4 von Prioritäten unter anderem über verschiedene Neutralitätsthesen in der Ethik gesprochen, also inwiefern Faktoren wie die zeitliche und räumliche oder auch die Erfahrungsdistanz ethisch bedeutsam sein könnten. Außerdem sprachen wir über Stefans Überzeugungen zum Utilitarismus, über den sogenannten Effektiven Altruismus, laut dem wir signifikante Ressourcen verwenden sollen, um unparteilich, vernunft- und evidenzgeleitet Gutes zu tun, und über das Problem moralischer Unsicherheit, d. h. der Frage, wie wir uns angesichts von Unsicherheit darüber, was das ethisch Gute und Richtige ist, verhalten sollen. Stefan ist integer wie freundlich und bedacht in seinen Ansichten. Ich hoffe, das Anhören unseres Gesprächs macht zumindest ein bisschen so viel Freude, wie das Führen des Gesprächs es getan hat. Viel Spaß beim Hören!
[00:01:12] Stephan: Stefan, ich freue mich auf das Gespräch mit dir. In dem Epigraph deines Buches zitierst du den deutschen Philosophen Ernst Tugendhat, der sagte: „Philosophie sei heutzutage keine bloße Freizeitbeschäftigung, sondern eine zentrale Notwendigkeit, da wir nicht länger meinen, zu wissen, was gut ist.” Ich möchte mit dir heute über Effektiven Altruismus und Ethik im Allgemeinen sprechen. Aber zuerst, Stefan: Was war dein Weg in die Philosophie? Fing es als Freizeitbeschäftigung an oder war dir von Anfang an klar, die Welt braucht Philosophie, vielleicht insbesondere Moralphilosophie?
[00:01:42] Stefan: Ja, erstmal hallo Stefan, ganz herzlichen Dank für die Einladung in den Podcast. Freut mich sehr, mit dir sprechen zu können. Ich habe, als ich mich entschlossen habe, Philosophie zu studieren, bestimmt noch nicht gedacht, dass ich professionell an einer Uni später Philosoph werden würde. Im Gegenteil, ich habe eigentlich vorgehabt, Schriftsteller oder Dichter zu werden, habe mir immer vorgestellt, es wäre schön, wenn auf dem Grabstein stehen würde, dass ich ein Dichter war.
Aber an der Philosophie haben mich verschiedene Dinge fasziniert. Zum ersten sicher so eine Idee von Notwendigkeit, dass die Philosophie sich mit Dingen auseinandersetzt, die, wenn sie wahr sind, in irgendeiner Weise notwendig wahr sind. Im Unterschied vielleicht zur Biologie oder vielleicht auch zur Psychologie oder Soziologie oder Geschichte, die sich auseinandersetzen mit kontingenten Dingen, die auch anders sein können. Und das hat mich fasziniert an der Philosophie, aber auch zum Beispiel an der Mathematik. Diese Qualität der Notwendigkeit, die philosophische Wahrheiten haben. Und andererseits, und das hat mich dann mindestens im Laufe meines Studiums irgendwann in die Moralphilosophie gebracht, hat mich immer die Frage interessiert, ganz persönlich und dringend interessiert, wie wir leben sollen und was das richtige und gute Leben ist.
Das war bestimmt mit ein Grund für mein Interesse an Literatur schon ganz früh oder dafür, dass ich auch Schriftsteller werden wollte, dass ich das Gefühl hatte, ich will mich mit meinem eigenen Leben oder überhaupt mit dem menschlichen Leben auf diese Weise auseinandersetzen. Aber ich habe dann irgendwann gemerkt, mein eigentliches Interesse, zum Beispiel an Literatur oder an Romanen, ist eben dieses allgemein Philosophische, was ich letztlich lieber durch kritisches, reflektives Nachdenken beantworte, als durch künstlerische Mittel, zum Beispiel der Literatur. Die Frage, wieso…
[00:03:34] Stephan: Was natürlich auch möglich wäre, wenn du sagst, du hättest auf deinem Grabstein gerne stehen „Stefan, der große Dichter„, dann steckt da ja vielleicht auch hinter, du denkst über dein Leben als Narrativ nach und denkst darüber nach, was für dich quasi das gute Leben wäre. Und im Grunde ist das ja eine der sehr klassischen Fragen der Philosophie. Was ist das gute Leben? Wie soll ich handeln?
[00:03:56] Stefan: Genau. Also ich habe lustigerweise sogar auch in meinen Nebenfächern dann deutsche Literaturwissenschaften studiert und Mathematik. Aber vielleicht ist die Moralphilosophie sozusagen die Schnittstelle zwischen der Literatur und der Mathematik und die Schönste aus beiden Welten sozusagen. Und also ich bin sehr, sehr dankbar und froh, dass ich das jetzt beruflich betreiben darf und mein Leben damit verbringen darf, über diese Fragen nachzudenken.
[00:04:21] Stephan: Was leitet dich heute, wenn du entscheidest, woran du forschst?
[00:04:25] Stefan: Erstens mal die Frage, was gesellschaftlich und also gewissermaßen politisch wichtig ist. Ich möchte gern mit meiner Arbeit dazu beitragen, dass die Welt ein bisschen besser wird. Das ist vielleicht ein sehr hoher Anspruch, aber mir scheint unbedingt ein Anspruch, den man auch an die eigene Karriere, an den eigenen beruflichen Weg haben muss.
Und das war bestimmt eben dann auch mit ein Grund, warum ich eher in die Moralphilosophie gegangen bin, weil ich hier eher die Vorstellung habe, dass es helfen kann, die Welt zu verbessern. Andererseits suche ich auch nach Dingen, die für mich persönlich wichtig sind. Also ich möchte nicht einfach nur etwas machen, wo ich selber irgendwie kein Feuer spüre oder wo ich selber das Gefühl habe, es hat mit meinem eigenen persönlichen Erleben und Leben nichts zu tun, sondern ich suche etwas, womit ich auch sozusagen in meinem persönlichen Leben und in meinem Alltag etwas anfangen kann.
Vielleicht war das mit ein Grund, warum ich ein bisschen weggekommen bin von gewissen Forschungsgebieten, zum Beispiel von dem Forschungsgebiet, worüber ich meine Dissertation verfasst habe, weil ich da irgendwann auch irgendwie das Gefühl hatte, es ist zwar vielleicht aus einer allgemeineren Perspektive wichtig, die Frage der normativen Ungewissheit, zu der ich geschrieben habe, aber ich hatte mehr und mehr das Gefühl, es gibt mir in meinem persönlichen Leben nichts und hab dann versucht, wieder mehr in meiner eigenen Nähe zu finden und zu meinem eigenen Leben zu finden. Also irgendwie diese Balance.
[00:06:00] Stephan: Wahrscheinlich kommen wir in der Diskussion zum Utilitarismus dann noch zu, weil eine klassische Kritik daran ist, dass man eigene Projekte zu sehr zurückstellt und sich selbst und seine Entwicklung nicht ernst genug nimmt, sich selbst zu sehr instrumentalisiert. Aber andererseits ist es natürlich, sagst du auch immer noch, schon ein Wert, vielleicht nur nicht der einzige Wert…
[00:06:22] Stefan: Auf jeden Fall!
[00:06:23] Stephan: … so etwas unparteiisch Gutes zu machen. Wann war deine erste Exposition zu Effektivem Altruismus?
[00:06:31] Stefan: Also ich habe 2011 meinen Master in Philosophie angefangen, den BPhil in Oxford damals und da gab es, soweit ich jedenfalls in Erfahrung bringen konnte, den Begriff des Effektiven Altruismus irgendwie noch nicht. Was es gab, war Giving What We Can, diese Organisation, bei der man Mitglied werden konnte und sich durch die Mitgliedschaft verpflichtet hat, sich selber und den anderen Mitgliedern gegenüber zehn Prozent seines Einkommens lebenslang zu spenden, möglichst effektiv. Da bin ich ziemlich bald Mitglied geworden, habe auch ein bisschen mitgearbeitet und das war aber damals noch sehr, sehr klein.
Die ganze Gemeinschaft, die da involviert war, hat man schnell gekannt. Einmal haben wir einen Ausflug gemacht mit allen, die da irgendwie involviert waren. Das waren vielleicht 20 Leute. Will MacAskill und Toby Ord waren auch dabei. Man ging irgendwo in ein Camp. Und dann habe ich irgendwie mitgekriegt, ziemlich hautnah, wie das größer und größer wurde. Also gefühlt ist es irgendwie plötzlich explodiert von dieser kleinen studentischen Gruppe da in Oxford, ist diese weltweite Bewegung geworden. Und ich, ja habe manchmal das Gefühl, ich hatte irgendwie das Privileg, zu einer Zeit an einem Ort zu sein, um dieses Größer Werden, dieses Wachstum, irgendwie miterleben zu können.
[00:07:51] Stephan: Zwei Fragen vielleicht: Zum einen so ein Versprechen abzugeben, zu sagen, ich spende zehn Prozent meines Einkommens, das ist erstmal für viele Leute, glaube ich, zumindest nicht intuitiv. Es wird ja auch selten gemacht. Also war es für dich irgendwie was Schwieriges, war es selbstverständlich für dich, war es sehr einsichtig? Und die zweite Frage, weil wir über die EA-Bewegung auch reden — es ist quasi beides Forschungsrichtung und Bewegung — warum glaubst du, dass es in den letzten Jahren so groß geworden ist? Verhältnismäßig groß.
[00:08:25] Stefan: Zuerst zur ersten Frage: War es einfach oder natürlich? Für mich das Interessante war, ich hatte mich schon während meines Bachelorstudiums viel eigentlich mit diesen moralischen, ethischen Fragen auseinandergesetzt. Haben wir nicht eigentlich eine Pflicht zu spenden? Ich kannte zum Beispiel diesen berühmten Artikel von Peter Singer, wo er argumentiert, wir haben eigentlich eine Pflicht, große Teile unseres Einkommens zu spenden. Ich habe das immer auch eigentlich philosophisch überzeugend gefunden. Nur hat es halt niemand gemacht, damals in Zürich, wo ich meinen Bachelor gemacht habe. Und das Inspirierende war dann, in Oxford erst einmal gar nicht so sehr neue philosophische Ideen kennenzulernen, weil ich kannte sozusagen… die Grundargumente dahinter kannte ich schon und war für mich auch nicht neu.
Inspirierend war zu sehen, dass da eine Gruppe von Leuten ist, die das einfach macht und die einfach nicht nur trivial mal hier zu Weihnachten 100 Franken irgendwo hin spenden, sondern substanzielle Teile des eigenen Einkommens zu spenden und dabei nicht unglücklich oder zerknirscht ist oder irgendwie erdrückt vom Gefühl einer moralischen Pflicht, sondern das ganz natürlich als Teil eines guten und gelungenen Lebens anschaut und dadurch eigentlich noch glücklicher wird in der Überzeugung, die Welt verbessern zu können. Und das hat mich dann inspiriert. Und in dem Moment, wo ich diese Leute kennengelernt habe, hat es auch nicht mehr lang gedauert und hat sich dann eigentlich sehr natürlich und sehr leicht auch angefühlt, dieses Commitment selber einzugehen.
Und dann hast du noch gefragt, warum die Bewegung so viel größer geworden ist. Also du meinst, warum sie eben nicht so klein in Oxford geblieben ist, sondern warum sie diese große globale Bewegung werden konnte, oder meinst du auch, warum es genau in den und den Jahren…?
[00:10:00] Stephan: Warum es in den Jahren auch passiert ist. Also den Aufsatz von Singer, den du erwähnt hast, der wurde ja vor mittlerweile 50 Jahren oder was geschrieben.
[00:10:09] Stefan: In den 70ern, genau, ja. Das ist eine gute Frage. Der entscheidende Schritt, ein ganz entscheidender Schritt in der Entwicklung der Bewegung, war sicher diese Verallgemeinerung des Gedankens, der jetzt hinter dem Effektiven Altruismus steht. Zu Beginn, also bei Giving What We Can, war es einfach nur die Frage: Wo kann ich am effektivsten spenden? Ich glaube, ganz zu Beginn war es sogar nur: Wo kann ich am effektivsten spenden zur Bekämpfung von globaler Armut? Und das Weitsichtige und das Geniale dann in dem Schritt zur Bewegung des Effektiven Altruismus war zu sehen, dass fundamental letztlich eine viel allgemeinere Frage ist, nämlich, wie kann ich anderen am meisten Gutes tun insgesamt? Sei das durch Spenden oder durch andere Formen des Engagements, sei es in Bezug auf globale Armut oder andere globale Probleme. Und diese Erweiterung einerseits des Horizonts der Problemfelder, wo diese Fragen relevant sind, und andererseits der Mittel, um diese Problemfelder anzugehen, das hat sicher entscheidend dazu beigetragen, dass die Bewegung dann eben größer werden konnte. Vielleicht hat es auch was mit technischen Möglichkeiten zu tun, dass im 21. Jahrhundert eben die Möglichkeiten von uns allen… also erstens mal sowas wie eine Bewegung überhaupt zu gründen, ist in Zeiten des Internets natürlich leichter, aber dann auch die Möglichkeit, von vielen von uns effektiv was zu bewirken in der Welt, sind, glaube ich, viel größer geworden, als sie wahrscheinlich damals noch waren in den 70ern. Für viele Leute, die irgendwie Peter Singer damals gelesen haben.
[00:11:41] Stephan: Ich kann mir gut vorstellen, dass es irgendwie eine Kombination ist aus so einer Art kritischen Masse und sozialen Effekten und gleichzeitig neuen Ideen. Auf den letzten Punkt kommen wir vielleicht später noch zu sprechen, wenn es um moralischen Fortschritt geht, weil wir mehr machen können global, aber vielleicht vor allem, wenn man es jetzt vergleicht mit Prä-Globalisierung, Gesellschaften, in denen man wenig Einfluss auf die breitere Welt hatte und uns heute, die wir auch eben Leben, weit weg retten können.
Wir haben jetzt schon mehrfach den Begriff des Effektiven Altruismus benutzt, ohne ihn so richtig gut zu definieren. Möchtest du das einmal versuchen?
[00:12:23] Stefan: Kann ich gerne versuchen. Ich selber würde sagen, also erstmal der Effektive Altruismus, wie du vorhin auch schon angedeutet hast, ich würde es nicht als eine philosophische Theorie bezeichnen, sondern in erster Linie ist es eine soziale Bewegung. Und dann ist die Frage also, was hält die Leute zusammen, die Teil von dieser sozialen Bewegung sind? Und ich würde sagen, Effektive Altruist:innen fragen erstmal ganz allgemein eben, wie kann ich anderen am meisten Gutes tun? Sie verwenden dafür systematisch empirische Evidenz und kritische Reflexion, um diese Frage eben so gut wie möglich beantworten zu können. Und zuletzt fragen sie eben nicht nur rein theoretisch, sondern sie handeln mindestens in einem beachtlichen Ausmaß auf der Basis Ihrer Antwort auf diese Frage. Also sie tun in einem beachtlichen Ausmaß das, wovon sie denken, dass es anderen am meisten gut.
[00:13:20] Stephan: Im Grunde können wir schon eine gewisse Aufteilung oder eine gewisse Distinktion machen zwischen so einer Art Forschungsrichtung — ich würde auch nicht sagen, es ist ein akademisches Feld, aber natürlich gibt es auch die sogenannte Globale Prioritätenforschung, in der man sich erstmal entweder empirisch oder auch konzeptuell damit befasst, was das Gute ist und wie man Gutes tun kann — und der Umsetzung der Bewegung.
[00:13:47] Stefan: Wobei eben das Entscheidende, glaube ich, ist, in der Bewegung selber mindestens, dass sie diese beiden Dinge zusammenführt. Also man ist noch keine Effektive Altruistin, wenn man sich die Frage nur theoretisch stellt, egal wie systematisch oder kritisch man sie sich stellt.
[00:14:02] Stephan: Es ist zumindest… aber wenn jemand jetzt sagt: „Ich werde Prioritätenforscher und das beeinflusst meine Berufswahl, ich will auf die Weise Gutes tun”, dann wäre ich nicht so hart zu sagen, das ist kein Effektiver Altruist, wenn er nicht ...
[00:14:17] Stefan: Nee, genau. Dann hat man aber auch schon vorausgesetzt, dass die Person unter anderem diese Berufsrichtung wählt, weil sie denkt, dass sie so viel Gutes tut, de facto.
[00:14:26] Stephan: Okay. Es ist keine Freizeitbeschäftigung.
[00:14:27] Stefan: Also, wer nur die Frage stellt und irgendwie zur Konklusion kommt, ich sollte X oder Y oder Z tun, um die Welt zu verbessern, aber das ist mir ehrlich gesagt komplett egal, werde ich nicht tun, wenn man ...
[00:14:35] Stephan: Ja, die Motivation spielt auf jeden Fall eine Rolle.
[00:14:36] Stefan: Genau. Aber damit ist natürlich eben nicht gesagt, man muss spenden zum Beispiel, um Effektive:r Altruist:in zu sein. Also die Art und Weise…
[00:14:45] Stephan: Ich glaube, so hat es angefangen, nicht? So hat es angefangen. Anfangs haben sich Leute einfach gefragt, wie spende ich effektiv und kamen dann zu der Erkenntnis, dass viele Hilfsorganisationen gar nicht so wahnsinnig transparent sind und das nicht wirklich quantifizieren. Dadurch entstanden Organisationen wie GiveWell, die abwägen, welche Hilfsorganisationen wie viel Gutes tun. Die existieren auch immer noch. Später dann auch noch sowas wie Animal Charity Evaluators, die das nicht nur für globale Armut tun, sondern eben auch für Tierwohl. Und noch diverse andere Organisationen. Aber nach und nach kam dann auch mehr dazu, dass eben die Berufswahl auch eine wichtige, manchmal sogar für manche eine wichtigere Entscheidung sein kann, als die Entscheidung, wie viel und wohin ich spende.
[00:15:33] Stefan: Genau, genau.
[00:15:34] Stephan: Glaubst du, es ist relativ rar, dass Menschen ihren moralischen Überzeugungen folgen? Also die meisten Ethiker handeln vielleicht nicht so viel mehr nach ihren Überzeugungen als der Durchschnittsmensch und verhalten sich vielleicht nicht viel ethischer, sind nicht Teil irgendwelcher Bewegungen, versuchen nicht, ihre Überzeugungen so sehr Realität werden zu lassen.
[00:15:58] Stefan: Wahrscheinlich ist das richtig. Ich glaube schon zum Beispiel, dass an Philosophie-Instituten, ich weiß nicht, der Prozentsatz an vegetarischen Menschen oder Menschen, die vegan leben oder vielleicht an Menschen, die Sexismus oder Klimakrise, Rassismus oder so besonders ernst nehmen, vielleicht größer ist als an beliebigen anderen Arbeitsorten. Aber bestimmt ist es auch nicht so, dass Ethiker:innen insgesamt klarerweise die viel besseren Menschen wären als andere. Das ist sicher auch nicht so. Und gleichzeitig würde ich es aber auch nicht immer so formulieren, dass das bedeutet, dass die meisten Ethiker:innen nicht nach den Prinzipien handeln, die sie in der Theorie für richtig erkennen.
Also ich glaube, dass ganz viele Ethiker:innen auch einfach eine weniger anspruchsvolle moralische Theorie haben, als es zum Beispiel der Utilitarismus ist oder als eben vielleicht der Effektive Altruismus mindestens verkörpert oder normalerweise mit beinhaltet. Also wenn ich an ganz viele Leute denke, an Instituten zum Beispiel in Deutschland oder der Schweiz, dann würde ich nicht unbedingt sagen, die sind heuchlerisch und die vertreten Theorien, die sie dann nicht in die Praxis umsetzen, sondern viele von ihnen vertreten halt einfach Theorien, die sich quasi leichter in die Praxis umsetzen lassen, zum Beispiel als ein Utilitarismus oder diese allgemeine, einfach diese Argumente von Peter Singer.
Das Spannende aber an diesen Leuten, die da damals involviert waren und natürlich heute noch involviert sind in Effektiven Altruismus, ist, dass sie eben eine vergleichsweise anspruchsvolle und nicht triviale ethische Theorie haben, aber die dann nicht nur theoretisch vertreten, sondern auch in die Praxis umsetzen. Und das scheint mir doch… schien mir damals selten, scheint mir vielleicht auch heute noch selten. Also es gibt sicher ganz, ganz viele Leute, die irgendwie behaupten, ich halte den Utilitarismus für plausibel, aber wenn man guckt, wie sie sich verhalten, sieht es überhaupt nicht so aus. Genau. Und das ist schon inspirierend. Also, was ich da schon kennengelernt habe, so eine Art und Weise das ethische Nachdenken, moralphilosophische Nachdenken ernst zu nehmen und umzusetzen und sobald man zu einer Konklusion gekommen ist, ernsthaft, das eben nicht als theoretische Konklusion stehen zu lassen, sondern danach auch zu handeln.
[00:18:09] Stephan: Je mehr man optimistisch ist, dass das vielleicht auch stimmt, dass Leute vielleicht nur deswegen nicht aus der eigenen Perspektive ethisch handeln, weil sie vielleicht die falsche Moraltheorie haben, desto wertvoller ist es ja vielleicht auch, moralphilosophischen Diskurs zu betreiben. Und gleichzeitig gibt es bestimmt auch Phänomene, in denen Leuten vielleicht eigentlich bewusst ist, was moralisch richtig ist und sie vielleicht aus Bequemlichkeit oder sonst was, nicht danach handeln. Ich weiß nicht, was der größere Effekt ist. Ist das immer gut, wenn Leute nach ihren Überzeugungen handeln?
[00:18:45] Stefan: Nein, bestimmt nicht. Die Nazis haben auch nach ihren Überzeugungen gehandelt, aber das war katastrophal. Also…
[00:18:52] Stephan: Die Frage der Schuld stellt sich aber, oder? Wenn man glaubt, das Richtige zu tun, wie schuldig ist man dann?
[00:18:58] Stefan: Ja, und das ist auch eine Frage, die natürlich zusammenhängt mit meinem Forschungsinteresse an normativer Ungewissheit. Ich glaube, es gibt eine gewisse Form der Rationalität, die besagt, wenn ich die Überzeugung habe, dass ich X tun sollte, dann ist es eben rational und dann habe ich auf eine Weise Gründe, X zu tun. Egal, ob diese Überzeugung objektiv richtig oder objektiv falsch ist. Die Frage der Schuld kann sich auch immer noch stellen in Bezug auf unsere Überzeugung. Also es kann auch sein, dass wir schuld sind, nicht so sehr vielleicht, weil wir das getan haben, von dem wir dachten, dass es moralisch richtig ist, sondern weil wir zu dieser und jener Überzeugung davon kamen, was moralisch richtig ist. Also es kann vorwerfbar sein, zum Beispiel, dass ich rassistische Überzeugungen habe. Es ist zwar dann vielleicht nachvollziehbar, dass wenn ich diese Überzeugung habe, dass ich auch danach handele, aber es kann eben schon vorwerfbar sein, dass ich überhaupt zu diesen Überzeugungen kam.
[00:19:52] Stephan: Ich glaube, da gibt es eine relativ leichte Analogie zu dem Strafrecht, wo wir auch eine Fahrlässigkeit vorwerfen können und in dem Fall wäre es eben eine Fahrlässigkeit, die eigenen Positionen auf den Prüfstand zu stellen.
[00:20:05] Stefan: Genau.
[00:20:06] Stephan: Und eine gewisse Demut kann trotzdem hilfreich sein, wenn man sich zum Beispiel fragt, wie man sich selber verhalten hätte in Gesellschaften, in denen es zum Beispiel Sklaverei gab.
[00:20:19] Stefan: Absolut.
[00:20:20] Stephan: Sollen wir mit den Handlungsfeldern von Effektivem Altruismus einmal weitermachen, um einen Überblick zu geben, wie Effektiver Altruismus in der Praxis ausschaut, worauf er sich konzentriert? Möchtest du vielleicht eine kurze Übersicht geben?
[00:20:36] Stefan: Genau, wir haben schon genannt, dass zu Beginn eben globale Armut oder globale Entwicklung im Fokus stand. Und das ist auch nach wie vor eines der Themenfelder, wo sich Effektive Altruist:innen zu engagieren versuchen. Globale Armut und globale Ungleichheit. Ein anderes ist zum Beispiel Tierwohl, beziehungsweise Tierleid. Die Tatsache, dass es insbesondere quasi in der Tierindustrie und in der Fleischproduktion oder Produktion von Tierprodukten enorm viele Tiere noch gibt, die sehr, sehr schlecht gehalten werden, was enorm viel Tierleid verursacht, ganz abgesehen mal noch von den ökologischen Effekten, die das Ganze hat. Und auch das ist so ein großes Handlungsfeld für die Effektiven Altruist:innen geworden.
Mehr und mehr ist dann auch die längerfristige Zukunft der Menschheit oder überhaupt des Lebens im Universum in den Blick geraten. Und zwar aus einem ganz einfachen Grund, dass längerfristig gesehen eben enorm viel auf dem Spiel steht. Also nehmen wir zwei Szenarien. Das eine Szenario, die Menschheit stirbt demnächst aus und es wird auch nicht ersetzt durch eine andere, ähnlich intelligente Spezies. Und im anderen Szenario überlebt die Menschheit noch Jahrmillionen weiter und entwickelt sich weiter und es gelingt uns vielleicht für uns und alle anderen Lebewesen eine gute Zukunft zu schaffen auf diesem Planeten und vielleicht auf anderen Planeten. Der Unterschied zwischen diesen beiden Szenarien scheint enorm groß zu sein, scheint enorm wichtig zu sein, scheint wahnsinnig wichtig zu sein, dass wir eben nicht bald aussterben, sondern dass wir diese positive Zukunft realisieren.
Und gewiss können wir heute nicht sicherstellen, dass wir nicht aussterben, sondern dass wir noch diese lange, gute Zukunft vor uns haben. Aber wir können vielleicht die Wahrscheinlichkeit ein bisschen erhöhen. Und mehr und mehr sind Leute innerhalb der Bewegung zur Überzeugung gekommen, dass Handlungen, die diese Wahrscheinlichkeit auch nur ein bisschen, auch nur minim erhöhen, ex ante, also in der Erwartung, extrem wertvoll sind. Und dass es also auch sich lohnen kann, sich für die ganz, ganz längerfristige Zukunft des Lebens im Universum einzusetzen. Zum Beispiel im Unterschied zu globaler Armut oder Tierleid.
[00:22:46] Stephan: Also im Grunde erfolgt eine Priorisierung, in der man schaut: „Was ist das Ausmaß des Problems?” Und — wir kommen gleich nochmal auf Populationsethik zurück — aber wenn man das ernst nimmt und sagt, „das Ausmaß des potenziell Guten in der Zukunft ist riesig”, dann hat man da schon mal einen riesigen Punkt. Und selbst wenn man da nicht imstande ist, einen großen Unterschied bei der Lösung des Problems zu machen, kann das immer noch wertvoll sein. Also es erfolgt eine Priorisierung aufgrund von Ausmaß, „Wie viel Fortschritt kann ich an dem Problem machen und wie vernachlässigt ist es?”
[00:23:19] Stefan: Genau, vielleicht können wir das noch expliziter machen. Also das ist ein sehr berühmter Rahmen, den, ich glaube, Will MacAskill in seinem Buch Doing Good Better entwickelt hat, um zu fragen, welche Probleme oder welche cause areas eben wichtig sind aus Perspektive des Effektiven Altruismus. Und seine Idee war eben, genau, es sind zunächst einmal diese drei Kriterien, die sehr ausschlaggebend sind: Probleme, die erstens groß sind, zweitens so, dass wir sie lösen können und drittens — vernachlässigt bisher — sind am ehesten die Probleme, wo wir eben heute, wenn wir uns ihnen widmen, besonders viel Gutes tun können. Genau.
[00:23:58] Stephan: Und es ist das Produkt aus den drei Faktoren.
[00:24:00] Stefan: Genau.
[00:24:01] Stephan: Also, wenn natürlich schon ein Faktor negativ ist, wenn ich tatsächlich eigentlich was Schlechtes mache, dann habe ich da ein Minus und dann richte ich Schaden damit an und die addieren sich nicht oder so, sondern es ist plausibel, dass die sich multiplizieren. Und natürlich hat man dann schnell schwierige Probleme, wenn man zum Beispiel existierende mit zukünftigen Leben abwägen muss, wenn man Menschenleben mit Hühnerleben zum Beispiel wägen muss. Das sind neben Fischen die am häufigsten getöteten Tiere für den menschlichen Verzehr. Ich habe gerade bei Our World in Data gelesen, 202 Millionen Hühner werden pro Tag geschlachtet und denen geht es wirklich, wirklich furchtbar. Und dann muss man solche Abwägungen treffen: Also spende ich jetzt? Ich frage dich, wie triffst du die Abwägung? Spendest du dann an die Against Malaria Foundation, wo Schätzungen sind, dass man mit 5000 Dollar ein Menschenleben retten kann durch Malaria-Prävention? Oder spendest du an Organisationen, die sich der Verringerung von existenziellen Risiken widmen, oder Organisationen, die am Tierwohl arbeiten?
[00:25:06] Stefan: Ich habe meistens bisher meine Spenden aufgeteilt, also nicht alles in einen Topf, sondern versucht, das ein bisschen aufzuteilen. Ich habe zuletzt auch auf jeden Fall gespendet für diesen Long-Term Future Fund, also Organisationen oder Projekte, die sich einsetzen für die längerfristige Zukunft des Lebens im Universum, aber auch für Tierwohl und auch — und das muss ich sagen — gegen die Klimakrise. Das scheint mir persönlich ein extrem dringendes Problem und ich habe manchmal das Gefühl, dass das Problem durchaus noch mehr Priorisierung auch innerhalb der EA-Community erfahren sollte. Genau, aber da habe ich also auch versucht, das mit zu berücksichtigen. Es ist überhaupt nicht so, dass es nicht diskutiert wird innerhalb der Gemeinschaft. Selbstverständlich wird es auch ernst genommen, zum Beispiel, weil es eben natürlich ein sehr großes Problem ist. Aber ich glaube, dieses Kriterium, dass ein Problem vernachlässigt sein sollte, hat manche innerhalb der Bewegung dazu gebracht, eben weniger über die Klimakrise zu diskutieren als über andere Probleme, weil eben die Klimakrise schon mehr international auf dem Radar der Leute ist, als jetzt zum Beispiel Tierwohl oder erst recht die längerfristige Zukunft des Lebens.
[00:26:18] Stephan: Ja, ich glaube, das stimmt auf jeden Fall und Vernachlässigung ist ja auch nicht die ganze Wahrheit. Es kann passieren, dass man einen abnehmenden Grenznutzen hat. Es kann auch je nach Problem passieren, dass wenn du eine kritische Masse hast, du einen zunehmenden Grenznutzen hast. Also dass mehr und mehr Arbeit daran manchmal sogar noch zusätzlich Gutes tun kann.
Es stimmt schon, dass das innerhalb der Bewegung, glaube ich, zumindest als weniger großes Problem als zum Beispiel Pandemie-Prävention angesehen wird, weil man bei letzterem denkt, dass es ein katastrophales, gegebenenfalls mit engineerten Viren, ein existenzielles Risiko sein kann und beim Klimawandel skeptischer ist, dass das so sein kann. Zumindest, wenn du die Effekte der ersten Ordnung anschaust, weil immer noch Teile der Erde bewohnbar bleiben, auf jeden Fall.
Lass uns vielleicht einmal durch ein paar philosophische Annahmen von Effektivem Altruismus gehen. Geprägt ist EA, würde ich sagen, von mehreren Neutralitätsannahmen. Also fangen wir mal an mit der Distanz-Neutralität: Singer hat ja in Famine, Affluence and Morality, also Hunger, Wohlstand und Moral, diesem Aufsatz, den wir erwähnt haben, das berühmte Gedankenexperiment von dem seichten Teich, in dem ein Kind ertrinkt, vorgeschlagen und man geht daran vorbei und hat teure Klamotten an und hat keine Zeit, die auszuziehen und muss sich dann entscheiden, ob man das Kind rettet oder eben nicht und ob man dabei seine Kleidung ruiniert. Und natürlich sagen alle „ja” und das Argument ist dann, dass wir ja in genau der Situation eigentlich sind, wenn wir der rein geographischen Distanz zu Menschen, die in Not sind, wenn wir der keine Relevanz beimessen. Wie plausibel findest du die Annahme erstmal?
[00:28:08] Stefan: Also so wie du es jetzt formuliert hast, scheint mir das extrem plausibel: Dass die rein geographische Distanz nichts austrägt für die Frage „Wie stark sind meine Pflichten einer Person gegenüber?” Das lässt sich zum Beispiel dadurch illustrieren: Nehmen wir an, ein guter Freund von mir ruft mich an und sagt, er ist gerade total finanziell in Schwierigkeiten. Ich muss ihm irgendwie 100 Euro aufs Bankkonto überweisen. Dann scheint es sinnlos oder unangebracht ihn zu fragen: „Ja warte mal, bist du gerade auch in der Stadt, wo ich bin oder bist du zufälligerweise gerade mit dem Flugzeug nach Australien geflogen und bist jetzt in Australien?” Das scheint völlig irrelevant sozusagen. Wie weit weg ist er jetzt gerade von mir? Diese rein geografische Distanz scheint mir auch irrelevant.
Ich bin nicht sicher, ob es nicht andere Dinge gibt, die manchmal vielleicht mit sowas wie geographischer Distanz korrelieren und die dann eben doch moralisch relevant sein könnten. Sei es mit geographischer Distanz oder auch mit zeitlicher Distanz. Also eine andere Dimension ist ja noch die zeitliche Dimension, die eben zum Beispiel gerade vor dem Hintergrund von Longtermism relevant wird, dass die Leute, dass EAs typischerweise sagen, ob jemand heute lebt oder ob jemand in 100.000 Jahren lebt, spielt keine Rolle für die Frage, wie stark meine Verpflichtungen dieser Person gegenüber sind. Auch da würde ich erstmal sagen, stimmt es auf jeden Fall, dass die zeitliche Distanz per se moralisch gesehen nichts austrägt. Aber auch da würde ich vermuten, dass oft sowas wie zeitliche Distanz korreliert mit Dingen, die eben vielleicht auch moralisch relevant sind. Zum Beispiel kann es sein, dass ich und eine andere Person, also was die zeitliche Dimension zum Beispiel angeht, in irgendeiner Form eine Lebensweise teilen oder Werte teilen und dass ich dann sagen kann, mir ist diese andere Person unter anderem deswegen wichtig, weil mir diese Werte eben wichtig sind.
Oder eben umgekehrt: mir ist eine andere Form des Lebens eben vielleicht weniger nahe, weniger wichtig, weil die Werte, die diese andere Lebensform verkörpert, mir weniger nahe oder weniger wichtig sind. Ich halte das ehrlich gesagt für plausibel, mindestens wenn die Dimensionen so sind, wie es im Longtermism gedacht wird, also wenn wir davon reden, Menschen — in Anführungszeichen — zu helfen, die in 100.000 Jahren leben, wo klar ist, dass die, wenn wir dann noch leben werden, werden wir ganz, ganz anders leben, als wir heute leben. Und da scheint es mir eigentlich manchmal plausibel zu sein, zu sagen, mir liegen die Menschen heute am Herzen, weil mir die heutige menschliche Lebensform am Herzen liegt, weil ich sie selber lebe, weil mir diese Dinge wichtig sind. Wenn in 100.000 Jahren Menschen vielleicht, weil sie Cyborgs sind oder in virtuellen Welten und dergleichen leben, dann mag das vielleicht objektiv gesehen auch wertvoll sein, aber es ist eben so radikal verschieden von meiner Lebensform, von dem, was mir wichtig ist, dass es mir persönlich legitim scheint dann zu sagen, gebe ich eine gewisse Priorität den heute lebenden Menschen gegenüber im Vergleich zu diesen ganz, ganz fernen zukünftigen Menschen.
[00:31:01] Stephan: Ja, beim Longtermism bezieht man ja dann sogar noch mit ein: Wie entwickelt sich die Menschheit? Und wenn wir uns im Weltall ausbreiten, ist es vielleicht nicht mal auf eine biologische Art?
[00:31:13] Stefan: Genau, genau!
[00:31:14] Stephan: Vielleicht gibt es gar keine Menschen in dem Sinne. Wenn du sowas sagst wie: Es mag dann das objektiv Gute sein, objektiv richtig, aber irgendwie erscheint es mir dann trotzdem subjektiv besser, sich doch mehr um Gegenwart oder um so eine nähere Erfahrungsdistanz zu kümmern, dann macht es mich trotzdem mindestens stutzig, weil es ja schon eine komische Aussage ist. Es mag objektiv besser sein, aber subjektiv vielleicht trotzdem nicht.
[00:31:43] Stefan: Ich weiß nicht, habe ich gesagt subjektiv?
[00:31:46] Stephan: Objektiv hast du gesagt, es mag dann objektiv gut sein.
[00:31:48] Stefan: Objektiv habe ich gesagt, genau. Was ich damit meine, also ich meine: ich persönlich denke, also ich persönlich bin nicht Utilitarist. Ich denke, dass der Utilitarismus falsch ist und ich denke aber trotzdem, dass viele Dinge am Effektiven Altruismus wahr sind oder wichtig sind. Aber das heißt… ich denke zum Beispiel nicht, dass wir — wie Sidgwick, Henry Sidgwick, der englische Philosoph, das formuliert hat — the point of view of the universe einnehmen sollten, um zu fragen, was sollen wir eigentlich tun. Also Sidgwick und der Utilitarismus meint — wenn wir uns fragen, wie wir handeln sollen — sollen wir eigentlich versuchen, moralisch gesehen mindestens diese ganz, ganz objektive Perspektive einzunehmen und eben zu tun, was auch immer aus dieser objektiven, aktuellen, neutralen Perspektive das Beste ist. Und ich glaube, das ist falsch. Ich glaube, es ist legitim, beziehungsweise die einzige Art und Weise.
[00:32:39] Stephan: Glaubst du, die existiert nicht oder wir müssen die nicht einnehmen?
[00:32:42] Stefan: Ich glaube doch, sie existiert und deswegen wäre ich auch bereit zu sagen, es mag objektiv gesehen vielleicht besser sein, wenn diese Leute in ferner Zukunft überleben. Aber ich glaube, wir sollten diese Perspektive nicht einnehmen, sondern wir sollten ernst nehmen, dass wir eben eine eigene Perspektive haben und also aktuell relativ, erstmal ausgehend von unserer eigenen Perspektive, zu einer Konklusion kommen, wie wir handeln sollen. Vielleicht ein einfaches Beispiel, das zu illustrieren, sind persönliche Beziehungen, wie zum Beispiel die Beziehung, die ich habe zu meinen Kindern. Ich würde nicht behaupten, dass meine Kinder objektiv wertvoller sind als andere Kinder, die ich nicht kenne oder die nicht meine eigenen sind. Das wäre vermessen. Natürlich, objektiv gesehen, sind sie nicht wertvoller.
Und trotzdem glaube ich, habe ich stärkere Gründe erstmal, mich um meine Kinder zu kümmern, als mich um wildfremde Kinder zu kümmern. Zum Beispiel, wenn ich eins von zwei Kindern retten kann und das andere wird sterben und eins davon ist mein Kind und das andere ist ein wildfremdes Kind, dann glaube ich, habe ich stärkere Gründe, mein Kind zu retten als das wildfremde. Ich glaube, es wäre falsch, zum Beispiel eine Münze zu werfen oder eben, ich weiß nicht, einfach nur zu rechnen, wie kann ich objektiv mehr Gutes tun. Vielleicht, wenn das andere Kind ein bisschen bessere Lebenserwartungen hat, dann das andere Kind zu retten oder dergleichen. Ich glaube, das würde verfehlen, die Beziehung ernst zu nehmen, die ich zu meinem Kind habe, nämlich dass es eben mein Kind ist.
[00:34:02] Stephan: Ja, ich glaube auch. Was ich am Utilitarismus für am ehesten falsch halte, ist diese Unparteilichkeit. Und dann versuchen Utilitaristen ja vielleicht trotzdem zu sagen: Naja, das ist ja instrumentell gut, wenn du dein Kind mehr liebst, weil eine Gesellschaft besser organisiert ist, wenn man eben sein eigenes Kind priorisiert und es einem wichtiger ist als allen anderen. Aber schon wenn man die Abwägung macht, scheint man ja was falsch zu machen, weil man dann eben es nur aus instrumentellen Gründen priorisiert und nur deswegen einen Vorrang gibt, weil es vielleicht generell besser ist, wenn man so handelt, generell parteilich handelt und das klappt einfach nicht.
[00:34:39] Stefan: Genau, das scheint mir eben auch nicht die richtige Begründung zu sein, warum ich meinem Kind den Vorzug geben sollte. Es ist nicht irgendwie, weil die Welt insgesamt besser wird, wenn jeder das macht, obwohl es eigentlich, sagen wir mal streng genommen, falsch ist, sondern ich denke, das ist die — nochmal, wie ich vorhin gesagt habe — die einzige Art und Weise, den Wert der Beziehung Rechnung zu tragen, bzw. dieser Beziehung Rechnung zu tragen, die ich eben zu meinem Kind habe. Und das ist nicht irgendwie eine sozusagen indirekte Überlegung oder eine instrumentelle Überlegung, sondern eine ziemlich direkte und einfache, um ernst zu nehmen, dass ich diese wertvolle Beziehung zu meinem Kind habe, muss ich ihm eine gewisse Priorität geben. Und ansonsten ist es gerechtfertigterweise empört, weil ich eben nicht ernst genommen habe, dass es mein Kind ist.
Und das hängt letztlich, glaube ich, auch damit, also mit sehr allgemeinen Fragen zusammen, was wir wollen von der Moralphilosophie oder von einer moralischen Theorie. Und ich glaube, ich bin mehr und mehr eben zur Überzeugung gekommen, dass wir eine moralische Theorie brauchen, die relativ nahe an dem ist, wie sich das Leben für uns anfühlt, wie unser eigentliches moralisches Empfinden und Erleben ist und dass es also problematisch ist für eine moralische Theorie, wenn sie vielleicht wunderschön und systematisch und einfach ist, aber wenn sie zu weit weg ist von unserem tatsächlichen Leben und Erleben.
[00:36:11] Stephan: Gleichzeitig ist es schwierig, dann so schöne, systematische und auch prinzipielle Antworten zum Beispiel zu finden, dafür, wie viel du dein Kind zum Beispiel priorisieren solltest.
[00:36:20] Stefan: Genau.
[00:36:21] Stephan: Rein intuitiv mag ich sagen, ja unendlich viel. Ich würde… Es ist mir egal, wie viele andere Kinder ich retten könnte. Ich nehme immer mein eigenes Kind.
[00:36:30] Stefan: Also erstmal würde ich diese Implikation dann wiederum sicher für falsch halten. Und etwas von dem, was ich am Effektiven Altruismus eben für besonders interessant halte, ist vielleicht, dass er irgendwie betont, dass wir bis anhin zu viel Priorität gegeben haben, diesen Dingen, die irgendwie besonders nahe sind oder besonders leicht zu sehen und dass wir in diesem Sinne unparteilicher mindestens werden sollten. Mindestens dann, wenn wir sehen, wie viel Gutes wir eben im Vergleich an einem anderen Ort tun könnten, wenn wir uns nicht auf unsere eigenen Kinder oder, ich weiß nicht, auf die Obdachlosen in unserer eigenen Stadt und so weiter konzentrieren. Also diese andere Extrem-Antwort schien mir auf jeden Fall auch falsch. Du hast gesagt, es ist dann, wenn man diese einfachen Theorien zurückweist, schwieriger, zu einer systematischen, klaren Antwort zu kommen.
Und ich glaube, das ist so und das ist einfach die Komplexität des moralischen Lebens. Also ehrlich gesagt, wäre mir jede Theorie suspekt, also ehrlich gesagt, schon im Vornherein jede Theorie ein bisschen suspekt, die impliziert, es gibt hier eine ganz klare und bestimmte und einfach zu berechnende Lösung oder irgendwie einen Algorithmus, der in jedem Fall genau sagt, wie viel Priorität ist jetzt hier und dort angemessen. Das ist eben wieder eine Form, dem menschlichen… der Komplexität, der Tiefe und dem Reichtum sozusagen des menschlichen Lebens nicht gerecht zu werden. Und ja, mehr und mehr glaube ich, die beste Moralphilosophie — und ich weiß noch nicht mal, ob es am Ende eine Theorie ist, ob es am Ende sozusagen das Label der Theorie verdient — aber die beste Moralphilosophie ist eine, die eben manchmal so ungenau ist wie das Leben selbst.
[00:38:11] Stephan: Ja, und das vielleicht erträgt, das aushält, so ungenau zu sein und du und viele, die selbst, die ganz natürlich sagen können: „Natürlich priorisiere ich meine Freunde und meine Familie und so weiter”, finden dann pragmatische Antworten darauf, eben zum Beispiel 10 Prozent zu spenden und mit dem Rest kann ich ja mich selbst und meine Familie und meine Freunde beglücken. Und ich gebe vielleicht auch gar nicht so viel auf, weil das auch bereichernd sein kann. Also vielleicht gibt es glücklicherweise pragmatische Auswege, auch wenn wir das schwierig so systematisieren können.
[00:38:48] Stefan: Genau, aber nur nochmal, vielleicht, um den Bogen zurückzuschlagen. Also das wäre eben gewissermaßen auch ein Aspekt für mich von Longtermism, dass ich denke, diese Personen, diese Wesen in 100.000 Jahren, das treibt sozusagen auf die Spitze dieses Problem, dass das Wesen sind, zu denen ich keine besondere Beziehung habe. Und im Vergleich zu den Wesen, die da in 100.000 Jahren leben werden, habe ich zu Menschen heute eben auch eine sehr besondere Beziehung. Ich weiß nicht, zu Menschen, die heute jetzt im Krieg im Nahen Osten oder im Ukraine-Krieg leben oder die von globaler Armut betroffen sind und so weiter. Da habe ich eine Art Beziehung, die mir dann abgeht, im Vergleich zu diesen Wesen in der fernen Zukunft. Und das heißt, glaube ich, dass wir durchaus eine gewisse Priorität diesen heute lebenden Menschen geben sollten. Wie weit diese wiederum reicht, finde ich eine sehr schwierige Frage. Ich persönlich glaube nicht, dass diese Priorisierung dann so weit reichen soll, dass wir sagen können, die ferne Zukunft ist uns komplett egal. Deswegen habe ich eben auch selber durchaus schon gespendet für diese Longtermism-Projekte.
Gleichzeitig — und manche, die diese Überlegung von Longtermism plausibel finden, glauben ja dann: eigentlich sollten wir alle unsere Ressourcen nur noch jetzt in Longtermism investieren und sozusagen, zum Beispiel, der Krieg in der Ukraine als solcher kann uns eigentlich komplett egal sein, weil er ist Pipifax eigentlich im Vergleich. Und diese Implikation wiederum halte ich eben auch für problematisch. Also das möchte ich auch nicht sagen. Ich möchte sagen, zum Beispiel, die Probleme heute betreffen uns eben noch insbesondere, weil wir diese Beziehung zu den heutigen Menschen haben und insofern, genau, sollten wir beides versuchen irgendwie ernst zu nehmen und diese komplexe Abwägung irgendwie, so gut es geht, suchen.
[00:40:21] Stephan: Ja. Open Philanthropy zum Beispiel, die Organisation, die diesen Podcast finanziert, die finden dann auch pragmatische Antworten darauf, dass sie zum Beispiel sagen, wir haben halt Töpfe. Wir geben eine gewisse Menge für Tierwohl aus. Wir geben eine gewisse Menge für globale Armut aus und Krankheitsbekämpfung. Und innerhalb dieser Töpfe versuchen wir dann möglichst effektiv zu sein. Man kommt damit natürlich auch nicht raus, weil du musst irgendeine Abwägung treffen, wie groß die Töpfe jeweils sind. Aber viel besser als diese pragmatischen Antworten zu finden, viel besser schaffen wir es manchmal nicht.
Es gibt ja zum Beispiel dieses Paper Astronomische Verschwendung von Nick Bostrom, was vielleicht ein Ursprungsgedanke auch für Longtermism war, wo er darüber redet: Es gibt Milliarden von Sternen in unserer Galaxie und dann gibt es Milliarden von Galaxien und die sind auch alle noch… oder viele, viele sind erreichbar und deswegen sollte der utilitaristische Imperativ — zumindest wenn man keine personenbezogenen Ansichten vertritt — eigentlich nur sein: „Minimiere das existenzielle Risiko, dass wir das irgendwann mal bevölkern können.”
Lass uns vielleicht dann einmal zur Populationsethik kommen, weil eine dieser Neutralitätsannahmen ja so eine Möglichkeitsneutralität ist. Im Grunde vertreten zumindest einige Effektive Altruist:innen die Ansicht, dass es genauso gut ist, ein glückliches Leben zu schaffen, wie jemanden, der derzeit lebt, glücklicher zu machen in gleichem Ausmaß. Hältst du das für plausibel? Und ich glaube, im Grunde kann man es separieren von dieser Erfahrungsdistanz. Also, nimm an, die sind dir jetzt nicht von der Erfahrungswelt irgendwie…
[00:42:01] Stefan: Genau. Ja, ja, ja. Ich halte das für eine extrem schwierige Frage und ich bin nicht sicher, was die richtige Antwort ist. Also, erstmal verstehe ich auf jeden Fall die Intuition, die besagt, dass es da eine Asymmetrie gibt, dass es irgendwie wichtiger ist, Leute glücklich zu machen, statt glückliche Leute zu machen. Also wir denken zum Beispiel, wenn ein kleines Kind, zum Beispiel ein fünfjähriges Kind, stirbt, dann ist das eine große Tragödie. Wenn sich herausstellt, zwei Leute hätten ein Kind zeugen können, aber haben das nicht getan, zum Beispiel weil sie verhütet haben und das Kind wurde gar nie gezeugt, dann denken wir nicht, das ist eine riesen Tragödie, dass es dieses Kind gar nie gab. Und gleichzeitig gibt es aber eine Reihe von Argumenten, die zeigen, dass es letztlich auch nicht ganz leicht ist, diesen Unterschied aufrechtzuerhalten in der Ethik.
Ein besonders interessantes ist vielleicht so… geht zurück auf das Non-Identity Problem, was Derek Parfit in die Philosophie eingeführt hat. Parfit stellt sich vor — in dem ursprünglichen Gedankenexperiment, mit dem er das Problem berühmt gemacht hat — dass eine junge Frau, vielleicht eine 15-jährige Frau, schwanger wird und weiß, dass wenn sie jetzt das Kind austrägt, wird das Kind ein sehr schwieriges Leben haben, weil die Frau noch zu jung ist, um wirklich eine gute Mutter dafür zu sein. Sie könnte also warten und später ein anderes Kind haben, dem es eine viel bessere Mutter sein könnte. Viele haben die Intuition, es wäre besser, zu warten und später ein anderes Kind zu zeugen. Und das kann aber nicht der Fall sein, deswegen weil es für irgendjemanden besser ist. Also es gibt niemanden, für den es besser ist, wenn die junge Frau noch wartet, weil für das Kind, was jetzt schon gezeugt ist, wäre es natürlich besser, es würde geboren, mindestens dann, wenn es ein lebenswertes Leben hätte und das Leben nicht so schlecht wäre, dass es eigentlich besser wäre, gar nicht geboren zu werden. Und das Kind, was eben unter Umständen gar nicht geboren wird, für das wäre es auch nicht irgendwie schlechter, wenn es nicht geboren wird, aber dann würde es es einfach gar nicht geben.
Also man kann nicht sagen, es ist hier für irgendjemanden besser, wenn die junge Frau noch wartet und später ein Kind auf die Welt setzt, für das es eine bessere Mutter sein kann. Und das suggeriert — wenn wir trotzdem an der Überzeugung festhalten wollen, dass es besser ist, wenn die junge Frau wartet — suggeriert das, meint Parfit, dass eben dasjenige, was moralisch richtig ist zu tun, sich nicht einfach erschöpft darin, das zu tun, was für irgendjemanden gut ist, sondern dass es manchmal auch wichtig ist, das zu tun, was sozusagen eben from the point of view of the universe gut ist oder insgesamt gut ist, nämlich zum Beispiel glücklichere Menschen zu zeugen.
[00:44:46] Stephan: Parfit hat ja die Populationsethik quasi gegründet mit dem Buch Reasons and Persons, wo eben auch dieses Gedankenexperiment auftaucht. Und es ist auch gar nicht so weit hergeholt, weil diese Probleme natürlich auftauchen in ganz vielen Geschehnissen. Also wenn du sagst, wir sollen den Klimawandel bekämpfen, dann sorgen wir dadurch auch dafür, dass das Leben vieler Menschen anders ist und ganz viele Zeitpunkte und Aktionen und wann genau Befruchtungen von Eizellen stattfinden, ist alles anders und in 100 Jahren oder 200 Jahren gibt es gar nicht mehr die gleichen Menschen, die sonst existiert hätten, wenn wir eben mehr CO2 ausgestoßen hätten, im Vergleich zu, wenn wir CO2 sparen. Und trotzdem wollen wir sagen, dass es besser ist, weil es eben aus so einer unparteilichen Sicht besser ist.
Es gibt elegante Argumente. Parfit hatte noch die Hoffnung, so eine Theorie X zu finden, aber es gibt elegante Argumente für die Unmöglichkeit, mehr über Desiderata gleichzeitig zu erfüllen. Also wir wollen vermeiden zu sagen, dass es für jede Welt eine bessere Welt gibt, in der jeder nur ein leicht positives Leben führt. Wir wollen sagen, dass es nicht schlecht ist, wenn Wohlergehen gleichmäßiger verteilt wird. Wir wollen, dass unsere Beurteilung dessen, was eine gute Welt ist, transitiv ist. Also A ist besser als B, B ist besser als C, dann ist A auch besser als C. Und wir wollen eigentlich auch nicht sagen, dass es was Schlechtes ist, positive Leben hinzuzuaddieren. Und Parfit hatte ja dann dieses geniale Argument, dass du dir eine Welt vorstellen kannst, in der du eine Population mit einem gewissen Level an Wohlergehen hast. Dann addierst du ein paar Leute, die etwas weniger Wohlergehen haben, aber immer noch gute Leben führen, nenn die Welt A+, und dann machst du einen weiteren Schritt und verteilst das Wohlergehen nur gleicher und hast eine Welt B.
Und dann hast du eine größere Population mit einem geringeren Level an Wohlergehen, was du immer wieder wiederholen kannst. Und dann kommst du zu der abschließenden Schlussfolgerung, dass du eine riesige Welt mit ganz vielen Leben, mit ganz wenig Wohlergehen haben kannst und die bevorzugen solltest, wenn du das einfach wiederholst und man hat nicht den Eindruck, da bei irgendeinem Schritt was schlechtes gemacht zu haben. Und Parfit hat natürlich gehofft, das irgendwie vermeiden zu können, aber inzwischen wissen wir auch, du kannst das gar nicht vermeiden.
Wenn wir jetzt so eine Unsicherheit — du hast dich ja auch viel mit normativer Unsicherheit beschäftigt — zwischen Populationsethiken haben, zum Beispiel, also ob nur personenbezogene Populationsethiken richtig sind, ob so eine Gesamtansicht, in der einfach nur zählt, wie groß ist das Produkt von Anzahl der Menschen mal Wohlergehen, oder von anderen Theorien, dass irgendwie nur das Durchschnittslevel wichtig ist oder sowas, auch unplausibel ist, weil es dann manchmal besser sein kann, negative Leben zu addieren. Wenige negative als viele, leicht positive. Was machen wir mit so einer Unsicherheit?
[00:47:42] Stefan: Ich persönlich bin der Überzeugung, dass es in so einem Fall, wo wir genuin unsicher sind, beziehungsweise wo wir unsicher sein sollten, weil eben die moralische Evidenz, die wir haben, nicht eindeutig eine Theorie gegenüber den anderen bevorzugt, und dass es rational ist, alle Theorien mit zu berücksichtigen und sowas wie den Erwartungswert unseres eigenen Handelns zu maximieren, also mindestens eben auch zu berücksichtigen, dass vielleicht eine Theorie wahr sein könnte, die wir vielleicht nicht für die plausibelste halten, aber eben auch nicht ganz ausschließen können.
Das ist etwas, was wir im Falle von empirischer Ungewissheit ganz natürlich machen. Also im Falle von empirischer Ungewissheit, Ungewissheit darüber, was in der Welt der Fall ist, wäre es absurd zu sagen, wir sollten uns nur darauf konzentrieren, was wir für die wahrscheinlichste Option halten. Nehmen wir zum Beispiel die Frage, ob unsere Häuser irgendwann anfangen zu brennen. Die wahrscheinlichste Option ist natürlich, dass das nicht geschieht, mindestens nicht in der Zeit unseres Lebens. Die allerwenigsten Häuser brennen ab. Es ist also relativ unwahrscheinlich, dass ein Haus brennt.
Wenn ich also mich nur allein danach richten würde, was ich für den wahrscheinlichsten Verlauf der Welt halten würde, dann würde ich sagen, brauche ich keinerlei Maßnahmen zu treffen gegen Feuer. Ich muss mich nicht versichern, ich brauche keinen Feuerlöscher, gar nichts dergleichen. Und das wiederum halten wir aber für unplausibel. Also wir würden schon denken, obwohl es relativ unwahrscheinlich ist, dass dein Haus irgendwann anfängt zu brennen, du solltest diese Wahrscheinlichkeit mit berücksichtigen. Warum? Naja, weil im Fall, wenn es eintritt, eben so viel auf dem Spiel steht.
[00:49:22] Stephan: Also im Grunde, wir kalkulieren halt einen Erwartungswert und theoretisch können wir das eh nicht in der Ethik machen. Wir kommen gleich zu der normativen Unsicherheit nochmal zurück. Und da gibt es viele spannende Fragen, weil dann die Frage ist, was passiert, wenn eine Theorie sich selbst für enorm wichtig hält und solche Sachen. Wie gehen diese Intertheoretischen Vergleiche? Lass uns mit den anderen Neutralitätsannahmen nochmal weitermachen: Also Effektiver Altruismus ist auch in der Regel bereit, eine Risikoneutralität anzunehmen. Eine Person mit Sicherheit zu retten ist so gut wie zehn Personen mit zehn Prozent Sicherheit zu retten. Ist die Annahme unproblematisch?
[00:50:07] Stefan: Nein, bestimmt nicht unproblematisch. Es ist auch eine Annahme, die viel in Frage gestellt wurde in der Philosophie und die man auf jeden Fall auch in Frage stellen kann, wo ich auch sagen würde: Kann es angemessen sein, eine gewisse Art von Ungewissheit wieder darüber zuzulassen? Ja, ich bin mir auch nicht sicher, wie viel, wie relevant diese Annahme dann in der Praxis ist. Also wahrscheinlich ist es auch oft so, dass wenn, auch wenn wir gewisse Risikoaversionen zulassen, sind in der Praxis die Implikationen, die diese Argumente des Effektiven Altruismus haben, vielleicht gar nicht viel anders. Außer wir haben irgendwie sehr extreme Formen von Risikoaversionen.
[00:50:47] Stephan: Ich glaube, insbesondere beim Longtermism stimmt das auch. Also wir können ruhig annehmen, dass wir uns weniger um die Leute in 100.000 Jahren kümmern dürfen und trotzdem stimmt es zum Beispiel, dass es lohnenswert ist, schlimme Pandemien vorzubeugen, weil es selbst für die derzeit existierenden Menschen und angesichts der Größe des Risikos einfach angemessen ist.
[00:51:10] Stefan: Absolut, ja.
[00:51:11] Stephan: Und wir sind noch lange nicht an dem Level, wo wir dann quasi entscheiden müssten, ist es jetzt wert, noch mehr auszugeben dafür. Du hattest auch gesagt, du bist nicht mehr Utilitarist. Denkst du, dass die Tun-Unterlassen-Neutralität, die der Utilitarismus klassischerweise akzeptiert, falsch ist?
[00:51:34] Stefan: Ich bin letztlich nicht genau sicher, wo genau der Fehler liegt. Ob ich sagen würde, es gibt allgemein eine ganz wichtige Unterscheidung zwischen Tun und Unterlassen. Aber sicher in vielen Fällen, wo die Leute dann von so einer Unterscheidung geredet haben, würde ich mitgehen und sagen, dass da ein relevanter Unterschied besteht. Ein klassisches Beispiel wurde gegeben von Bernard Williams, dem englischen Moralphilosophen. Der hat sich vorgestellt: „Ich komme”... oder beziehungsweise in seinem Beispiel war es ein Mann namens Jim, der kommt in Südamerika auf einen Dorfplatz, wo ein anderer Mann namens Pedro gerade 20 indianischstämmige Menschen festhält und drauf und dran ist, die zu erschießen.
Und Pedro offeriert dann aber Jim die Option, einen solchen Menschen zu erschießen und sagt: „Wenn Jim einen Menschen erschießt, dann verschont Pedro, verschont er selber die anderen. Oder wenn Jim nichts macht, dann erschießt Pedro all die 20.” Also man kann das als einen Unterschied zwischen Tun und Unterlassen hier auffassen. Also entweder erschießt Pedro aktiv einen Indianer oder er lässt es eben zu… Entschuldigung: Entweder erschießt Jim aktiv einen Indianer oder er lässt es eben zu, dass Pedro diesen Indianer plus die 19 anderen auch noch erschießt. Williams selber hat gemeint: „Es hängt nicht eigentlich mit diesem Unterschied zwischen Tun und Unterlassen zusammen.” Williams selber hat auch nicht sagen wollen — und das scheint mir auch plausibel — „Ich will nicht sagen, Jim sollte nicht selber schießen. Ich glaube eigentlich, er sollte schießen.” Und das meinte auch Bernard Williams interessanterweise.
Aber Bernard Williams meinte — und das scheint mir eben auch sehr, sehr plausibel — dass die Frage mindestens nicht so einfach und so klar ist, wie der Utilitarismus suggeriert, also dass man hier nur einfach irgendwie aufrechnen kann, „Wie sterben am meisten Menschen oder am wenigsten Menschen und ich versuche dann das zu tun, wo am wenigsten Menschen sterben”, sondern es macht schon einen relevanten Unterschied, ob ich selber hier jemanden erschieße oder ob ich einfach nur, sozusagen, zulasse, dass Pedro seinen furchtbaren Plan in die Tat umsetzt und diesen plus andere Menschen erschießt.
Williams meinte — und das ist vielleicht eben letztlich die bessere Erklärung als eine ganz allgemeine Unterscheidung zwischen Tun und Unterlassen — dass es sowas, also dass es sowas zu tun hat vielleicht mit Integrität.
Also mir liegen bestimmte Commitments von mir selber am Herzen und das kann sein: Mein Commitment, dass ich selber niemanden umbringe. Und dieses Commitment oder mein persönliches Projekt letztlich meinen persönlichen Charakter ernst zu nehmen, kann eben auch heißen, dass ich einen Unterschied mache zwischen meinen Commitments und den Commitments von anderen Menschen, dass ich nicht mein eigenes Commitment einfach nur betrachte als ein beliebiges unter ganz, ganz vielen, was ich eben wieder von diesem Point of View of the Universe mit einkalkulieren muss in die utilitaristische Rechnung, sondern dass ich sage, das ist mein Commitment und das bin ich als Person, die hier handeln muss. Und insofern macht es für mich einen Unterschied, ob ich hier direkt jemanden töte oder jemand anderem erlaube zu töten.
Williams meint, dass das zu bestreiten eine Form ist, uns selber zu entfremden von unseren eigenen Handlungen. Also wenn der Utilitarismus von mir verlangt — einfach, weil es die besten Konsequenzen hat — mein eigenes Commitment aufzugeben und ohne weiteres hier eine Person zu erschießen, dann macht sie mich irgendwie einfach nur zu einem Mittel, um insgesamt die Welt zum besten Ort zu machen und dadurch entfremdet sie mich von meiner eigenen Perspektive und von meinen eigenen Handlungen. Und das halte ich, in der einen oder anderen Form, für einen plausiblen Vorwurf an den Utilitarismus. Also insofern würde ich sagen: Mindestens in manchen Fällen gibt es sowas wie eine Unterscheidung zwischen Tun und Unterlassen.
[00:55:13] Stephan: Wir kommen eigentlich bei dieser Kritik meistens dann wieder darauf zurück, ob man eben so eine unparteiische Perspektive — und die kann man ja nicht nur utilitaristisch begründen, man kann sich ja auch vorstellen: Du weißt vorher nicht, wer du bist und musst hinter einem Schleier des Nichtwissens entscheiden, sollte die Person schießen oder nicht. Dann wird auch eine kontraktualistische Sichtweise sagen: „Ja, schieß!” — Aber wir kommen darauf zurück, ob man eben so etwas unparteiisch Gutes, eine abstrakte Menge, maximieren soll oder ob man die eigene Erfahrungswelt, eben die eigene Perspektive, wichtiger nimmt. Und für die Tun-Unterlassen-Neutralität gibt es ja auch viele schwierige Beispiele. Also manchmal kommt es uns wie ein Unterlassen vor und manchmal wie ein Tun. Also wenn wir Maschinen abstellen, die jemanden am Leben halten, haben wir nicht den Eindruck, wir tun was, wir hören auf, wir unterlassen es, ihn am Leben zu halten. Aber solche Beispiele sind immer so etwas vage. Und für den Effektiven Altruismus ist es ja schon irgendwo wichtig, weil wir es moralisch besonders ernst nehmen, eben Menschen zu helfen, wenn wir sagen, das ist fast so schlimm, oder im Extremfall genauso schlimm, wie sie zu töten. Aber du hältst das ja vermutlich auch aus einem Pflichtgedanken oder aus so einem Gedanken, dass ich mich nicht an meinen Überzeugungen versündige oder an mir selbst versündige, für begründbar, oder?
[00:56:40] Stefan: Was meinst du, halte ich für begründbar? Entschuldigung.
[00:56:42] Stephan:Dass man… Du würdest wahrscheinlich anders motiviert, trotzdem eine Pflicht begründen wollen, nach der wir in gewissem Ausmaß zumindest helfen müssen.
[00:56:51] Stefan: Absolut, ja, selbstverständlich! Also genau, ich glaube nicht, dass es in jedem Fall, zum Beispiel, wenn wir nicht spenden und dadurch eine Person stirbt, die wir hätten retten können, dass das in jedem Fall genauso schlimm ist, wie wenn wir aktiv jemanden töten. Das scheint mir eigentlich unplausibel. Und trotzdem, glaube ich, haben wir extrem starke Pflichten, auch Menschen zu retten, so wie wir das können. Stärker bestimmt, als viele Leute das denken. Insbesondere auch deswegen eben, weil es leichter ist für uns, Menschen zu retten, als viele vielleicht denken.
Also de facto können wir alle, die wir, oder die allermeisten von uns, die leben in einer westlichen Zivilisation, mit dem Geld, was wir zur Verfügung haben, Menschenleben retten. Und dann haben wir schon erstmal einen extrem starken Grund, das auch zu tun. Also ich, genau… Und vielleicht kann ich noch was Allgemeineres auch sagen, was hiermit zusammenhängt, zum Effektiven Altruismus. Also, wie gesagt, ich bin kein Utilitarist. Ich halte diese extremen Formen davon — zu sagen „Wir haben eine Pflicht, immer das zu tun, was aus dieser objektiven Perspektive das Beste ist” — das halte ich für falsch.
Gleichzeitig glaube ich auch, dass wir eben diese objektive Perspektive eben im Alltag oft nicht ernst genug nehmen. Zum Beispiel, dass wir eben denken, wir haben keine starke Pflicht, Menschenleben zu retten, wir haben keine starke Pflicht gegenüber Lebewesen in ferner Zukunft, vielleicht keine starke Pflicht gegenüber Tieren und so weiter. Und was ich am Effektiven Altruismus eben sehr interessant finde, ist, dass es eine Mitte gibt zwischen diesen Extrempositionen. Also eine Mitte, wo mir der Effektive Altruismus eben… nicht „trivial” scheint, es ist nicht trivial, so wie „wir sollten alle ein bisschen mehr tun”, sondern es ist schon substanziell. Ich habe auch gesagt, in meiner Definition, Effektive Altruist:innen handeln in beachtlichem Ausmaß auf Basis dieses Kriteriums „wie kann ich anderen am meisten Gutes tun.”
Also es ist keineswegs eine triviale Idee. Wir sollten ein bisschen Gewicht geben vielleicht dieser Frage „Wie können wir die Welt verbessern?” Und gleichzeitig eben auch ist die Position, oder muss sie nicht zu extrem sein und dann im Utilitarismus kollabieren und verlangen, wir sollten alle uns nur noch opfern zugunsten des objektiv Besten. Das schien mir dann zu extrem. Aber es gibt eben diese Mitte, wo es weder trivial ist, noch allzu extrem und da scheint mir der Effektive Altruismus, ja, sehr, sehr relevant und uns heute sehr viel geben zu können.
[00:59:09] Stephan: Ja, ich glaube, die meisten, die selbst… die, die sagen, „Ich glaube, dass diese Gesamtansicht des Utilitarismus korrekt ist”, glauben es vielleicht nicht wirklich in dem Ausmaße, dass sie es ja in der Regel nicht machen, dass sie nicht sich vollkommen selbst aufopfern und sich nur instrumentalisieren.
Ich habe mir ein bisschen angehört und gelesen, was du zu existenziellen Risiken geschrieben hast. Und da ist deine Begründung ja auch nicht so sehr eine, die nur auf das Ausmaß guckt und eben die Freude, die in der Zukunft existieren kann, sondern du hast diesen Gedanken von der, von so einer Art Vervollkommnungspflicht von sich selber oder auch einer Zivilisation als Ganzes. Vielleicht magst du das einmal ausführen?
[00:59:50] Stefan: Wie viel Gewicht ich dem letztlich geben würde, bin ich selbst gar nicht sicher. Aber ich finde es doch einen interessanten Gedanken. Also was mich immer schon interessiert, dass eben quasi andere Begründungen für Longtermism zu finden als diese rein, quasi utilitaristische, wo wir einfach zählen, wie viele Leute gibt es da in der Zukunft. Und das sind so wahnsinnig viele, dass wir eine wahnsinnig starke Pflicht haben, diese gute Zukunft zu ermöglichen.
Und eine alternative Begründungs-Strategie wäre, erst mal auszugehen von der Menschheit als Ganze — also nicht von einzelnen Individuen, die irgendeine große Summe ergeben — sondern die Menschheit als Ganze zu betrachten und zu sagen: Es gibt so etwas erstmal wie diese Perspektive und es gibt eine Frage, die sich stellt für uns als Menschheit: „Wie wollen wir als Menschheit handeln?” Das ist nicht trivial bestimmt, also nicht jede Gruppe von Menschen ist ein Wir und hat sozusagen eine Perspektive, aus der heraus sich fragen lässt: „Wie sollen wir handeln?”
Ich weiß nicht, wir könnten definieren die Gruppe von Menschen, die genauso viele Haare auf dem Kopf hat wie ich. Das ist irgendeine bestimmte Gruppe von Menschen, aber wir sind kein Wir und es gibt keine gemeinsame kollektive Perspektive, aus der heraus wir sagen, wir könnten so oder so handeln. Aber ich glaube, bei der Menschheit macht das durchaus Sinn. Mindestens heute, wo wir organisiert sind in globalen Institutionen wie der UNO, wo es globale Entscheidungsprozesse gibt, gibt es sozusagen diese kollektive Perspektive. Wir können uns fragen: „Wie wollen oder sollen wir als Menschheit handeln?” Und ich glaube, sobald es diese Perspektive gibt, können wir auch Tugendbegriffe auf die Menschheit als Ganze anwenden oder eben sowas wie die Idee der Würde von uns als Kollektiv ins Spiel bringen. Das wäre dann eine kantische Idee.
Kant hatte diese Idee, dass es mit unserer eigenen Würde als Individuum zu tun hat, dass wir unsere eigenen Anlagen und Fähigkeiten entwickeln und uns insofern quasi vervollkommnen. Er meinte, es wäre was Würdeloses dabei, was sich selbst Entwürdigendes, wenn ich zum Beispiel das Talent hätte, guter Philosoph zu werden, aber ich lunger nur zu Hause rum und gucke blöde Serien zum Beispiel. Also ich schulde es mir selbst, meinte Kant, meine Talente zu vervollkommnen, mich zu entfalten als Mensch. Und ich glaube jetzt, dass weil wir diese kollektive Perspektive als Menschheit einnehmen können, könnten wir auch diesen Würde-Gedanken von Kant eben anwenden, eigentlich auf uns als Kollektiv und sagen: Wir haben vielleicht so etwas wie eine Würde als Spezies, eine Würde als Kollektiv und wir schulden es uns selbst angesichts unserer eigenen Würde als Menschheit, dass wir uns nicht einfach ausrotten, zum Beispiel durch menschgemachte Pandemien, menschgemachten Klimawandel oder enorme Rücksichtslosigkeit im Umgang mit KI, sondern es ist eine Sache der Würde, dass wir zu unserer eigenen Zukunft, zu unserer eigenen Entfaltung und Vollendung schauen.
Und das hätte dann nicht so sehr damit zu tun, dass es ganz viele einzelne Individuen geben könnte, die noch die Zukunft der Menschheit konstituieren, sondern eher sowas wie die Vorstellung, sozusagen aus einer erdgeschichtlichen oder menschheitsgeschichtlichen Perspektive eben, sind wir vielleicht im heutigen Punkt der Menschheit noch in den Kinderschuhen und die Menschheit ist vielleicht in der Kindheit oder in der Jugend und wir hätten eigentlich noch die große Reife als Spezies vor uns und es ist eine Sache der Würde, dass wir das nicht aus der Hand geben und verspielen leichtfertig. Man muss das auch nicht mit Würde, man kann es auch… also Würde ist jetzt ein kantischer Begriff, man kann das auch aristotelisch fassen. Aristoteles hatte einfach die Idee, dass das eigene Wohl darin besteht, dass ich mich selbst als Mensch vervollkommne. Also das Wohl für eine Eiche zum Beispiel besteht darin, dass die Eiche sich als Eiche vervollkommnet und entfaltet, Wurzeln schlägt, einen großen Stamm hat, Blätter treibt und so weiter. Und das Wohl des Menschen, meinte Aristoteles, besteht darin — des einzelnen Menschen — sich als Mensch zu vervollkommnen, also gesund zu leben. Und so meinte Aristoteles letztlich, Philosophien zu betreiben.
[01:03:52] Stephan: Und du hast einen Ansatz, in dem du es selbst theologisch sagst: Also du versündigst dich vielleicht teilweise an dir selbst, vielleicht auch an der Kreation, wenn du das nicht ernst nimmst, wenn du es so wegwirfst.
[01:03:07] Stefan: Genau, also ich selber bin nicht religiös, also ich würde das jetzt nicht theologisch deuten, aber ich glaube, man kann das auch theologisch deuten, auf jeden Fall. Genau, genau. Und eben immer diesen Aspekt auch auf die Menschheit als Ganzes übertragen und sagen: Genauso wie für den einzelnen Menschen oder die einzelne Eiche das Wohl in der Entfaltung besteht, könnten wir auch als Menschheit sozusagen Menschheitswohl haben, was erst dann zur Geltung kommt oder erreicht wird eben, wenn wir uns als Menschheit entfalten und nicht heute schon aussterben. Das finde ich, ehrlich gesagt, einen ebenso inspirierenden Gedanken wie dieses lose Aufsummieren von einzelnen zukünftigen Individuen.
[01:04:43] Stephan: Intuitiv finde ich das auch ansprechend. Eigentlich bemerken wir ja gerade was Erstaunliches, nämlich dass jetzt mehrere Theorien, zumindest in einem gewissen Ausmaß, zu konvergieren scheinen. Dürfen wir hoffen, dass das oft so passiert? Also ich ziele ab zum Beispiel auf Parfit, der ja seine zweite Lebenshälfte damit beschäftigt hat, zu zeigen, zu versuchen, dass die großen ethischen Schulen alle auf eine Sicht letztlich konvergieren, weil er den Eindruck hatte, dass sonst nichts eine Rolle spielt, weil er meinte, das muss so sein, es muss so einen moralischen Realismus geben.
[01:05:22] Stefan: Ich teile nicht diese Hoffnung von Parfit, dass sich diese großen Traditionen, wie wir sie kennen, in der westlichen Philosophiegeschichte — also Kant und Utilitarismus und Kontraktualismus — dass die letztlich auf ein und dasselbe rauslaufen, wenn man sie am besten versteht. Das teile ich in dieser extremen Form nicht, obwohl ich… was ich aber zum Beispiel teile, ist eben — jetzt nochmal in Bezug auf Effektiven Altruismus — auf jeden Fall die Überzeugung, dass sich die Grundideen des Effektiven Altruismus mit ganz, ganz vielen verschiedenen Moraltheorien begründen lassen. Und das gilt jetzt nicht nur für Effektiven Altruismus, sondern zum Beispiel auch — ich weiß auch nicht konkreter irgendwie — dass wir eine starke moralische Pflicht haben, uns jetzt gegen Klimakrise zu engagieren.
Auch da glaube ich, dass vernünftigerweise alle Theorien — wenn man sie richtig interpretiert — ähnliche Konklusionen haben werden. Also ich glaube schon in ganz, ganz vielen Bereichen ist es letztlich so, dass am Ende sich sozusagen eine Theorie daraus synchronisieren lässt. Genau, also gewisse Spannungen bleiben bestehen und das ist vielleicht ja auch Teil des Reichtums des menschlichen Lebens und der westlichen Philosophie, dass es eben, ja, dass es unterschiedliche Ideen gibt. Ich glaube, ich bin auch letztlich weniger beunruhigt von Widersprüchen, wie Parfit das war, also von Disagreement meine ich, davon, dass unterschiedliche Personen unterschiedliches Denken.
[01:06:52] Stephan: Es ist gar nicht so leicht zu interpretieren, ob uns das jetzt glauben lassen sollte, dass die entweder zum Beispiel alle was Richtiges einfangen und deswegen zumindest zu einem gewissen Ausmaß konvergieren und deswegen gibt es so etwas wie „Das wahre Gute”, also nicht nur so etwas wie subjektive Präferenzen. Der eine sagt „oh ja, mhh finde ich gut”, der andere sagt, „find ich blöd”. Oder ist nicht auch irgendwie, dass wir miteinander reden, uns zu überzeugen versuchen, Argumente geben können und die zumindest zu einem gewissen Ausmaß bei dem anderen auch auf einen gewissen Anklang treffen, auch vielleicht ein Argument dafür, dass so eine Realismus-Position eben nicht nur Präferenzen sind, nicht nur irgendwie subjektive Geschmäcker, von denen wir in der Moral so viel reden.
[01:07:45] Stefan: Also ich glaube auch, und das scheint mir schon wichtig zu betonen, dass die Alternative nicht die ist: Entweder wir glauben an ganz harten Realismus und es gibt quasi eine platonische Realität von moralischen Fakten, die wir in der Moralphilosophie entdecken können oder aber alles kollabiert komplett in bloß subjektive Geschmäcker und Präferenz und wir können eigentlich gar nichts mehr sagen in der Ethik. Außer der glaubt halt A und die andere Person glaubt halt B. Es gäbe noch einen Raum dazwischen für eine Art Relativismus, der aber sehr, sehr tief reicht, sodass er uns, glaube ich, gar nicht so sehr beunruhigen muss.
Also ich glaube, ich bin letztlich der Überzeugung eben, dass es diese platonische Realität nicht gibt, irgendwie metaphysisch, sondern dass, was wir tun in der Moralphilosophie, was wir suchen, wenn wir sogenannte moralische Wahrheiten suchen, irgendwie doch relativ ist, mindestens zu der menschlichen Lebensform. Und wir könnten uns ganz, ganz andere Lebensformen vorstellen. Also wir könnten uns irgendwelche extraterrestrischen Wesen vorstellen, die vielleicht sehr, sehr intelligent sind und mit denen wir uns über viele Dinge ganz gut unterhalten können, aber die haben einfach nichts, was wir als Moral bezeichnen würden. Skrupellos morden die sich gegenseitig ab und sind auch bereit, uns zu ermorden und dergleichen.
Und ich glaube schon, dass da irgendwann der Sinn dessen zusammenbricht, was wir sagen, wenn wir sagen, „Die irren sich”. Also ich glaube, es macht letztlich nicht viel Sinn, über so eine Spezies, die einfach ganz, ganz anders lebt, zu sagen, „Die irren sich, die machen da einen Fehler, die sehen da irgendwas nicht, was eigentlich moralisch richtig wäre.” Sondern ich glaube, das Einzige, was wir irgendwann noch sagen können, ist einfach: "Die leben halt anders als wir." So, aber das ist halt sehr, sehr tief, dass heißt nicht, dass wir innerhalb der Menschheit zum Beispiel sagen müssen: „Ja, wenn du halt denkst, Mord ist okay, dann denkst du das und da kann ich dich ja auch nicht kritisieren.” Sondern sozusagen… also wir als Menschheit.
[01:09:49] Stephan: Oder selbst innerhalb der Tierwelt, nicht? Da können wir uns auch immer noch sicher genug sein, die sind nicht wie die extraterrestrischen Wesen, wo wir gar nicht sowas wie Wohlergehen, was uns vielleicht wichtig ist, oder Freude, erkennen können und das gar nicht so genau fassen können, sondern bei Tieren, die sind uns nah genug, dass das sehr eindeutig ist, dass das schlecht ist, wenn die leiden zum Beispiel.
Bist du — letzte Frage, bevor wir zu der normativen Unsicherheit kommen — bist du skeptisch, was andere Elemente des Utilitarismus angeht, also sowas wie den Konsequentialismus, den Fokus auf Wohlergehen in der einen oder anderen Form oder dass Wohlergehen aggregiert werden kann? Oder ist das für dich wirklich hauptsächlich so ein Wandel in deiner Perspektive von Unparteilichkeit hin zu einer weniger ausgeprägten Unparteilichkeit?
[01:10:39] Stephan: Diese anderen Aspekte auf jeden Fall. Zum Beispiel der Fokus auf Wohlergehen. Und das war vielleicht jetzt biografisch für mich das erste Element, wo mein eigener Utilitarismus irgendwann in sich zusammengestürzt ist, weil ich den Utilitarismus nicht in Einklang bringen konnte mit der Intuition, die ich hatte über Paternalismus. Also der Utilitarismus besagt ja: „Ich habe eine Pflicht, auf dein Wohlergehen zu schauen.” Und erstmal scheint er zu sagen: „Es ist eigentlich egal, ob du das willst oder nicht.” Also ich habe irgendwie eine Pflicht, auch gegenüber wildfremden erwachsenen Menschen, mich darum zu kümmern, dass die ein gutes Leben haben.
Und das scheint mir in Fällen, wo andere das nicht wollen, extrem übergriffig und paternalistisch zu sein. Also da zu sagen… Ich glaube, das ist die richtige Haltung, zum Beispiel gegenüber meinen eigenen Kindern. Also ich habe eine Pflicht, für das Wohlergehen meiner Kinder zu sorgen. Und vielleicht manchmal, ob sie es wollen oder nicht. Also sie wollen irgendwie rausgehen, ohne sich eine Jacke anzuziehen. Ich als ihr Vater habe aber die Pflicht, ihnen die Jacke anzuziehen, wenn ich weiß, die werden sonst krank.
Aber ich glaube gegenüber… und ich glaube auch interessanterweise gegenüber uns nahestehenden Menschen haben wir manchmal diese Pflicht. Also vielleicht kann es irgendwie sein, ich weiß nicht, ein sehr guter Freund von mir ist Alkoholiker und sagt mir aber, er möchte damit in Ruhe gelassen werden, aber ich habe eine Pflicht, vielleicht ein bisschen ihn zu seinem eigenen Glück zu zwingen und wenn ich kann, ihn irgendwie von dieser Alkoholsucht loszubringen. Aber ich glaube, mindestens mit fremden Menschen ist es in vielen Fällen übergriffig, zu versuchen, ihr Leben für sie besser zu machen, obwohl sie das nicht wollen. Es ist eben paternalistisch. Genau und der Utilitarismus, meine ich, kann das nicht einfangen, sondern der Utilitarismus tut so, als müsste unsere Haltung gegenüber wildfremden erwachsenen Personen die sein, die wir gegenüber unseren eigenen Kindern zum Beispiel an Tag legen.
[01:12:34] Stephan: Glücklicherweise gibt es natürlich in der wirklichen Welt genug Fälle, in denen wir Leuten helfen können…
[01:12:40] Stefan: Genau, genau, also ich möchte, dass…
[01:12:41] Stephan: Die sind froh, dass ihnen geholfen wird.
[01:12:43] Stefan: Das heißt jetzt nicht, dass es irgendwie falsch ist, sich gegen globale Armut oder so einzusetzen. In den allermeisten Fällen wollen die Menschen ja, dass wir ihnen helfen. Ja.
[01:12:54] Stephan: Genau. Und die agnostischste Position kann ja sein: Ich überweise denen einfach Geld. Gibt auch eine Wohltätigkeitsorganisation, die das macht, GiveDirectly. Und wahrscheinlich kann man aber noch effektiver sein, wenn man Gesundheitsinterventionen, die wahrscheinlich auch keinen Widerspruch auslösen, in Schutz nimmt.
[01:13:09] Stefan: Genau. Wobei ich eben auch da schon sagen würde, auch das, also das bloße Überweisen von Geld, darf nur dann geschehen, wenn die Person dieses Geld will. Also das war wirklich auch biografisch ein Erlebnis: Ich war, ich weiß nicht, ich war irgendwie 14 Jahre alt und in Italien — ich erinnere mich gut — und da hab ich, da war eine obdachlose Person auf der Straße und ich war mit meiner Familie da in den Ferien und habe dem ein bisschen Geld gegeben und dann hat mir meine Mutter gesagt: „Nicht einer obdachlosen Person Geld geben, die nicht danach verlangt.” Also die Person war einfach da und hat nicht gebettelt oder so, sondern war einfach da auf der Straße obdachlos und ich habe da Geld hingelegt und im Nachhinein habe ich mich wahnsinnig dafür geschämt, weil das sowas Übergriffiges hat. Vielleicht wollte die Person mein Geld nicht und das scheint mir also ein wichtiger Unterschied zu sein. Genau, aber im Normalfall, wenn wir jetzt von Wohltätigkeits- oder Entwicklungszusammenarbeits-Organisationen reden, dann wollen die Leute durchaus diese Unterstützung annehmen, ja.
[01:14:08] Stephan: Utilitaristen können das ja im Grunde auch immer nur instrumentell rechtfertigen. Die würden schon manchmal sagen: „Autonomie ist schon ein Wert, aber letztlich ist das nur ein Wert, weil das auf Wohlergehen reduzierbar ist." Meistens wissen die Menschen eben ja doch selber, was besser für sie ist und deswegen ist das ein instrumenteller Wert.
[01:14:22] Stefan: Aber das scheint mir wieder die falsche Begründung. Oder das scheint mir nicht überzeugend. Es gibt Fälle, wo ich eigentlich besser weiß, was für eine andere Person gut ist, glaube ich. Und auch in den Fällen und nicht aus bloß instrumentellen Gründen wäre es problematisch, dann die paternalistisch zu behandeln, ja.
[01:14:41] Stephan: Absolut, absolut. Auch im Utilitarismus — wir reden davon die ganze Zeit, so als sei das eine Theorie, aber auch da gibt es ja dann noch viele Aufteilungen und Wohlergehen — kann sowas wie Hedonismus bedeuten, dass es einfach nur Glücks- und Leiterfahrungen sind. Manche wollen darunter viel breitere Merkmale, wie ein gelungenes Leben, Freunde, Liebe und was auch immer fassen. Lass uns auf die normative Unsicherheit kommen, beziehungsweise dein Buch heißt ja, also übersetzt, „Ein axiomatischer Ansatz für axiologische Unsicherheit.” Erstmal, was ist Axiologie?
[01:15:21] Stefan: Axiologie ist die Theorie des Guten. Also wenn die Frage ist, ja: „Was ist gut in der Welt?”...
[01:15:21] Stephan: Warum ist das anders als normative Unsicherheit? Warum heißt das nicht „Ein axiomatischer Ansatz für normative Unsicherheit?”
[01:15:35] Stefan: Weil ich glaube, die Frage „Was ist gut?”, ist eine andere Frage als die Frage „Was soll ich tun?”, oder die Frage „Was ist moralisch richtig?” Zum Beispiel haben wir ein Beispiel davon vorhin gesehen in der Diskussion: Ich kann sagen, objektiv gesehen wäre es besser, ich würde das zweite Kind retten, aber weil ich eine besondere Beziehung zu meinem Kind habe, glaube ich, ich sollte moralisch gesehen mein Kind retten. Also diese Frage „Was ist gut?” und die Frage „Was sollte ich moralisch gesehen tun?” oder vielleicht „Was sollte ich insgesamt tun?” fallen nicht zusammen, können durchaus divergieren.
[01:16:08] Stephan: Mindestens manche moralische Theorien würden nicht sagen wollen, das ist das Gleiche.
[01:16:13] Stefan: Genau.
[01:16:14] Stephan: Was versuchst du, also was hast du in deiner Doktorarbeit oder dann eben mit dem Buch versucht, für ein Argument zu konstruieren? Vielleicht kannst du das einmal darstellen. Du adoptierst ja ein Theorem aus der Entscheidungstheorie und versuchst das anzuwenden auf axiologische Unsicherheit. Also auszugehen von Fällen, in denen wir eine deskriptive Unsicherheit haben und das jetzt anwenden auf Fälle, in denen wir uns unsicher sind, welche Prinzipien das Gute beschreiben.
[01:16:45] Stefan: Also nochmal, meine Frage in dem Buch ist: „Wie soll ich meine Optionen bewerten, wenn ich nicht weiß, welche Axiologie richtig ist?” Also: „Wie soll ich sagen, welche meiner Handlungsoptionen jetzt besser oder schlechter sind, wenn ich nicht weiß, was objektiv gesehen wirklich gut oder schlecht ist?” Genau, und ich versuche, wie du das sagst, die Antwort zu geben, indem ich ein Argument übernehme aus der empirischen Entscheidungstheorie. Dort ist die Frage: „Was soll ich tun, wenn ich nicht weiß, was empirisch gesehen der Fall ist?” Und Ökonomen in der Entscheidungstheorie haben gezeigt, dass man sogenannte Repräsentationstheoremen oder Representation Theorems geben kann. Was ist damit gemeint? Damit ist gemeint: Thematische Theoreme, die zeigen, dass wenn deine Präferenzen bestimmte formale Bedingungen erfüllen, dass du immer dann so interpretiert werden kannst, als würdest du einen bestimmten Erwartungswert maximieren, also Expected Utility maximieren.
Also sprich: Wenn deine Präferenzen, wenn man sieht zum Beispiel, in verschiedenen Situationen, wo du verschiedene Formen von Ungewissheit hast, sind deine Präferenzen immer zum Beispiel transitiv, also eben das, wenn du A lieber magst als B und B lieber magst als C, dass du auch A lieber magst als C oder deine Präferenzen sind vollständig, also in jeder Entscheidungssituation zwischen A und B präferierst du entweder A gegenüber B oder B gegenüber A oder es ist dir egal und so weiter. Also relativ einfache, formale Kriterien. Wenn deine Präferenzen die erfüllen, dann kann man dich so interpretieren, als würdest du allen Weltzuständen immer schon einen bestimmten Wert zuschreiben und eine bestimmte Wahrscheinlichkeit geben und dann in deinen Handlungen so verfahren, in deinen Präferenzen so verfahren, dass du immer eine Option einer anderen vorziehst, wenn sie den höheren Erwartungswert hat.
[01:18:43] Stephan: Klingt vielleicht erstmal abstrakt, aber ist was recht Natürliches, wenn wir einfache Entscheidungen anschauen, wie: „Ich gehe nach draußen, vielleicht regnet es, vielleicht nicht”, dann habe ich eine gewisse Wahrscheinlichkeit, einen gewissen Überzeugungsgrad. Vielleicht 60 Prozent, dass es regnet. Und dann habe ich die Szenarien, dass es dann tatsächlich regnet und ich meinen Schirm dabei habe oder eben nicht. Oder dass es nicht regnet und ich meinen Schirm dabei habe oder nicht. Also ich habe diese Paare von dem Zustand und was ich gemacht habe. Und die haben quasi eine unterschiedliche Utilität jeweils: Wenn das wirklich schlimm ist für mich, diesen Schirm mit mir herumzuschleppen, dann sollte ich ihn vielleicht nicht mitnehmen, selbst wenn es wahrscheinlich regnet. Und wenn es nicht so schlimm ist, dann sollte ich ihn mitnehmen, selbst wenn es relativ unwahrscheinlich ist, dass es regnet. Und das Gleiche versuchst du also im Grunde für die axiologische Unsicherheit. Es gibt da diese von Neumann-Morgenstern Axiome. Zähl die nochmal auf und sag vielleicht, wann das zu Schwierigkeiten führen kann noch.
[01:19:42] Stefan: Also genau, zwei habe ich schon genannt: Das ist Transitivität und Completeness, also eben Vollständigkeit.
[01:19:53] Stephan: Also im Grunde jedem Zustand einen Wert zuordnen können?
[01:19:57] Stefan: Da geht es… Ja erstmal reden wir über Eigenschaften deiner Präferenzen. Erstmal heißt es einfach nur: Jedes Mal, wenn man dir die Wahl gibt zwischen zwei Optionen, hast du eine Präferenz für eine der beiden gegenüber der anderen. Oder du behandelst sie als gleich.
[01:20:15] Stephan: Okay, aber ich sage nie: Ich mache gar keine Entscheidung.
[01:20:18] Stefan: Genau, genau.
[01:20:20] Stephan: Kontinuität.
[01:20:22] Stefan: Dann gibt es noch Kontinuität. Genau! Da ist die Idee, grob gesagt, dass keine Option unendlich viel besser ist oder lexikalisch besser ist als eine andere. Also wenn du zum Beispiel A besser findest als B und B besser findest als C, dann gibt es irgendeine Mischung quasi aus A und C, also eine Lotterie, die dir mit einer bestimmten Wahrscheinlichkeit A liefert und mit einer bestimmten Wahrscheinlichkeit C liefert, die du besser findest als B und es gibt eine andere Lotterie, die du schlechter findest als B. Und das heißt einfach nur, dass eben zum Beispiel A nicht unendlich viel besser ist als B oder C nicht unendlich viel schlechter ist.
[01:21:02] Stephan: Es gibt keine Unendlichkeiten und es gibt auch nicht so Sprünge, oder?
[01:21:05] Stefan: Genau, genau.
[01:21:07] Stephan: Ja, und Unabhängigkeit gibt es noch.
[01:21:11] Stefan: Das Unabhängigkeits-Axiom besagt quasi, dass der Wert von bestimmten Dingen, bestimmten Outcomes deiner Handlungen, unabhängig ist davon, welche anderen Outcomes du in deinen Handlungen auch noch hättest erreichen können. Also einfach gesagt: Wenn du A besser findest als B, dann findest du auch eine Option besser, die dir entweder A gibt oder C gibt, irgendwas ganz Drittes, als eine Option, die dir mit denselben Wahrscheinlichkeiten entweder B gibt oder diese dritte Option C. Also einfach gesagt: Wenn du…
[01:21:51] Stephan: … Eiscreme willst und es gibt Schoko oder Vanille, dann sagst du „Schoko” und dann siehst du, „ah es gibt aber auch Erdbeer”, dann änderst du nicht deine Meinung zu Vanille.
[01:22:02] Stefan: Das ist ein bisschen was anderes. Das wäre Independence of Irrelevant Alternatives, was eher aus der Social Choice Theory kommt als aus der Entscheidungstheorie. Es ist eher so: Wenn du Vanille lieber magst… angenommen du magst Vanilleeis lieber als Schokoladeneis und jetzt biete ich dir an „Ich werfe eine Münze und wenn Zahl kommt, kriegst du entweder Vanille oder Erdbeer.” Das ist die eine Option. Oder ich werfe eine andere Münze und dort gilt: Wenn Zahl… Entschuldigung, also: Erste Option ist: Ich werfe eine Münze, wenn Zahl kommt, kriegst du Vanille, wenn Kopf kommt, kriegst du Erdbeer. Zweite Option: Ich werfe eine andere Münze, wenn Zahl kommt, kriegst du Schokolade und wenn Kopf kommt, kriegst du Erdbeer.
[01:22:43] Stephan: Dann ändert sich meine Entscheidung nicht.
[01:22:44] Stefan: Dann sollte sich deine Entscheidung nicht ändern. Wenn du Vanille lieber magst als Schokolade, dann solltest du auch den Münzwurf zwischen Vanille und Erdbeer lieber mögen als den Münzwurf zwischen Schokolade und Erdbeer.
[01:22:55] Stephan: Ja, okay, verstanden. Und du lieferst ja dann im Grunde nicht nur ein Argument, sondern eigentlich einen Beweis, dass, wenn die Axiome erfüllt sind, diese Erwartungswertmaximierung, oder diese Maximierung des Meta-Werts, dann auf diese spezifische Art analog zu der deskriptiven Unsicherheit passiert.
[01:23:16] Stefan: Genau, also man kann zeigen — und ich interpretiere es dann eben, ich interpretiere mein Theorem nicht so, dass es für deine Präferenzen gilt, sondern für deine Urteile darüber, was angesichts deiner axiologischen Ungewissheit gut ist. Und ich sage: Wenn deine Urteile darüber, was angesichts deiner axiologischen Ungewissheit das Beste ist, diese von Norman-Morgenstern Axiome erfüllen, dann kann man zeigen, dass es… dann kann man die so repräsentieren, als würdest du den Erwartungswert über deine Axiologien maximieren. Sprich, eine Option genau dann besser als eine andere finden, wenn die Summe in dieser Option über alle Axiologien von der Wahrscheinlichkeit dieser Axiologie mal dem Wert, den diese Axiologie dieser Option zuschreibt, größer ist als von der zweiten Option, die du hast. Also du maximierst implizit den axiologischen Erwartungswert deiner Optionen.
[01:24:10] Stephan: Ja, genau.
[01:24:11] Stefan: Und dann.. Das ist aber erst mal nur eben ein mathematisches Resultat. Also, man kann zeigen: Wenn deine Urteile darüber, was gut ist, diese Axiome erfüllen, dann gibt es eine Wahrscheinlichkeitsfunktion und eine Wertefunktion, mit denen wir dich beschreiben können „als den Erwartungswert maximierend”. Das heißt noch nicht, dass du wirklich auch den Erwartungswert maximierst, sondern nur man könnte dich so interpretieren, als ob du das tätest. Und dann ist sozusagen eine zweite oder eine Prämisse in meinem Argument, dass, wenn man dich so beschreiben könnte, als würdest du den Erwartungswert maximieren, dann maximierst du auch den Erwartungswert. Also zu sagen: Dies und jenes sind deine Überzeugungen, dies und jenes sind deine Werte, heißt nichts anderes als zum Beispiel, man kann dich eben so und so beschreiben.
[01:25:05] Stephan: Dann beschreibt man dich so, dass du diesen abstrakten Erwartungswert maximierst.
[01:25:10] Stefan: Genau. Beziehungsweise das ist eben dann nicht mehr irgendwie ein abstrakter Erwartungswert…
[01:25:14] Stephan: …sondern ist dann reell.
[01:25:16] Stefan: … sondern ist dann wirklich dein Erwartungswert. Wir haben allerdings ein Axiom noch vergessen, also du musst nicht nur diese von Neumann-Morgenstern Axiome erfüllen, sondern auch ein Pareto-Axiom, was sowas besagt wie: Wenn eine Option gemäß all deinen Axiologien mindestens gleich gut ist wie eine andere und gemäß einer Axiologie aber strikt besser als die andere Option, dann ist sie… dann hältst du sie auch gegeben deiner Ungewissheit, also angesichts deiner Ungewissheit, für strikt besser.
[01:25:44] Stephan: Wird eigentlich immer in der Social Choice Theory eben auch akzeptiert. Niemand ist schlechter gestellt, irgendjemand ist besser gestellt, dann ist das Pareto besser.
[01:25:53] Stefan: Genau.
[01:25:54] Stephan: Du hast also über axiologische Unsicherheit geschrieben und darüber, wie wir mit dieser Unsicherheit über Urteile, was gut ist, umgehen. Was passiert von dem Schritt von axiologischer zu normativer Unsicherheit, wenn wir jetzt wissen wollen: „Wie soll ich denn jetzt handeln?” Welche Schwierigkeiten gibt es da auch?
[01:26:13] Stefan: Ich glaube, da gibt es Schwierigkeiten und das war dann mit ein Grund, warum ich mich entschlossen habe, in meinem Buch mich einfach mal auf axiologische Ungewissheit zu konzentrieren. Die Hauptschwierigkeit, glaube ich, besteht darin, dass eben es mir plausibel scheint, dass Axiologien diese Axiome erfüllen… plausibler scheint, als dass Moraltheorien im Allgemeinen diese Axiome erfüllen. Also nur schon das Transitivitäts-Axiom — ich glaube, es ist eine begriffliche Wahrheit, dass Axiologien dieses Axiom erfüllen. Es ist eine begriffliche Wahrheit, dass wenn A besser ist als B und B besser ist als C, dass dann auch A besser ist als C.
[01:26:53] Stephan: Also eine analytische Wahrheit, die inhärent in der Relation besser als ist.
[01:26:58] Stefan: Genau. Ich glaube, es ist inhärent eigentlich in jeder Form der Steigerung eines Adjektivs. Also wenn A größer ist als B und B größer als C, dann ist A auch größer als C. Also das ist, genau, eine analytische, begriffliche Wahrheit.
[01:27:15] Stephan: Und Axiologien können ja sowas sein wie: „Das Gute ist einfach menschliches Wohlergehen” oder „Das Gute ist eine Kombination aus menschlichem Wohlergehen und Schönheit” oder „aus menschlichem Wohlergehen und tierischem Wohlergehen” und so weiter.
[01:27:28] Stefan: Genau.
[01:27:30] Stephan: Erklär mal, warum das dann auseinandergehen kann, warum moralische Theorien dann aber gegebenenfalls nicht mehr diesen Axiomen folgen? Also das einfachste Beispiel sind vielleicht deontologische Theorien, wo diese Axiome nicht mehr greifen und die trotzdem plausibel scheinen.
[01:27:49] Stefan: Ich glaube, also genau, eine deontologische Theorie kann so beschaffen sein, dass sie sagt: „Wenn ich eine Wahl habe zwischen A und B, dann sollte ich A tun. Wenn ich eine Wahl habe zwischen B und C, dann sollte ich B tun. Aber wenn ich eine Wahl habe zwischen A und C, dann ist nicht so klar, was ich tun soll. Vielleicht ist es falsch, dass ich A tun soll.” Und das kann damit zusammenhängen, dass aus einer deontologischen Perspektive kann es relevant sein, welche Alternativen habe ich. Also der moralische Status einer Handlung A kann davon abhängen, ob meine Alternative B ist oder C. Und vielleicht, wenn B meine Alternative ist, ist A nicht respektlos. Aber wenn C meine Alternative ist, dann wäre es respektlos, A zu tun. Also ob es respektlos ist, was zu tun, kann damit zusammenhängen, was meine Alternativen sind. Axiologisch gesehen scheint mir das weniger plausibel, also wie gut A ist, absolut gesehen, das hängt nicht davon ab, ob meine Alternative jetzt B oder C ist, sondern A ist entweder gut oder schlecht, genau. Und insofern, diese Vorstellung, dass die Evaluation einer Option abhängt von meinen Alternativen, scheint mir weniger plausibel im axiologischen Sinn als im deontologischen oder deontischen Sinn.
[01:29:00] Stephan: Und ja, nicht nur im deontologischen Sinn, also die teilen das auch mit personenbezogenen Theorien zum Beispiel, wo nur tatsächlich existierende Personen eine Rolle spielen und dann vergleichst du Welten, in denen eine Person aber nur in manchen der Welten existiert, dann kann das auch die Axiome …
[01:29:16] Stefan: Genau, genau. Deswegen habe ich, also sozusagen, im Deontischen — also wenn wir darüber reden, was du tun sollst — dann glaube ich, ist es eben nicht so plausibel, dass dieses Transitivitätsaxiom von allen Theorien erfüllt ist.
[01:29:31] Stephan: Sagen wir mal: Selbst wenn das jetzt von allen Theorien… oder wir bleiben bei den Axiologien… das ist von allen Axiologien erfüllt, aber du musst dann anfangen, intertheoretische Werturteile zu treffen und findest manche Axiologien zum einen wahrscheinlicher, aber zum anderen haben die auch unterschiedliche Wertfunktionen oder sind vielleicht einfach von der Größe des Werts, den sie postulieren, unterschiedlich. Akzeptiert man das dann einfach? Also es gibt ja Ansätze, dass du es irgendwie zu normieren versuchst, was auch unbefriedigend scheint. Sobald du unendliche Werte hast, bist du eigentlich völlig raus, oder?
[01:30:12] Stefan: Genau.
[01:30:13] Stephan: Hast du einen Lieblingsansatz? Keine Ahnung. Also du findest zum Beispiel dieses „Jede Theorie hat die gleiche Spanne” oder so, findest du nicht plausibel, oder?
[01:30:23] Stefan: Nee, das leuchtet mir ehrlich gesagt nicht besonders ein. Also ich denke mir, es ist plausibel, dass zum Beispiel gemäß manchen Axiologien zum Beispiel insgesamt mehr auf dem Spiel stehen kann, als gemäß anderen Axiologien. Also wenn ich eine Axiologie habe, die besagt: „Nur menschliches Wohlbefinden ist wertvoll”, und eine andere Axiologie, die besagt „Das Wohlbefinden von Menschen und nichtmenschlichen Tieren ist wertvoll”, dann scheint es mir plausibel zu sagen: Im Normalfall würden wir erwarten, dass gemäß der zweiten Theorie sozusagen grundsätzlich mehr moralisch auf dem Spiel steht als gemäß dem ersten. Also die zweite Theorie sagt: „All das, was gemäß der ersten Theorie Wert hat, hat Wert, aber noch mehr Dinge haben eben auch Wert.” Und wenn man jetzt diese beiden Theorien normieren würde und sagen würde, wir müssen sie immer so behandeln, als sagten sie: „In irgendeiner Weise insgesamt steht immer gleich viel auf dem Spiel”, dann würde man sagen, „Gemäß der zweiten Theorie ist menschliches Wohlbefinden weniger wichtig als gemäß der ersten”, aber das scheint mir nicht notwendigerweise die plausible Interpretation, genau.
Und insofern glaube ich, sehe ich keine gute Lösung für diese Probleme, die du erwähnt hast. Zum Beispiel die Probleme von Theorien, gemäß denen bestimmte Dinge unendlich wertvoll sind oder unendlich viel wertvoller als andere Dinge gemäß anderen Theorien. Das sind aber auch Theorien…
[01:31:46] Stephan: Man möchte die nicht normieren, nicht? Aber man möchte auch nicht fanatisch werden, wenn eine Theorie sich zu sehr aufbläht. Oder vielleicht ist es auch richtig, aber es löst zumindest eine gewisse Skepsis aus.
[01:32:03] Stefan: Es wäre dann immer noch die Frage: „Wie häufig sind diese fanatischen Theorien?” Sind das sozusagen rein theoretisch möglicherweise konstruierbare Theorien, die diese Form haben, so fanatisch zu sein und die dann sozusagen unseren ganzen theoretischen Rahmen zum Implodieren bringen? Ich glaube es. Und ich glaube also, dass die nicht besonders irgendwie häufig sind oder nicht besonders plausibel im Alltag, sondern das eher sozusagen theoretische Optionen sind, solche Theorien zu konstruieren. Und dann würde ich sagen, dass man solche quasi „theoretischen” Probleme hat, muss uns vielleicht noch nicht so wahnsinnig beunruhigen, weil die hat man auch im Bezug auf empirische Ungewissheit.
Also es gibt auch in Bezug auf empirische Ungewissheit ganz viele Probleme, die sich stellen, sobald wir mit Unendlichkeiten operieren. Und natürlich kann man sozusagen theoretisch oder manchmal auch praktisch nicht ausschließen, mit solchen Unendlichkeiten zu operieren, aber das heißt nicht, dass wir jetzt den ganzen Rahmen, die ganze Idee des Erwartungswerts, schon aus dem Fenster kippen sollten. Und ich sehe es eigentlich ähnlich in Bezug auf das Problem von fanatischen Theorien zum Beispiel. Bei normativer Ungewissheit. Ich bin eher skeptisch, wenn man allzu schnell versucht, dieses Problem zu lösen, indem man irgendwie eben Normierungsvorschläge macht oder neue Theorien entwickelt darüber, wie wir umgehen sollten mit normativer Ungewissheit. Manchmal glaube ich, sollte man eher akzeptieren, ja, das sind halt dann Fälle, wo die Theorie quasi an ihre Grenzen stößt. Wo wir einfach noch keine gescheite Lösung haben.
[01:33:42] Stephan: Du hast jetzt ja eben, vielleicht in dir selber oder vielleicht haben wir auch zwischen… sicherlich haben wir zwischen verschiedenen Menschen eben nicht nur axiologische, sondern auch normative Unsicherheit. Welche Werkzeuge haben wir, damit umzugehen?
[01:33:57] Stefan: Du meinst, um Handlungen zu fällen angesichts dieser Ungewissheit oder um die Ungewissheit zu reduzieren?
[01:34:01] Stephan: Ja, also um mich selber zu entscheiden: Du hast jetzt diesen utilitaristischen Impuls von der Maximierung einer unparteiischen Größe, eines abstrakten Guten in dir, aber du hast auch deontologische Überzeugungen, die eben nicht reduzierbar sind, die… nach denen manches eine über die Pflicht hinausgehende Handlung sein kann, nach denen manches vielleicht strikt verboten ist, die also diesen Axiomen auf verschiedene Weisen nicht folgen. Die vielleicht Schwellen haben, dass du so ein gewisses Risiko verursachen darfst für andere, für die rechte Verletzung bei anderen, aber darüber nicht hinausgehen kannst. Also der reine Rahmen diese axiologische Unsicherheit und die Methode der Maximierung dieses Erwartungswerts kannst du dann nicht mehr vollständig auf all deine normative Unsicherheit ausweiten.
Du sagst ja trotzdem nicht: „Ich wähle dann meine Lieblingstheorie und folge jetzt der.” Den Ansatz machst du ja auch bei der normativen Unsicherheit nicht, sondern was glaubst du, was wir machen können, was wir machen müssen? Müssen wir einfach pragmatisch sein? Können wir versuchen… manche Leute haben diese Ideen von moralischem Parlament oder moralischem Handeln. Gibt es Werkzeuge, die wir benutzen können, damit wir damit so gut, wie wir können, eben auch mit Unsicherheit über die Unsicherheit — quasi mit Unsicherheit — wie wir mit Unsicherheit umgehen sollen, wie wir dann noch handeln sollen, damit wir nicht gelähmt sind?
[01:35:31] Stefan: Das ist eine extrem schwierige Frage und ich habe eben unter anderem das Buch begrenzt auf diesen Themenbereich der Archäologischen Ungewissheit, weil ich dazu keine gute Antwort weiß. Ehrlich gesagt scheint es mir fast am vielversprechendsten, trotz der Probleme, die ich genannt habe, zu versuchen, meinen Rahmen auf andere Formen von normativer Ungewissheit irgendwie auszudehnen. Also irgendwie mit Biegen und Brechen halt versuchen, andere Moraltheorien zum Beispiel rein zu zwängen in dieses Korsett von diesen Axiomen, von denen von Neumann-Morgenstein Axiomen zum Beispiel von Transitivität, obwohl man irgendwie sagen muss, es ist auf den ersten Blick unpassend.
Also das scheint mir… Ich glaube, das ist eben nicht ganz befriedigend und schwieriger als im Fall der Axiologie, aber vielleicht letztlich doch die beste Option, die wir irgendwie haben, statt jetzt zu sagen, irgendwie an dem Punkt wenden wir plötzlich eine ganz andere Konzeption an und haben irgendwie plötzlich eben so eine Vorstellung eines Parlaments und wir zählen Stimmen oder was auch immer, also genau. Aber wie gesagt, ich, ja… Ich weiß es noch nicht und ich weiß noch nicht mal, was man machen soll richtig angesichts dieser Ungewissheit.
Ich glaube, de facto macht man dann das, was ich eben auch denke, sollte man machen im Fall der axiologischen Ungewissheit: Also irgendwie versucht man eben beide Dinge abzuwägen. Sowas wie Wahrscheinlichkeit an einer bestimmten Theorie, moralischen Theorie, und irgendwie sowas wie den Wert, den diese Theorien bestimmten Handlungen zuschreiben und dann versuchen irgendwie eben doch diese Art von Rahmen, glaube ich, anzuwenden. Aber es fehlt vielleicht dann die schöne theoretische Grundlage.
[01:37:21] Stephan: Ja. Wir können schließen mit einer versöhnlicheren Note, also vielleicht mit der Einsicht: Viele Theorien — kamen wir eigentlich zu dem Schluss — kommen zu dem Ergebnis, dass viele Handlungen, die auch intuitiv gut erscheinen, vielleicht eine Verpflichtung sind oder mindestens eben etwas Gutes, was man tun kann. Also, wer vielleicht mehr erfahren möchte, kann — ich werde ein paar Sachen verlinken — kann auch bei effektive-altruismus.de gucken. Wer effektiv spenden möchte, kann bei effektiv-spenden.org gucken. Da gibt es auch Möglichkeiten steuerbegünstigt zu spenden, was manchmal bei ausländischen Organisationen sonst schwierig sein kann. Und kann da mehr erfahren.
Mir hat es wahnsinnig viel Spaß gemacht, mit dir zu sprechen und ich bedanke mich ganz herzlich.
[01:38:09] Stefan: Ebenso. Ganz, ganz herzlichen Dank! Hat mir sehr Spaß gemacht. Vielen Dank für das Interesse und das Gespräch.