Wie retten wir die Zukunft, Herr MacAskill?
Der schottische Philosoph William MacAskill wirbt für ein langfristiges Denken, den sogenannten Longtermism. Im Gespräch erläutert er die Chancen und Gefahren auf diesem Weg, welche Rolle KI dabei spielt und diskutiert die Frage, ob man überhaupt noch Kinder kriegen sollte.
Herr MacAskill, Ihr neues Buch handelt davon, was wir der Zukunft schulden. Sie meinen damit nicht nur die nächsten zwei, drei Generationen, sondern auch Menschen, die womöglich erst in einigen Millionen Jahren geboren werden. Warum sollten wir auch sie in unseren moralischen Überlegungen berücksichtigen?
Wir sollten das tun, weil sie moralisch wichtig sind. Ich denke, dass der Zeitpunkt, an dem sich eine Person wiederfindet, moralisch keinen Unterschied machen sollte. Und außerdem können wir durch Dinge, die wir in der Gegenwart tun, beeinflussen, wie die Leben dieser zukünftigen Menschen verlaufen.
Wenn Sie an Menschen in der Vergangenheit denken: Haben Sie das Gefühl, diese hätten Ihnen etwas geschuldet?
Wenn sie vorhersehbar auf die Leben gegenwärtiger Generationen einwirken hätten können, hätten sie uns auch etwas geschuldet. Ich glaube aber, dass ein Unterschied zwischen uns und Menschen in der Vergangenheit besteht: Wir haben mehr Wissen und ein besseres wissenschaftliches Verständnis. Die Menschen, die durch Jagen viele, viele Arten ausgerottet haben, wussten nicht, was Artensterben ist und warum es relevant sein könnte. Oder nehmen wir frühen Methanausstoß oder Brandrodung: Die Menschen, die das getan haben, wussten nicht, was der Klimawandel ist. Wir haben ein drastisch verbessertes wissenschaftliches Verständnis, verglichen mit diesen Menschen. Das gibt uns zusätzliche Pflichten.
Sie schreiben, der Zeitpunkt, an dem wir uns befinden, zeichnet sich auch durch ein besonderes moralisches Profil aus. Wir leben in einer Zeit globaler Wertepluralität, bewegen uns aber auf eine Homogenisierung und womöglich sogar auf ein Einrasten unserer moralischen Werte zu. Warum glauben Sie, dass unsere Werte irgendwann aufhören werden, sich zu wandeln?
Ich bin nicht sicher, dass sie aufhören werden, sich zu verändern. Es scheint mir jedoch einigermaßen wahrscheinlich und ich denke, wir sollte uns darum sorgen. Ein Grund dafür ist, dass es eine klare menschliche Tendenz dazu gibt, nach Macht zu streben und Werte zu zementieren. In Diktaturen sehen wir das immer wieder. Im Buch diskutiere ich die Beispiele von Pol Pot, Stalin, Hitler und anderen, doch es ist eine ziemlich universelle Tendenz. Wenn das in Zukunft so bleibt und Akteure immer wieder versuchen werden, Macht an sich zu reißen, dann ist das eine Bedrohung, mit der wir rechnen sollten.
Warum ist es dann in der Vergangenheit noch nicht zu einem Einrasten der Werte gekommen?
Weil wir nicht die technischen Möglichkeiten hatten, Werte wirklich einrasten zu lassen. Das wird mit künstlicher Intelligenz anders werden. Wenn es zum Beispiel digitale Wesen gäbe, die Normen und Gesetze festschreiben oder Gesellschaften lenken, dann können sie zumindest prinzipiell ewig fortbestehen. Sie könnten unsterblich sein. Und das ist ein entscheidender Unterschied zu Menschen, die ja innerhalb von hundert Jahren sterben.
Warum wäre es denn nicht wünschenswert einen weltweiten moralischen Konsens zu erlangen und zu bewahren?
Wenn moralischer Konsens dadurch zustande kommt, dass jemand sich mit militärischen Mitteln Macht über die ganze Welt verschafft und alle Menschen durch Gehirnwäsche dazu bringt zu glauben, was er sagt, wäre das schlecht. Nicht weil auf dem Weg dorthin alle möglichen Gräueltaten begangen werden würden, sondern auch weil es nicht der Weg der Wahrheitsfindung wäre. Wenn wir einen moralischen Konsens erreichen würden, indem wir uns Zeit nehmen für eine lange Reflexionsperiode mit vorsichtigem Überlegen, Debatten, Empathie und Abwägungen und so irgendwann einen Punkt erreichen, an dem wir wirklich versucht haben herauszufinden, was moralisch das Richtige ist, und es dann umsetzten, dann wäre ein Erstarren dieser Werte vielleicht in Ordnung.
Sie versichern den Leser ihres Buchs, dass Sie selbst Schwierigkeiten hatten, Longtermism nicht nur als Science-Fiction zu sehen, als Sie das erste Mal davon hörten. Was hat Sie umgestimmt?
Es war nicht so, dass mir mit einem Mal plötzlich alles klar wurde. Das kam eher über viele Jahre, in denen ich das Gewicht dieser Argumente mit mir herumgetragen haben. Dass zukünftige Menschen moralisch relevant sind, war mir schon immer einleuchtend. Eine größere Unsicherheit hatte ich bei Annahmen in der Populationsethik, wie der Frage: Ist der Verlust eines zukünftigen Lebens wirklich etwas Schlechtes? Ich habe eine Weile gebraucht, um zu verstehen, dass ich das nicht annehmen muss, um mich um die ferne Zukunft zu sorgen. Schließlich können wir den Lauf der Dinge auch so beeinflussen, dass es in jedem Fall eine große Anzahl zukünftiger Menschen geben wird. Eine zweite, gravierendere Frage war: Können wir wirklich vorhersehbar Einfluss auf die ferne Zukunft nehmen? Es gab dazu eine große Diskussion um so genannte „existenzielle Risiken“, die mir zu der Zeit höchst spekulativ erschien.
Zu diesen existenziellen Risiken zählt zum Beispiel die Entwicklung einer Künstlichen allgemeinen Intelligenz (eine Intelligenz, die jede intellektuelle Aufgabe übernehmen kann, die auch Menschen bewältigen können – Anm. der Redaktion).
Ja, Risiken durch Künstliche Intelligenz und auch synthetische Biologie. Jetzt, fünfzehn Jahre später, denke ich, dass diese abstrakten Überlegungen zu existenziellen Risiken immer besser aussehen. Sie kommen von denselben Leuten, die uns gewarnt haben, dass wir schlecht auf Pandemien vorbereitet sind. Covid-19 scheint sie bestätigt zu haben. Und auch im Bereich Künstlicher Intelligenz, besonders bei den Large Language Models (dt. große Sprachmodelle), ist der Fortschritt gerade im letzten Jahr absolut verblüffend. Selbstverständlich gibt es noch keine Künstliche allgemeine Intelligenz. Doch mittlerweile sagen zwei der Mitbegründer des Maschinellen Lernens, dass wir es hier mit einer echten Bedrohung zu tun haben, auf die wir uns konzentrieren sollten. Es scheint, dass die Leute, die über existenzielle Risiken nachdenken, die Debatte gewinnen. Dazu kommt, dass die Maßnahmen, die wir ergreifen können, konkreter sind und weniger wie Science-Fiction aussehen, sondern eher wie vernünftiges Nachdenken über Probleme im Entstehen, nicht unähnlich dem Nachdenken über den Klimawandel in den 1970ern.
Im Kapitel „Was tun?“ empfehlen sie nicht nur, einen Karrierepfad einzuschlagen, der sich existenzieller Risiken annimmt oder einem zumindest erlaubt, Geld dafür zu spenden. Sie legen Lesern außerdem nahe, ihre Berufswahl angesichts neuer Evidenz stets zu hinterfragen und gegebenfalls das Feld zu wechseln. Das klingt gut, dürfte in unserer nicht-idealen Welt aber vielen Menschen unmöglich sein, sei es, weil ihnen die finanziellen Mittel fehlen, sie zu alt sind, oder sie sich um Kinder kümmern. Spielen Eliten eine besondere Rolle für den Longtermism?
Ja. Die meisten Menschen, die das Buch lesen werden, sind vermutlich in reichen Ländern geboren. Für sie ist das Spenden ein einflussreicher Weg, der fast jedem offensteht. Wenn man in Deutschland oder Großbritannien beispielsweise ein durchschnittliches Einkommen hat, dann gehört man zu den reichsten fünf Prozent der Weltbevölkerung. Wenn wir über Menschen reden, die von 1000 Dollar oder weniger im Jahr leben, dann denke ich nicht, dass sie irgendwelche Verpflichtungen gegenüber Menschen in der fernen Zukunft haben. Doch die meisten Leser dieses Buchs werden zu den wohlhabendsten fünf bis zehn Prozent aller Menschen weltweit gehören und daher eine große Verantwortung tragen.
Am meisten überrascht hat mich, dass Sie Kinderkriegen als einen Weg beschreiben, etwas Gutes für die Zukunft zu tun. In der Populationsethik gibt es die so genannte Procreation Asymmetry (dt. Asymmetrie der Fortpflanzung), die besagt, dass wir zwar moralische Gründe dagegen haben, Menschen in die Welt zu setzen, deren Leben absehbar miserabel wird, wir aber keinen moralischen Grund dafür haben, Menschen in die Welt zu setzen, die glücklich sein werden. Warum widersprechen Sie dem?
Das Argument lässt sich so zusammenfassen: Stellen Sie sich vor, Sie haben drei Optionen: A – keine neuen Menschen kommen auf die Welt, B – Harry kommt auf die Welt und lebt ein passables Leben, C – Harry kommt auf die Welt und lebt ein tolles Leben. Wenn wir annehmen, es sei eine wertneutrale Angelegenheit, Menschen in die Welt zu setzten, dann sollten wir annehmen, dass Option A genauso gut ist wie B und auch genauso gut wie C. Wenn dem so ist, sollten wir allerdings auch annehmen, dass B genauso gut wie C ist – schließlich sind beide genauso gut wie A. Das würde jedoch bedeuten, dass es keine gute Sache sei, Harrys Leben zu verbessern, in Fällen, in denen es keinen Unterschied in der Populationsgröße gibt. Das ist eine Reductio ad absurdum. Es ist ein feines technisches Argument, aber die Logik verlangt, dass wir die Überzeugung aufgeben, es sei wertneutral, Menschen in die Welt zu setzen. Man kann es weiterhin wichtiger finden, Leiden zu vermeiden, als Glück zu kreieren. Dem stimme ich zu. Doch ich argumentiere gegen die Idee, dass Glück zu kreieren gar keine Relevanz hat.
Sie sagen nicht, dass Menschen Kinder bekommen sollten, da dies eine private Entscheidung sei. Aber die Moral macht vor dem Privaten keinen Halt. Sind wir also verpflichtet, Kinder zu bekommen, oder nicht?
Ich denke, es ist gut, Kinder zu bekommen, aber ich denke nicht, dass wir dazu verpflichtet sind. Es ist ein Weg, die Welt besser zu machen. Aber es ist eine offene Frage, was der beste Weg ist. Für manche mag es das Beste sein, Kinder zu bekommen, sie gut zu erziehen, ihnen dabei zu helfen, gute Bürger zu werden, die die Welt besser machen. Für andere nicht. Alles in allem halte ich es aber für eine gute Sache, Kinder zu haben.
In Ihrem Buch schreiben Sie, ein Grund dafür, Kinder zu bekommen, wäre auch, dass stagnierende Bevölkerungszahlen den technischen Fortschritt aufhalten, was uns wiederum daran hindert, dringenden Problemen wie der Klimakrise zu begegnen. Es mag überraschen, dass Sie annehmen, hier sei technischer Fortschritt nötig. Braucht es nicht eher politischen und individuellen Willen zur Veränderung?
Die Klimakrise ist offensichtlich ein politisches Problem in dem Sinne, dass Regierungen viel mehr tun könnten, um uns von fossilen Brennstoffen loszulösen. Würde der technische Fortschritt jetzt aber einfrieren und niemand mehr etwas erfinden, würden wir Emissionen aus fossilen Brennstoffen vielleicht auf ein Zehntel der heutigen Menge reduzieren können. Wir würden aber nicht auf Null oder in den Bereich negativer Emissionen kommen. Bei allem möglichen politischen und individuellen Willen würden wir langfristig trotzdem sämtliche fossile Ressourcen aufbrauchen und infolgedessen eine Erderhitzung von sieben Grad oder mehr herbeiführen – schließlich gibt es kein nachhaltiges Maß an CO2-Emissionen, CO2 bleibt in der Atmosphäre. Wir brauchen Innovationen, um ein Maß an Technisierung zu erreichen, das uns erlaubt, nachhaltig zu sein.
Sie sehen die Klimakrise als existenzielles Risiko, schreiben aber auch, die globale Klimabewegung hätte das schlimmste Szenario – einen völlig ungebremstem Klimakollaps – deutlich unwahrscheinlicher gemacht. Wenn Greta Thunberg Sie aber vor einigen Jahren gefragt hätte, was sie tun soll, hätten Sie ihr dann nicht davon abgeraten zu streiken und stattdessen empfohlen, die Schule abzuschließen und ein Wirtschaftsstudium aufzunehmen, um einen Beruf zu ergreifen, der ihr erlaubt, große Teile ihres Einkommens zu spenden?
Zum einen haben wir hier natürlich die berühmteste Aktivistin der Welt vor uns und es war sehr unwahrscheinlich, dass sie so berühmt werden würden. Zum anderen denke ich, dass Aktivismus eine gute Sache ist. Innerhalb des Effektiven Altruismus helfe ich einige junge Leute zu beraten, die einen aktivistischen Weg gewählt haben. Statistisch ist es unwahrscheinlich, dass sie so erfolgreich sein werden wie Greta Thunberg, aber ich denke ist eine Möglichkeit, positiv Einfluss zu nehmen.
Wenn Sie über zukünftige Menschen sprechen, verwenden Sie oft politisches Vokabular. Sie schreiben beispielsweise, zukünftige Menschen „haben keine Lobby“, „sind nicht in der Lage, ihren Interessen Gehör zu verschaffen“, ja „sind rechtlos“. Betrachten Sie Longtermism als eine soziale Bewegung, ähnlich der Bewegung zur Abschaffung der Sklaverei und der Frauenrechtsbewegung?
Ich verstehe den Effektiven Altruismus als eine soziale Bewegung und Longtermism als eine Idee darin. Es gibt eine Geschichte des moralischen Fortschritts vorangetrieben von Menschen – einschließlich derer in Machtpositionen –, die die Interessen entrechteter Gruppen ernst genommen haben. Ich denke, zukünftige Menschen bilden eine solche Gruppe. Und ich denke, dass diese Bewegung mit den moralischen Kampagnen der Vergangenheit zusammenhängt. Wenn es eine weitverbreitete Bewegung für die Interessen zukünftiger Menschen gäbe, wäre das großartig, genau das, was ich gerne in der Welt sehen würde. •
William MacAskill ist ein schottischer Philosoph und gilt als Begründer des Effektiven Altruismus. Er lehrt als außerordentlicher Professor an der Oxford University und leitet das Centre for Effective Altruism. Sein jüngstes Buch ist soeben auf Deutsch erschienen: „Was wir der Zukunft schulden“ (Siedler Verlag 2023).
Kommentare
Vielleicht wäre es gut, das (paraphrasiert) Versuchen des wahrscheinlich Besten für alle mit dem Versuchen von wahrscheinlich ausreichender Befreiung von sich und den eigenen Gruppen zu kombinieren, so dass mehr Menschen, die an beiden Aktivitäten Interesse haben, darauf aufmerksam werden.
Ich danke für den Artikel und die Möglichkeit, zu kommentieren.