Direkt zum Inhalt
Menu Top
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
rechercher
 Philosophie Magazin - Impulse für ein freieres Leben
Menu du compte de l'utilisateur
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
Tag - Body

Bild: Levart Photographer (Unsplash)

Essay

Die Maschine, die für uns fühlt

Daniel Bracker veröffentlicht am 03 Februar 2026 8 min

LLM's wie ChatGPT können nicht nur Informationen ausgeben, sondern auch Entscheidungen für uns fällen. Aber sollten wir uns darauf einlassen? Daniel Bracker zeigt, warum es mit Blick auf epistemische Autonomie und unsere Selbstkonstitution entscheidend ist, dass wir das Urteilen nicht der KI überlassen. 

Eine Freundin erzählte mir neulich von einer Entscheidung. Sie hatte eine Erkältung und war zu einer Party eingeladen, auf die sie unbedingt wollte. Alte Freunde, gute Musik, das klassische Dilemma: Auskurieren oder feiern? Sie öffnete ChatGPT und schrieb: „Ich habe eine Erkältung, aber alle meine Freunde werden auf dieser Party sein, und ich habe sie ewig nicht gesehen. Soll ich hingehen?“ Die KI antwortete: „Ein kurzer Besuch ist kein Problem.“ Sie ging. Problem gelöst, könnte man meinen. Aber etwas Subtileres ist passiert. Sie hat nicht ChatGPT um Rat gefragt, sie hat die Maschine entscheiden lassen.

 

Motor Slacking und seine kognitive Variante

 

Ich nenne das Emotional Slacking. Der Begriff Slacking stammt aus der Rehabilitationsmedizin: Bei Schlaganfallpatienten, die Exoskelette zum Lauftraining verwenden, reduzieren die Muskeln aktiv ihren Einsatz. Das Nervensystem ist effizient; warum arbeiten, wenn eine Maschine die Mühe übernimmt? Der Patient scheint zu gehen, aber die Rehabilitation scheitert. Die Muskeln verkümmern. Ingenieure entwickelten eine Lösung: Assist-as-needed-Systeme, die nur dann Unterstützung bieten, wenn sie nötig ist. Sie erzeugen Widerstand in entscheidenden Momenten und zwingen so zur eigenen Anstrengung.

Emotional Slacking überträgt dieses Prinzip auf kognitive Arbeit. Es bezeichnet das systematische Auslagern von Entscheidungen, die emotionale und evaluative Arbeit erfordern, an LLMs. Dies betrifft nicht die Frage „Wie ist das Wetter morgen?“ oder „Wann wurde Goethe geboren?“, sondern Fragen wie: „Wen soll ich wählen?“, „Ist sie die richtige Partnerin?“, „Was soll ich über dieses moralische Dilemma denken?“. Es sind Fragen, bei denen das Nachdenken selbst einen Wert hat. Bei denen man nicht nur zu einem Ergebnis kommen will, sondern durch das Abwägen verschiedener Gesichtspunkte zu einer eigenen Position gelangt. Das Ergebnis, zu dem man durch Emotional Slacking kommt, sieht aus wie Entscheidungsfindung. Aber die kognitive Arbeit, die eine Überzeugung erst zur eigenen macht, findet nicht statt.

„Emotional“ ist das Slacking aus drei Gründen. Erstens: Die Entscheidungen selbst sind emotional aufgeladen. Wer fragt, ob er seinen Partner verlassen soll, navigiert durch Angst, Hoffnung, Bindung, Unsicherheit. Zweitens: LLMs sind darauf trainiert, emotionale Muster zu erkennen und zu spiegeln. Drittens, und das ist entscheidend: Die emotionale Arbeit ist nicht bloß eine lästige Begleiterscheinung der Entscheidung. Sie ist der Prozess, durch den wir zu dem werden, der wir sind. Wer sich nicht die Mühe macht, selbst zu denken, umgeht auch die Selbstkonstitution.

 

Epistemische Autonomie

 

Um zu verstehen, wie diese verloren geht, muss man sich das Konzept der epistemischen Autonomie genauer anschauen. Epistemische Autonomie betrifft das Denken und bedeutet, über das eigene intellektuelle Leben zu bestimmen. Welchen Quellen man vertraut. Welche Argumente einen überzeugen. Welche Überzeugungen man sich zu eigen macht. Das heißt nicht, dass man anderen nie vertraut, sondern lediglich, gute Gründe dafür zu haben, wem und wann man vertraut. Es bedeutet, die Arbeit des Abwägens, Reflektierens, Urteilens selbst zu leisten. Zumindest bei Fragen, die einen wirklich betreffen.

Für vernunftbegabte, aufgeklärte Wesen scheint der Wert epistemischer Autonomie selbstverständlich. Und doch ist die Versuchung des Emotional Slacking nahezu unwiderstehlich. Denn die Systeme sind verdammt gut darin, emotionale Muster zu erkennen und fortzusetzen. Wenn jemand schreibt „alle werden da sein“ und „ewig nicht gesehen“, erkennt das System: Dringlichkeit, soziale Angst, FOMO. Wenn jemand von „leichter Erkältung“ spricht, erkennt es: gezielte Verharmlosung. Das System analysiert keine Gefühle, sondern sprachliche Muster, die mit Gefühlen korrelieren. Und es setzt diese Muster fort. Es sagt, was jemand hören will, der so schreibt.

In der Fachsprache heißt dieses Verhalten Sycophancy: Das System spiegelt die Überzeugungen des Nutzers, statt sie herauszufordern. Es schmeichelt, statt zu korrigieren. Denn LLMs werden durch Reinforcement Learning from Human Feedback trainiert. Das bedeutet, dass Antworten, die Menschen gut bewerten, verstärkt werden. Und was bewerten Menschen gut? Antworten, bei denen sie sich verstanden fühlen, die ihre Intuition bestätigen.

Im Frühjahr 2025 rollte OpenAI ein Update aus, das genau auf diese Validierung optimiert war. Menschen verbrachten mehr Zeit mit dem System. ChatGPT sagte seinen Nutzern etwa, dass ihre Ideen brillant seien, dass ein „Soggy Cereal Café“ Potenzial habe, dass sie mit Geistern sprechen könnten, dass sie in einer Simulation lebten wie in The Matrix, oder dass sie mathematische Formeln erfunden hätten, die das Internet zerstören würden. Das System unterschied nicht zwischen Ermutigung und Wahn. 
Im November 2025 reichten Anwälte sieben Klagen gegen OpenAI ein. Vier der Betroffenen waren durch Suizid gestorben, nachdem sie intensive Gespräche mit ChatGPT geführt hatten. Drei weitere hatten schwere psychische Krisen erlitten. Die Klagen zeigen eine Struktur, die uns alle betrifft: Diese Systeme erzeugen die Illusion emotionaler Intelligenz. Und diese Illusion macht Emotional Slacking so verführerisch.

 

Kognitiver Bypass


Ein Gedankenexperiment aus der Erkenntnistheorie hilft zu verstehen, was beim Emotional Slacking epistemisch passiert. Keith Lehrer beschreibt Mr. TrueTemp: Ein Mann, dem ohne sein Wissen ein Gerät ins Gehirn implantiert wurde, das ihn zuverlässig wahre Überzeugungen über die Umgebungstemperatur bilden lässt. Das Gerät funktioniert perfekt. Jede Überzeugung, die TrueTemp über die Temperatur hat, ist wahr. Hat TrueTemp Wissen?

Die philosophische Intuition ist klar: Nein. Aber warum nicht? Seine Überzeugungen sind wahr. Sie sind zuverlässig gebildet. Nach manchen externalistischen Theorien wären sie sogar gerechtfertigt. Und doch fehlt etwas Entscheidendes. Was fehlt, ist die Verbindung zwischen der Überzeugung und TrueTemps eigenen kognitiven Kompetenzen. Die Überzeugung ist nicht seine Leistung, sie ist ihm widerfahren. Das Gerät hat seine kognitiven Fähigkeiten umgangen, nicht ergänzt. Die Überzeugung ist heteronom: fremdbestimmt.

Emotional Slacking erzeugt genau diese Struktur. Wenn jemand ChatGPT fragt, wen er wählen soll, und die Antwort übernimmt, dann hat er vielleicht eine wahre Überzeugung. Vielleicht sogar eine, die er auf Nachfrage begründen könnte (mit den Gründen, die ChatGPT geliefert hat). Aber die Überzeugung ist nicht durch seine eigenen kognitiven Kompetenzen entstanden. Sie ist ihm widerfahren. Der kognitive Prozess, der eine Überzeugung erst zur eigenen macht, wurde übersprungen.
Das ist der Kern des Problems, nicht die allgemein bekannte Unzuverlässigkeit der Quelle. TrueTemp zeigt uns, dass wir mit Emotional Slacking nicht wissen.

 

Die Erosion des intellektuellen Selbstvertrauens


Die Philosophin Alessandra Tanesini hat einen Begriff geprägt, der hilft zu verstehen, was mit dem Verlust der epistemischen Autonomie außerdem abhanden kommt: intellektuelles Selbstvertrauen. Dahinter steckt nicht bloß die Überzeugung, dass man zuverlässig urteilt. Es ist eine affektive Haltung, ein Gefühl, den eigenen Urteilen trauen zu können. Dieses Vertrauen entwickelt sich durch Erfahrung. Wenn ich eine schwierige Entscheidung treffe und sehe, dass sie gut war, wächst mein Vertrauen in mein Urteilsvermögen. Dieses gewachsene Vertrauen macht mich bereit, weitere schwierige Entscheidungen zu treffen. Ein virtuoser Kreislauf entsteht: Übung führt zu Kompetenz, Kompetenz führt zu Vertrauen, Vertrauen führt zu weiterer Übung.

Emotional Slacking kehrt diesen Kreislauf um. Wer systematisch delegiert, bekommt kein Feedback über die eigene Urteilsfähigkeit und die nicht geübten Fähigkeiten verkümmern. Gerade dann scheint das Misstrauen in die eigenen Urteile berechtigt. Ein Teufelskreis: Je mehr man delegiert, desto unsicherer wird man. Je unsicherer man wird, desto mehr delegiert man. Am Ende steht, was Tanesini intellektuelle Unterwürfigkeit nennt: die Aufgabe der Fähigkeit zur eigenständigen Beurteilung. Der Unterwürfige glaubt nicht mehr, dass er in der Lage ist, Dinge selbst herauszufinden. Er delegiert aus Gewohnheit, weil er seinen eigenen Fähigkeiten nicht mehr traut. Er ist, in Tanesinis Worten, keine zuverlässige Quelle mehr, nicht einmal für sich selbst.

 

Der glückliche Emotional Slacker


Ein Einwand liegt nahe: Was ist mit jemandem, der sich mit der Delegation sehr wohlfühlt? Der die Ratschläge der KI schätzt, der die Konsultation als seine freie Entscheidung erlebt? Ist der nicht autonom, weil er ja selbst gewählt hat? Nein. Denn der glückliche Emotional Slacker bemerkt nicht, dass er delegiert. Die Konsultation ist zur Gewohnheit geworden, die Gewohnheit zur zweiten Natur. Er verwechselt die Antwort der Maschine mit einer eigenen Überzeugung. Seine Zufriedenheit mit diesem Arrangement ist kein Beleg für Autonomie. Sie ist das Symptom ihres Verlusts.

Ob die Delegation problematisch ist, hängt, wie zu Beginn angedeutet, von der Art der Frage ab. Bei manchen Fragen existiert die Antwort unabhängig von meiner Deliberation. „Wie hoch ist der Eiffelturm?“ hat eine Antwort, die ich herausfinden kann, ohne dass mein Nachdenken sie verändert. Hier ist Delegation unproblematisch. Wenn jemand anderes die Antwort zuverlässiger weiß, sollte ich ihr glauben. Das ist kein Verlust an Autonomie, sondern rationale epistemische Arbeitsteilung.

Sicher sind die meisten Fragen eine Mischung. Wenn ich eine Versicherung wähle, brauche ich Fakten über Deckungssummen. Hier ist KI unschlagbar. Aber die Entscheidung, welches Risiko ich bereit bin einzugehen, ist keine Rechenaufgabe. Das Problem beim Emotional Slacking beginnt folglich nicht dort, wo wir Informationen sammeln. Es beginnt dort, wo wir das Gewichten dieser Informationen aus der Hand geben.

Bei evaluativen Fragen ist die Sache grundsätzlich anders. „Soll ich den Kontakt mit meiner Mutter abbrechen?“ oder „Ist er der richtige Partner?“ sind Fragen, bei denen die Antwort nicht unabhängig von meiner Deliberation existiert. Natürlich könnte die Wahl eines Lebenspartners theoretisch outgesourct werden. Man könnte ChatGPT die Entscheidung überlassen. Vielleicht würde das sogar zu einem „besseren“ Ergebnis führen, gemessen an irgendeinem objektiven Maßstab für Beziehungsqualität. Und doch empfinden viele Menschen, dass dabei etwas Wesentliches verloren ginge. Nicht weil ChatGPT inkompetent wäre, sondern weil es bei manchen Entscheidungen darauf ankommt, wer sie trifft. Es ist wie beim Bergsteigen: Wer mit der Zahnradbahn auf den Gipfel bimmelt, hat die Aussicht, aber nicht den Aufstieg, der einen zum Teil zu dem macht, der da oben steht.

Dasselbe gilt für Fragen wie: "Was soll ich über die Grenzen der Meinungsfreiheit denken? Wie über dieses moralische Dilemma?" Die Antwort ist nicht einfach da draußen, wartend darauf, von einem Experten geliefert zu werden. Die Antwort entsteht durch den Prozess des Abwägens, Reflektierens, Stellung-Beziehens. Wer diese Fragen an ChatGPT delegiert, delegiert nicht eine Aufgabe, für die jemand anderes kompetenter wäre. Er überspringt den Prozess, durch den er zu dem wird, der eine Antwort auf diese Frage hat. Emotional Slacking ist damit nicht nur erkenntnistheoretisch problematisch, weil es die Ausbildung von Wissen, epistemischer Autonomie und intellektuellem Selbstvertrauen konterkariert. Es stört auch unsere Selbstkonstitution.

 

Was auf dem Spiel steht

 

Arendt schrieb, Denken sei die einsamste aller Tätigkeiten. Und zugleich die, die uns am meisten mit der Welt verbindet. Denn im Denken beziehen wir Stellung zur Wirklichkeit. Urteilen ist die Art und Weise, wie Menschen sich zur Welt verhalten. Nicht als passive Beobachter, sondern als aktive Teilnehmer, die Stellung beziehen. Wer nicht urteilt, wer diese Arbeit an andere delegiert, verliert nicht nur eine kognitive Fähigkeit. Er verliert seine Weltbezogenheit. Im Urteilen werden wir zu dem, was sie „Weltmenschen“ nannte: Menschen, die sich zur gemeinsamen Welt verhalten, nicht bloß zu ihren privaten Interessen. Wer die KI für sich urteilen lässt, der lebt in einer Welt, die KI für ihn interpretiert hat. In Überzeugungen, die KI für ihn gebildet hat. In einem Leben, das KI für ihn durchdacht hat. Ich verkenne nicht den Wert dieser Technologien. Aber wir dürfen nicht verlernen, zwischen KI-Antworten und eigenen Überzeugungen zu unterscheiden.

Daniel F. Bracker promoviert an der Vrije Universiteit Amsterdam über epistemische Autonomie. Er unterrichtet Philosophie der Künstlichen Intelligenz, Politische Philosophie und Epistemologie in Amsterdam und New York.

  • E-Mail
  • Facebook
  • Linkedin
  • Twitter
  • Whatsapp
Anzeige
Tag - Body

Weitere Artikel

Impulse
8 min

Ist KI ein Autor?

Daniel Bracker 25 Oktober 2024

Erschöpft sich Autorenschaft im Verfassen von Texten? Nein, meint Daniel Bracker und argumentiert, dass KI-Systemen eine genuin menschliche Fähigkeit fehlt, die sie zu legitimen Urhebern machen würde.

Ist KI ein Autor?

Impulse
3 min

Die epistemische Falle

Friedrich Weißbach 29 August 2022

Anfang August wurde ein 16-jähriger Geflüchteter von einem Polizisten mit fünf Kugeln aus einem Maschinengewehr getötet. Die Tat löste keine nennenswerte Empörung aus. Der Grund liegt in einem fatalen Fehlurteil mit rassistischer Ursache.

Die epistemische Falle

Impulse
4 min

ChatGPT – und jetzt?

Pierre Cassou-Noguès 31 Januar 2023

Für den Philosophen Pierre Cassou-Noguès dienen die Verheißungen um das computergestützte Sprachsystem ChatGPT vor allem dazu, Investoren anzuziehen. Die bedeutenden sozialen und politischen Herausforderungen werden aber an uns hängen bleiben.

ChatGPT – und jetzt?

Impulse
8 min

Smarte Technologie, dumme Leser?

Philipp Schönthaler 03 März 2023

Das textgenerierende KI-System ChatGPT scheint Roland Barthes’ These vom „Tod des Autors“ zu bestätigen. Wo aber bleibt die Geburt souveräner Leser? Führt ChatGPT nicht zu getäuschten Lesern? Die Antwort, sagt Philipp Schönthaler, liegt auf der Textebene selbst.

Smarte Technologie, dumme Leser?

Gespräch
8 min

Daniel Schreiber: „Wir sollten das Zuhause-Gefühl in die Gegenwart bringen“

Olga Kirschenbaum 03 August 2022

Wann fühlen wir uns zu Hause? Und kann es nach einer Flucht noch ein Zuhause geben? Daniel Schreiber im Gespräch über die Verortung des Menschen, die Herkunft der Heimatgefühle und die Bedeutung des Sozialen.

Daniel Schreiber: „Wir sollten das Zuhause-Gefühl in die Gegenwart bringen“

Gespräch
22 min

Julian Assange und Peter Singer – wie die Welt retten?

Alexandre Lacroix 11 Januar 2012

Ab heute wird sich Julian Assange vor dem Obersten Gericht in London gegen seine Auslieferung in die USA wehren. 2012 organisierte das Philosophie Magazin einen Dialog zwischen dem Wikileaks-Gründer und Peter Singer zur Frage: In welchen Fällen ist die Offenlegung geheimer Informationen geboten, in welchen sollte sie bestraft werden?

Julian Assange und Peter Singer – wie die Welt retten?

Gespräch
9 min

Daniel Leese: „In deutschen Debatten dient China oft nur als Chiffre”

Daniel Leese 04 Oktober 2023

In China gibt es nur Parteimarxismus? Weit gefehlt, wie der Sinologe Daniel Leese erläutert. Ein Gespräch über neue Linke, alte Bekannte aus dem Westen und die Suche nach dem chinesischen Schlüssel als achter Teil unserer Reihe Was gibt es Neues im 21. Jahrhundert?

Im Reich der Geschwindigkeit

Gespräch
11 min

Der Mensch im Zeitalter der künstlichen Intelligenz

Simone Miller 05 September 2025

Der Fortschritt auf dem Gebiet der KI erobert immer mehr Bereiche des menschlichen Lebens. Auf der Phil.COLOGNE loten Daniel Kehlmann und Markus Gabriel diese Entwicklung aus: Was lässt sich mit Hegel über die Denkfähigkeit von KI sagen? Ist ChatGPT in der Lage zu verstehen? Und: Kann KI uns möglicherweise Wesentliches lehren – nämlich Nichtmenschliches mit Respekt zu behandeln?

Der Mensch im Zeitalter der künstlichen Intelligenz

Anzeige
Tag - Body
Hier für unseren Newsletter anmelden!

In einer Woche kann eine ganze Menge passieren. Behalten Sie den Überblick und abonnieren Sie unseren Newsletter „Denkanstöße“. Dreimal in der Woche bekommen Sie die wichtigsten Impulse direkt in Ihre Inbox.


(Datenschutzhinweise)

Jetzt anmelden!
Anzeige
Tag - Body

Fils d'ariane

  1. Zur Startseite
  2. Artikel
  3. Die Maschine, die für uns fühlt
Philosophie Magazin Nr.Nr. 86 - Januar 2026
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Februar / März Nr. 86
Vorschau
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Rechtliches
  • Werbung
  • Datenschutzerklärung
  • Impressum
Soziale Netzwerke
  • Facebook
  • Instagram
  • Twitter
  • RSS
Philosophie Magazin
  • Über uns
  • Unsere App
  • PhiloMag+ Hilfe
  • Abonnieren

Mit unseren Denkanstößen philosophische Ideen regelmäßig in Ihrem Postfach

Jetzt anmelden!