Direkt zum Inhalt
Menu Top
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
rechercher
 Philosophie Magazin - Impulse für ein freieres Leben
Menu du compte de l'utilisateur
    loginAnmelden shopping_basketHefte kaufen assignment_addAbonnieren
Navigation principale
  • Startseite
  • Impulse
  • Essays
  • Philo.live!
  • Gespräche
  • Hefte
  • Sonderausgaben
  • Philosophen
  • Begriffslexikon
  • Bücher
  • Kulturanzeiger
Tag - Body

Bild: Steve Johnson (Unsplash)

Essay

ChatGPT, wie kann man sprechen ohne zu denken?

Dorothea Winter veröffentlicht am 14 Oktober 2025 7 min

Chatbots scheinen uns zu verstehen, selbst wenn wir sie mit unausgegorenen Halbsätzen füttern. Doch was braucht es eigentlich für sprachliches Verstehen und wie funktioniert ein Chatbot wirklich? Ein Blick in die Semantik.
 

Wir leben in einer Welt, in der alles vorhersehbar ist. Dank GPS-Tracker kann ich metergenau mitverfolgen, wo sich mein Amazon-Paket befindet, auf meiner Garmin-Watch kann ich ablesen, wie gut ich geschlafen habe und das Regenradar auf meinem Tablet zeigt mir an, aus welcher Richtung der nächste Schauer droht. Trotzdem gibt es sie noch, diese magischen Momente: Ich stelle ChatGPT eine Frage, die im Grunde eher eine vage Ahnung, darstellt, grob in eine bestimmte Richtung zielt, ohne zu wissen, was ich eigentlich wissen will. Sekunden später die Antwort – klar gegliedert, sprachlich elegant formuliert und zu allem Überfluss mit scheinbar exakten Quellenangaben versehen: Die perfekte Antwort auf eine Frage, die ich so gar nicht gestellt habe. Wie schafft es ChatGPT, meine Gedanken zu erahnen und so akkurat niederzuschreiben? Mich beschleicht ein Gefühl: Die Maschine versteht mich. Aber was heißt eigentlich verstehen? Diese Frage stellen sich Philosophen schon so lange, dass sie zur Grundlage eines Zweigs der Philosophie geworden ist, der Semantik.

 

Was Philosophen unter Semantik verstehen – und warum Informatiker etwas anderes meinen

 

Das Wort Semantik leitet sich vom griechischen sēmantikós („bedeutungsvoll, kennzeichnend“) und sēma („Zeichen“) ab und meint in der Philosophie allgemein die Theorie der Bedeutung: Sie untersucht, wie (sprachliche) Zeichen, etwa Wörter, Sätze, etwas bezeichnen und auf Dinge oder Sachverhalte in der Welt verweisen. So versteht Aristoteles etwa die Sprache als Mittel, um das Denken auf Gegenstände der Welt zu beziehen. Das Wort „Apfel“ fungiert in diesem Sinne als Mittler oder Verbindendes zwischen dem Denkobjekt, dem Begriff „Apfel“, und dem vor mir auf dem Tisch liegenden Realobjekt, dem physischen Apfel. 

Gottlob Frege geht im ausgehenden 19. Jahrhundert dezidierter auf den Unterschied zwischen Sinn und Bedeutung ein: Ein sprachlicher Ausdruck verweist nicht nur auf ein Objekt, sondern trägt auch einen Sinngehalt, der über die bloße Referenz hinausgeht. Ludwig Wittgenstein radikalisiert im frühen 20. Jahrhundert diese Perspektive, indem er aufzeigt, dass sich Bedeutung nicht aus dem Denken ergibt, sondern aus den „Sprachspielen“ sozialer Praxis: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ Darauf baut die Semantik-Diskussion auf, die sich in der späten zweiten Hälfte des 20. Jahrhunderts vor allem im angelsächsischen Sprachraum entfaltet hat. Donald Davidson etwa postuliert, dass Bedeutung nur im Netz wechselseitiger Interpretation entsteht, wohingegen Wilfrid Sellars und Robert Brandom die normative Dimension von Sprache hervorheben: „Sprachverständnis“ basiert für sie auf einem Geflecht von Gründen, Rechtfertigungen und Verpflichtungen. 

Julian Nida-Rümelin schließlich hebt hervor, dass Sprachgebrauch untrennbar mit personaler Autorschaft verbunden ist. Es muss immer einen „Jemanden“ als Sprechenden geben, der Sinn und Bedeutung von Sprache setzt; Zeichensysteme können aus sich heraus keine Bedeutung schaffen. Gemeinsam ist diesen Ansätzen: Sprache hat Bedeutung, weil Sprechende etwas meinen, wobei dieses Meinen stets als ein Gerichtetsein verstanden werden muss: Wer „Apfel“ sagt, zielt sprachlich auf den Apfel und nicht auf die Banane vor sich. Gleichzeitig muss diesem Meinen ein Verstehen gegenübertreten, das mit diesem Meinen korreliert. Nur wenn Gemeintes und Verstandenes – im Sender-Empfänger-Modell: Gesendetes und Empfangenes – übereinstimmen, gelingt sprachliche Kommunikation. Dieses Gelingen resultiert letztlich daraus, dass bei den Kommunizierenden ein im Idealfall identischer im Normalfall größtenteils kongruenter semantischer Gehalt gegeben ist: Wenn ich „Apfel“ sage und du Apfel verstehst, ist dieser semantische Austausch geglückt. 

Wenn hingegen die Informatiker von „Semantik“ sprechen, meinen sie etwas anderes als die Philosophen. In der Computerwissenschaft bezieht sich Semantik zunächst auf die Bedeutung von Programmen: Jedes Programm hat eine Syntax, also Regeln, die bestimmen, wie es korrekt geschrieben wird, und eine Semantik, die festlegt, was bei der Ausführung passiert. In diesem Sinn wird Semantik streng formalisiert verstanden – es geht darum, die Zeichenvorgaben als eindeutige Rechenvorschriften zu definieren. Darauf basiert auch die sogenannte „semantische KI“. Gemeint sind Systeme, die nicht nur simple Zeichenketten verarbeiten, sondern Relationen und Bedeutungsnetze zwischen Datenpunkten modellieren. Beispiele sind sogenannte Wissensgraphen, in denen Begriffe wie „Paris“, „Frankreich“ oder „Hauptstadt“ miteinander verknüpft sind. Eine semantische Suchmaschine kann dadurch nicht nur eine Zeichenfolge erkennen, sondern auch auf die Beziehung schließen: Paris ist die Hauptstadt von Frankreich.

Hier von „Semantik“ zu sprechen, ist aus philosophischer Sicht falsch: KI-Systeme erkennen keine Bedeutung im menschlichen Sinn, sondern berechnen statistische Korrelationen oder formale Relationen. Tatsächlich bleibt diese Form der Zuordnungen auf die erste Ebene, die Syntax, beschränkt: Zeichen werden anderen Zeichen nach festen Regeln formal richtig zugeordnet. Die zweite Ebene – die Semantik, die intentional auf die Welt gerichtete Bedeutungsdimension – können KI-Systeme aufgrund ihrer auf syntaktische Zuordnung begrenzten Programmierung nicht erreichen. Anders formuliert: Informatik arbeitet mit Syntax, der formalen Zuordnungen von Zeichen. Philosophie fragt nach Semantik, also jener Bedeutung, die intentional auf die Welt gerichtet bleibt. Genau dieser zweite Aspekt ist KI-Systemen prinzipiell verschlossen.

 

ChatGPT versteht mich nicht


Trotzdem scheinen KI-Systeme wie ChatGPT ihre Nutzenden zu verstehen. Wie kommt es dazu? Zur Erklärung lohnt ein Blick darauf, wie diese Systeme funktionieren. Ein Large Language Model (LLM) wie ChatGPT ist im Grunde nichts weiter als eine riesige Ansammlung von Wahrscheinlichkeiten – genauer: wahrscheinlichen Wortkombinationen. Sein Prinzip ist simpel: Es wird mit Abermillionen Wortkombinationen trainiert und berechnet dann, welches Wort mit welcher Wahrscheinlichkeit auf ein anderes folgt. Die Worte mit der höchsten Wahrscheinlichkeit werden dann miteinander kombiniert. Wenn also millionenfach die Kombination „Hund“ und „bester Freund des Menschen“ eingespeist worden ist, wird das System diese Kombination als die wahrscheinlichste identifizieren. Die Frage, wer der beste Freund des Menschen sei, beantwortet das KI-System prompt mit „Hund“. 

Die den aktuellen KI-Systemen zugrundeliegende Transformer-Architektur kann auch weit auseinanderliegende Wörter im Satz in Beziehung setzen. Dadurch wirkt der Output erstaunlich kohärent. Doch nirgendwo im System gibt es ein „Verstehen“. Selbst Pronomen wie „der“ oder „jene“ werden nicht auf Basis semantischer Einsicht zugeordnet, sondern über Wahrscheinlichkeiten: In den Trainingsdaten taucht „jene Frau … sie“ in einer bestimmten Konstellation häufig auf – also wird diese Fortsetzung gewählt. Dass diese KI-Systeme in der Praxis so erstaunlich gut funktionieren, liegt an gigantischen Parameterzahlen (Das Sprachmodell GPT-3 nutzt 175 Milliarden Parameter, um Sätze und Wortgruppen zu bilden). Sie sind wie Regler, die während des Trainings so angepasst werden, dass das Modell Texte plausibel fortsetzt. Anschließend verfeinert menschliches Feedback das Ganze – man spricht von „Reinforcement Learning from Human Feedback“ (RLHF). Das Ergebnis: Das KI-System imitiert semantisches Verstehen perfekt, ohne es je zu besitzen.

Dass dieses „Verstehen“ des KI-Systems nur Schein ist, demonstrieren deren Fehlleistungen. Eine der gravierendsten sind die sogenannten „Halluzinationen“. Es kommt vor, dass KI-Systeme wie ChatGPT Informationen liefern, etwa historische Daten, Biografien oder Ereignisse nennen, die als Antwort gut in den Kontext passen, jedoch sachlich falsch sind. So werden beispielsweise Bücher und Artikel zitiert, die nie existiert haben – samt präzise erscheinenden Verlagsangaben. Eine weitere Fehlleistung von KI-Systemen, die deren Unverständnis demonstriert, resultiert aus mehrdeutigen Formulierungen. Dazu ein Beispiel: Aus dem Satz „Yasmine zeigt Sofia das Foto ihrer Schwester“ ergeben sich vier grammatikalisch korrekte Lesarten: Das Foto bildet entweder Yasmines oder Sofias Schwester ab. Oder, das Foto gehört entweder Yasmines oder Sofias Schwester. Menschen lösen diese Mehrdeutigkeit über den Kontext des Satzes und ihre empirischen Erfahrungen. KI-Systeme hingegen gehen statistisch vor. Die in den Trainingsdaten am häufigsten auftretende Lesart wird als Antwort ausgegeben. Manchmal liegt das System richtig, manchmal völlig daneben. Die Folge: KI-Systeme produzieren Texte, die syntaktisch glänzen, aber semantisch leer bleiben – oder sogar falsch sind. Diese fehlende empirische semantische Einbettung zeigt sich vermehrt dann, wenn sprachliche Ironie, Metaphern oder regional geprägter Sprachgebrauch im Spiel sind.

 

Wir glauben, weil wir glauben wollen


Warum glauben wir trotzdem, dass uns KI-Systeme verstehen, quasi menschlich mit uns kommunizieren? Die Antwort hat zwei Seiten: Zum einen, weil die Programmierer dieser Systeme großen Aufwand betreiben, sie menschenähnlich wirken zu lassen. Zum anderen, weil wir es wollen! Die Kurzfassung nennt man anthropomorphen Fehlschluss. Damit ist gemeint, dass wir Menschen als soziale Wesen gelernt haben, all das als menschlich zu identifizieren, was irgendwo menschenähnlich ist. Deshalb „beseelen“ wir Artefakte und sehen etwa einen „Mann im Mond“ oder sprechen von einer „lachenden“ Sonne. Diese Anthropomorphisierung von Gegenständen hat sich auch auf KI-Systeme übertragen, denen wir teilweise menschliche Eigenschaften zusprechen: Wir sagen, die KI entscheidet, weiß, empfiehlt, lügt oder hört zu. Solche Formulierungen schleusen semantische Kompetenzen durch die Hintertür in unser Alltagsdenken ein und verwischen den kategorialen Unterschied zwischen Bedeutungsberechnung und Bedeutungsverstehen.

Die Folge davon ist, dass wir KI-Systeme aufgrund unserer sozialen Entwicklungsgeschichte vermenschlichen. Ohne uns dessen bewusst zu werden, behandeln wir diese Systeme wie ein menschliches Gegenüber. Dadurch werden diese KI-Systeme nicht länger als Informationslieferanten gedeutet, sondern empathisch überfrachtet – es kommt zum Pygmalion-Effekt und wir erleben Bits & Bytes als digitale Galatea. Man könnte nun einwenden: Ist das überhaupt wichtig? Wenn KI-Systeme alle gewünschten Informationen liefern, dann stört es doch nicht, wenn ich sie darüber hinaus noch sympathisch, menschlich, umgänglich etc. finde. Doch gerade darin liegt die Gefahr. Wir riskieren, einprogrammierte scheinbare Empathie für ein echtes Gefühl zu halten und die Illusion des Verstehens mit echtem Verstehen zu verwechseln. Wenn mich also das Gefühl beschleicht, dass die Maschine mich versteht, dann sollte das ein Aufruf zur Wachsamkeit sein: Das KI-System kann mich nicht verstehen – aber ich das KI-System durchschauen. •

 

Dorothea Winter promoviert an der Humboldt Universität zu Intentionalität und Künstliche Intelligenz und ist wissenschaftliche Mitarbeiterin im Bereich Angewandte Ethik an der Humanistischen Hochschule Berlin. Sie war u. a. an der Berlin-Brandenburgischen Akademie der Wissenschaften und dem Deutschen Forschungsinstitut für Künstliche Intelligenz tätig. 

  • E-Mail
  • Facebook
  • Linkedin
  • Twitter
  • Whatsapp
Anzeige
Tag - Body

Weitere Artikel

Artikel
9 min

Küss mich, KI!

Antonia Siebeck 07 September 2023

Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung, Chatbots versprechen emotionale Nähe, quasi auf Knopfdruck. Kann die KI uns dadurch bieten, was wir sonst so schmerzlich vermissen – etwas mehr Leichtigkeit bei der Suche nach Intimität?

Küss mich, KI!

Impulse
4 min

LaMDA – von Chatbots und Engeln

Stefan Lorenz Sorgner 21 Juni 2022

Der Google-Mitarbeiter Blake Lemoine behauptete jüngst, dass eine künstliche Intelligenz ein Bewusstsein entwickelt hätte. Möglich, meint der Philosoph Stefan Lorenz Sorgner, im Hinblick auf neue Technologien aber nicht die entscheidende Frage.

LaMDA – von Chatbots und Engeln

Gespräch
8 min

Eva Weber-Guskar: „Chatbots können zu einer Vermischung von Fiktion und Realität führen“

Antonia Siebeck 21 August 2024

Künstliche Intelligenz erhält Einzug in unsere Gefühlswelt. Dabei stellen sich nicht nur technische, sondern auch moralische wie gefühlstheoretische Fragen. Mit ihrem neuen Buch stellt die Philosophin Eva Weber-Guskar die Frage: Welche Zukunft wollen wir?

Eva Weber-Guskar: „Chatbots können zu einer Vermischung von Fiktion und Realität führen“

Gespräch
11 min

KI: Zwischen Verheißung und Verhängnis

Florian Chefai und Jannis Puhlmann 24 Juli 2025

KI-Revolution oder allgemeine Ernüchterung? Die befreundeten Philosophen Florian Chefai und Jannis Puhlmann streiten über Potenzial und Grenzen der Künstlichen Intelligenz – von kreativen Durchbrüchen über psychosefördernde Chatbots bis hin zu synthetischem Bewusstsein. Ein Dialog.

KI: Zwischen Verheißung und Verhängnis

Impulse
8 min

Smarte Technologie, dumme Leser?

Philipp Schönthaler 03 März 2023

Das textgenerierende KI-System ChatGPT scheint Roland Barthes’ These vom „Tod des Autors“ zu bestätigen. Wo aber bleibt die Geburt souveräner Leser? Führt ChatGPT nicht zu getäuschten Lesern? Die Antwort, sagt Philipp Schönthaler, liegt auf der Textebene selbst.

Smarte Technologie, dumme Leser?

Impulse
4 min

ChatGPT – und jetzt?

Pierre Cassou-Noguès 31 Januar 2023

Für den Philosophen Pierre Cassou-Noguès dienen die Verheißungen um das computergestützte Sprachsystem ChatGPT vor allem dazu, Investoren anzuziehen. Die bedeutenden sozialen und politischen Herausforderungen werden aber an uns hängen bleiben.

ChatGPT – und jetzt?

Essay
12 min

Sprachliche „Spezialoperationen“

Matthias Kiesselbach 20 Mai 2022

Die Liste der vom Kreml verbreiteten Unwahrheiten wird von Tag zu Tag länger. Doch handelt es sich dabei um bloße Lügen? Nein, meint der Philosoph Matthias Kiesselbach und bietet mit Rationalisierung, Trollen und gezielter Bedeutungsverschiebung drei andere Perspektiven an.

Sprachliche „Spezialoperationen“

Impulse
4 min

Gaslighting: Die Verdunkelung der Seele

Clara Degiovanni 16 Juni 2021

Gaslighting gehört zu den weitverbreitetsten und gefährlichsten Formen der zwischenmenschlichen Manipulation. Um zu verstehen, wie es funktioniert und wie man sich dagegen wehren kann, hilft ein Blick in das Werk Michel Foucaults.

Gaslighting: Die Verdunkelung der Seele

Anzeige
Tag - Body
Hier für unseren Newsletter anmelden!

In einer Woche kann eine ganze Menge passieren. Behalten Sie den Überblick und abonnieren Sie unseren Newsletter „Denkanstöße“. Dreimal in der Woche bekommen Sie die wichtigsten Impulse direkt in Ihre Inbox.


(Datenschutzhinweise)

Jetzt anmelden!
Anzeige
Tag - Body

Fils d'ariane

  1. Zur Startseite
  2. Artikel
  3. ChatGPT, wie kann man sprechen ohne zu denken?
Philosophie Magazin Nr.Sonderausgabe 34 - September 2025
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Herbst 2025 Sonderausgabe 34
Vorschau
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Rechtliches
  • Werbung
  • Datenschutzerklärung
  • Impressum
Soziale Netzwerke
  • Facebook
  • Instagram
  • Twitter
  • RSS
Philosophie Magazin
  • Über uns
  • Unsere App
  • PhiloMag+ Hilfe
  • Abonnieren

Mit unseren Denkanstößen philosophische Ideen regelmäßig in Ihrem Postfach

Jetzt anmelden!