Digitale Amnesie
In der digitalen Gesellschaft geht immer mehr Wissen verloren. KI könnte das Problem verschärfen und zu einem „Wissenskollaps“ führen, warnen Forscher.
Als am 21. Juli 1969 der US-Astronaut Neil Armstrong als erster Mensch den Mond betrat, saßen 650 Millionen Menschen gebannt vor dem Fernseher. Die Mondlandung war das erste große TV-Ereignis der Geschichte. Jeder, der den Moment live miterlebte, kann sich an das Ereignis erinnern. Doch die historischen Originalaufnahmen sind verschwunden – wie die NASA einräumen musste, sind die Bänder irgendwann gelöscht bzw. überspielt worden. Die NASA brauchte Speicherplatz für Satellitenbilder. 35 Jahre blieb der Datenverlust unbemerkt, bis ein australischer Archivar die NASA auf das Problem aufmerksam machte. Dann begann eine jahrelange Suchaktion, die allerdings zu keinem Ergebnis führte. Zwar konnten einige TV-Aufnahmen digital restauriert werden. Doch das Original ist verschwunden. Eine technische Panne, die die Verschwörungstheorien um die Mondlandung weiter anheizte.
Der Fall macht deutlich, wie Wissen verloren gehen kann. Auch das Know-how einer Mondmission ist in Teilen verloren gegangen. Zwar existieren noch Baupläne der Raumfahrzeuge. Doch wie die Dinge tatsächlich gebaut wurden, steht in keinem Lehrbuch. Die mathematischen Rechnungen und Codes wurden auf Papier geschrieben, die Kabelbäume im Kommandomodul manuell verdrahtet. Die Ingenieure, die dieses Fertigungswissen im Kopf haben, sind entweder in Rente oder schon tot, und die Firmen, die die Bauteile produzierten, existieren teilweise nicht mehr. Die NASA musste mangels eigener Ausstattung zeitweise sogar auf russische Sojus-Kapseln und damit auf die Technik des Systemrivalen zurückgreifen, um ihre Astronauten ins All schicken zu können.
Organisationales Vergessen
Für dieses „organisationale Vergessen“ (organizational forgetting) haben Ökonomen empirische Evidenz in einer Reihe von Sektoren identifiziert, etwa beim Schiffs- und Flugzeugbau, bei der Ölförderung sowie bei Pizza-Franchises. So hat der US-Ökonom C. Lanier Benkard am Beispiel des Passagierflugzeugs Lockheed L-1011 aufgezeigt, dass durch Produktionspausen und Personalfluktuation Wissen verloren geht: Erfahrene Mitarbeiter gehen, neue müssen eingelernt werden, hinzu kommen neue technische Standards und Gesetze. Nach einem Jahr ist nur noch rund 60 Prozent der Erfahrung vorhanden. Im schnelllebigen Geschäft von Pizza-Lieferdiensten sind die Verfallsraten von Wissen sogar noch dramatischer: Dort geht schon nach einem Monat fast die Hälfte des Erfahrungsschatzes (47 Prozent) verloren; übers Jahr gerechnet bleibt nur noch fünf Prozent übrig. Das zeigt: Wissen ist an Menschen und Routinen gebunden. Die Befunde widersprechen der Hypothese, wonach Organisationen bei steigender Stückzahl automatisch dazulernen. Das Gegenteil ist der Fall: Nicht nur Menschen, sondern auch Organisationen vergessen.
In der Geschichte der Menschheit ist immer wieder wertvolles Wissen abhanden gekommen – zum Beispiel die Rezeptur des „römischen Betons“: Mit dem besonders widerstandsfähigen Baustoff wurde unter anderem das Kolosseum in Rom gebaut. Auch das antike Wissen über die Wirkung von Heilpflanzen ist in Teilen verloren gegangen. Und das Internet hat erstaunlich viel von sich und seiner Geschichte vergessen: Die erste Webseite, die der Physiker Tim Berners-Lee 1991 online stellte? Verschollen! Der erste Wikipedia-Eintrag? Verflüchtigt in den virtuellen Weiten des World Wide Web! MySpace-Profile? Unwiederbringlich durch eine Servermigration verloren! Manche (Kultur-)Techniken geraten auch in Vergessenheit, weil sie durch neue Techniken ersetzt werden. Wie man Lochkarten stanzt und einen Analog-Computer füttert, muss heute niemand mehr wissen.
Verbergen, Vernichten, Verwerfen
Der Historiker Peter Burke differenziert zwischen drei Arten des Wissensverlustes: dem Verbergen, der Vernichtung und dem Verwerfen. Wissen wird zum Beispiel aus politischen oder wirtschaftlichen Motiven verborgen, weil Informationen als Geschäftsgeheimnis oder „Verschlusssachen“ gelten. Schon die mittelalterlichen Handwerkszünfte (auf Lateinisch „misteria“), notiert Burke, hätten ihre Spezialkenntnisse als „Mysterien“ behandelt. In der frühen Neuzeit wurden Landkarten geheim gehalten, und auch die Statistiken, die Regierungen im 18. Jahrhundert erhoben, waren anfangs Staatsgeheimisse. Wissen kann auch vernichtet werden, unfreiwillig, wie etwa beim Brand der Bibliothek von Alexandria (um 48 v. Chr.), aber auch absichtsvoll, wie etwa die Stasi-Akten, die kurz vor dem Untergang der DDR geschreddert wurden oder die Webseiten, die die US-Regierung in ihrem ideologischen Anti-Woke-Furor gelöscht hat. Und schließlich kann Wissen auch verworfen werden, weil es als überholt gilt oder falsifiziert wurde. Die krude kriminalistische Theorie von Cesare Lombroso, die von der Vorstellung des „geborenen Kriminellen“ ausging, wurde aus guten Gründen wieder verworfen und auf den „Müllhaufen der Geschichte“ gepackt. Doch in Zeiten, in denen Wissen von KI-Systemen aggregiert und organisiert wird, stellt sich die Frage, wie Informationen bewahrt und an kommende Generationen weitergetragen werden.
Techniken der Rekombinatorik, auf denen große Sprachmodelle (LLMs) wie ChatGPT basieren, produzieren ja kein neues Wissen, sondern formatieren es lediglich neu. Die Externalitäten dieser „Dampfmaschinen des Geistes“ sind schon jetzt sichtbar: Das Internet, das bisher als Wissensspeicher fungierte und mittlerweile nur noch so etwas wie ein Durchlauferhitzer der KI-Industrie ist, wird mit KI-generiertem Müll (AI Slop) geflutet, der von Algorithmen kaum noch gefiltert werden kann und sogar in akademische Journals suppt. Damit wird auch der Lernstoff der KI immer schlechter.
Vor diesem Hintergrund wirkt es geradezu grotesk, dass ChatGPT zum heimlichen Betriebssystem der Bildung mutiert ist: Schüler schreiben Aufsätze mit dem Tool und lösen Gleichungen, Lehrer bereiten den Unterricht vor. Big Tech drängt mit aller Macht in die Klassenzimmer: So hat Elon Musks KI-Firma xAI im vergangenen Dezember eine Bildungspartnerschaft mit El Salvador geschlossen, um ihren Chatbot Grok an 5.000 öffentlichen Schulen einzurichten. Microsoft hat unterdessen mit dem thailändischen Bildungsministerium eine Kooperation vereinbart, um 4.500 Lehrer in KI zu schulen. Und Google gewährt in Miami 100.000 Schülern Zugang zu seiner KI-Plattform Gemini.
Ökonomische und ideologische Motive
Hinter dieser Bildungsexpansion stecken aber keineswegs bloß hehre humanistische Motive, sondern auch ökonomische und ideologische: Die Tech-Konzerne wollen Nutzer schon im Kindesalter an ihre Dienste binden, und sie wollen die Institution Schule schleifen: Facebook-Gründer Mark Zuckerberg stellt die Zukunft der Hochschulen offen in Frage: „Ich bin mir nicht sicher, ob das College die Leute auf die Jobs vorbereitet, die sie brauchen“, sagte Zuckerberg in einem Podcast. Nvidia-Boss Jensen Huang rät Kindern ab, programmieren zu lernen, weil dies die KI könne. Und Paypal-Gründer Peter Thiel zahlt Hochschulabbrechern gar ein Stipendium von 200.000 Dollar. Geht es nach den Tech-Vordenkern, braucht es in Zukunft gar keine Hochschulen mehr, sondern nur noch smarte Lernbots. Jura? BWL? Informatik? Kann alles die KI! Warum studieren, wenn man mit ChatGPT einen Doktor in der Tasche hat?
Doch je mehr man auf Lernalgorithmen rekurriert, desto größer ist die Gefahr, dass bestimmte Kulturtechniken wie etwa Kopfrechnen oder die Handschrift verlernt werden. MIT-Forscher konnten im vergangenen Jahr in einer Studie nachweisen, dass ChatGPT-Nutzer, die mit dem Tool Aufsätze schreiben, die Fähigkeit zum kritischen Denken verlieren. Als Meta im vergangenen Jahr KI-Bots in seine Dienste integrierte, schrieben die Schüler im ländlichen Kolumbien zwar plötzlich brillante Hausarbeiten, fielen aber reihenweise durch Prüfungen. In den geschlossenen Ökosystemen von KI-Modellen, in denen schon gar keine Quellen mehr ausgewiesen werden, wird Wissen, um mit Burke zu sprechen, noch viel stärker verborgen als in Suchmaschinen, die mit der Indexierung von Webseiten das Informationstableau einschränken: Sprachmodelle, die Texte in kleinste Sinneinheiten (Tokens) zerlegen und nach einem Wahrscheinlichkeitsmodell neu zusammensetzen, blenden das Unwahrscheinliche, Unerwartete aus – man macht bei der betreuten Recherche von ChatGPT und Co. keine Zufallsfunde mehr, die in der Vergangenheit häufig Quell von Erkenntnis und Erfindungen waren.
Drohender Wissenskollaps
Der KI-Forscher Deepak Varuvel Dennison warnte in einem Essay für den Guardian vor einem „Wissenskollaps“: Dadurch, dass generative KI zur Hauptinformationsquelle würde, könnten lokale Wissenssysteme verloren gehen. Das Problem sieht Dennison in der Unausgewogenheit der Daten: Der Datensatz der Common Crawl, einer frei zugänglichen Textsammlung für das Training von KI-Systemen, besteht zu 45 Prozent aus Webseiten auf Englisch, das aber nur von 19 Prozent der Weltbevölkerung gesprochen wird. Hindi dagegen, das von 7,5 Prozent der Weltbevölkerung gesprochen wird, macht lediglich 0,2 Prozent der Daten aus. Auch in Bilddatenbanken sind nichtwestliche Lebenswelten unterrepräsentiert, wie Forscher der University of Michigan herausgefunden haben. So werden bei der Eingabe von Begriffen wie „Toilettenpapier“, „Lichtquelle“ oder „Kühlschrank“ vor allem die Standards in westlichen Haushalten dargestellt.
Über das Vehikel von KI-Systemen, argumentiert Dennison, würde eine kulturelle Hegemonie ausgeübt: Die westliche Epistemologie würde zum Standard und indigene Wissenssysteme und Traditionen – etwa in der Heilmedizin, Baukunst oder Landwirtschaft – zerstören. Wenn Bauern im globalen Süden KI-Chatbots zur Bewirtschaftung ihrer Felder nutzen („Smart Farming“), greifen sie nicht auf lokales, traditionales Wissen zurück, sondern auf Datenbanken und statistische Verfahren aus Industrienationen. Regionale Wissensbestände und Praktiken, die in oralen Kulturen nicht schriftlich überliefert sind und zunehmend nicht mehr angezapft werden, sterben so aus. Gewiss, es gab in der Geschichte immer einen Wissenstransfer zwischen Kulturen. Das System der Algebra wie auch des Algorithmus stammt aus der islamischen Welt (vom persischen Gelehrten Muhammad ibn Musa al-Chwarizmi), und dass Mensch und Maschine heute mit arabischen statt mit römischen Ziffern rechnen, hat selbst bei der nationalistischen Rechten noch nicht den Vorwurf der Arabisierung laut werden lassen.
Doch mit dem Export von KI-Systemen könnten der Westzentrismus des Wissens und damit auch bestimmte Vorstellungen von technischer Rationalität, Benchmarks und Objektivität zementiert werden – gerade weil der Zugang zu KI so niedrigschwellig ist. ChatGPT kann druckreif über die spanische Eroberung Mexikos dozieren, aber nur wenig über aztekische Arzneimittel und indigene Weltanschauungen sagen. Der „Datenkolonialismus“ hat aus der Geschichte offensichtlich nichts gelernt. Wenn irgendwann die KI-Tutoren die Bots unterrichten, werden sie vermutlich den Erfahrungsschatz der Vorgängergenerationen vergessen haben. •
Weitere Artikel
Wendy Brown: „Souveränität ist eine Fiktion“
Weinende Kinder an der amerikanisch-mexikanischen Grenze und das Pochen der CSU auf ein Recht auf Zurückweisung sind nur die jüngsten Beispiele einer sich weltweit verschärfenden Abschottungspolitik. Wendy Brown, eine der einflussreichsten Intellektuellen der USA, über die letzten Zuckungen nationaler Souveränität und die menschliche Sehnsucht nach Einhegung
Das digitale Böse
Wie physische Handlungen können auch digitale Handlungen moralisch gut oder böse sein. Der Philosoph Jörg Noller erläutert das Konzept des „digitalen Bösen“ anhand von drei Hauptbereichen der Digitalisierung: Internet, Computerspiele und künstliche Intelligenz.
Das zerstreute Ich
Unser Alltag wird zunehmend von Unterbrechungen und Multiasking bestimmt. Im Dauerfeuer der medialen reize fällt es immer schwerer, auch nur einen einzigen klaren Gedanken zu fassen. Die anzahl der ADHS-Diagnosen steigt ebenso kontinuierlich an wie jene der burnout-Diagnosen. Sind die fliehkräfte des digitalen Kapitalismus im begriff, neben dem alltag auch unser Innerstes zu zerreißen? Doch was wissen wir eigentlich über die wahre Gestalt des menschlichen bewusstseins? Ist unser Denken womöglich von Natur auf permanente zerstreuung angelegt? Stellt das dezentrierte Ich sogar utopische Perspektiven einer neuen, intensiveren Daseinsform in aussicht?
Krieg im Jemen: Unsere moralische Kurzsichtigkeit
Seit Jahren wird der Jemen von zahlreichen Krisen erschüttert. Doch trotz eines brutalen Krieges und einer sich verschärfenden Hungersnot wird hierzulande kaum von der dortigen Lage Notiz genommen. Juliane Marie Schreiber erläutert, warum sich unsere Empathie allzu oft nur auf den engsten „moralischen Kreis“ beschränkt und weshalb eine Erweiterung dieses Radius gerade im Fall von Jemen dringend notwendig wäre.
Fehlgeleitete Kritik aus Berlin
In einem „Brief aus Berlin“ kritisieren Wissenschaftler die Reaktion der Bundesregierung auf den Nahostkonflikt und den Umgang der Berliner Regierung mit Demonstranten. Die Kritik sei jedoch zu undifferenziert und tatsachenverzerrend, so Christian Thein in einem Gastbeitrag.
Willkommen im Symbiozän
In unserer vom Digitalen dominierten Kultur nimmt der Tastsinn nur noch nachrangige Bedeutung ein, was uns zunehmend vor Probleme stellt. Wir sollten deshalb Offline-Aktivitäten und neuen Haptotechnologien Raum lassen, meint Richard Kearney.
Netzlese
Fünf philosophische Lesetipps für den Sonntag. Diesmal mit einer Analyse der Anti-Infektionsschutzdemos mithilfe John Lockes, Judith Butler im Interview über J.K. Rowling und transfeindlichen Feminismus, die Rolle der Landbevölkerung bei der Einführung linearer Zeitvorstellungen im Zuge der Aufklärung, einem Plädoyer für die Besteuerung des digitalen Mehrwerts sowie einer langen Nacht über Walter Benjamin.
Orwell und die Überwachung
„Big Brother ist watching you“, kaum ein Satz ist so tief in unser politisches Bewusstsein eingedrungen wie die Kernbotschaft aus George Orwells dystopischem Roman „1984“. Mit großer Eindringlichkeit und Präzision schildert Orwell in diesem Werk den Alltag in einer totalitären Überwachungsgesellschaft. Kein Wort bleibt hier unbelauscht, keine Geste ungeprüft, kein Gedanke folgenlos. Mit den digitalen Informationstechniken, die im Zeichen von Big Data unseren gesamten Alltag protokollieren und erfassen, hat Orwells Vision vom totalen Überwachungsstaat neue Aktualität gewonnen. Kurz nach der Amtsübernahme von Donald Trump schnellte das Buch in den USA sogar zurück auf die Bestsellerlisten, aus konkreter Angst vor einer neuen Ära des Freiheitsverlusts und der Wahrheitsferne. In seinem Essay untersucht der Philosoph Bruce Bégout, wie Orwells Idee zu dem Buch entstand. Im Vorwort zum Beiheft geht Éric Sadin dem Phänomen der globalen Überwachung nach.