Jörg Noller „Digitale Technologien sind weder Objekt noch Subjekt“
Wie hätte Hegel auf den heutigen Stand der Technik geblickt? Der Philosoph Jörg Noller erläutert, warum künstliche Intelligenz nicht zu dialektischem Denken fähig ist, und wohin der Weltgeist steuern könnte, wenn das Metaverse Wirklichkeit wird.
Herr Noller, wie unterscheidet sich menschliches Denken von der Funktionsweise anderer bewusstseinsähnlicher Zustände wie jenen von künstlicher Intelligenz?
Wenn wir über das Denken nachdenken wollen, müssen wir über das Bewusstsein sprechen. Das menschliche Bewusstsein zeichnet sich dadurch aus, dass es eine subjektive Innenseite hat, die sich etwa im Fühlen und Begehren zeigt. Künstliche neuronale Netze, wie sie für KI verwendet werden, mögen eine rudimentäre selbstbezügliche Struktur haben, doch ist dies nicht hinreichend für Subjektivität. Dazu wäre es notwendig, dass KI einen lebendigen Körper hat. Das Bewusstsein von Lebewesen ist immer Bewusstsein von etwas, es weist eine geistige Richtung auf. Menschliches Bewusstsein ist dadurch gekennzeichnet, dass es Selbstbewusstsein ist, das heißt, dass wir uns auf unsere eigenen Bewusstseinszustände bewusst beziehen und uns selbst zum Problem werden können. Künstliche Intelligenz kann sich nicht frei selbst bestimmen und infrage stellen, da sie ihre Ziele von außen vorgegeben bekommt.
Was impliziert das nun für das Denken von Maschinen? Können Maschinen etwa dialektisch denken?
Es gibt strukturelle Ähnlichkeit im Funktionieren und Operieren von künstlichen neuronalen Netzen und unserem Denken: Mustererkennung wäre eines davon. Mustererkennung ist eine rudimentäre Form von Denken und auch von Urteilen. Denn auf Basis von zahlreichen Informationen kann KI zu einem besonders wahrscheinlichen Ergebnis und einer Empfehlung kommen, etwa bei medizinischen Diagnosen – vorausgesetzt, dass ihr ein Erkenntnisziel von uns Menschen vorgegeben wird. Die „Erkenntnis“ von KI ist aber nicht intrinsisch motiviert und KI hat vor allem auch keinen Begriff und kein Bewusstsein von Negativität, das heißt davon, dass etwas auch nicht oder ganz anders sein könnte. Auch ist dialektisches Denken nach Hegel immer bestimmtes, eindeutiges Denken – er spricht von der „bestimmten Negation“. Künstliche neuronale Netze haben es aber nur mit Wahrscheinlichkeiten zu tun. Deswegen kann man ihr „Denken“ immer nur ein hypothetisches, bedingtes Denken nennen. Daraus, dass Negativität und Bestimmtheit nach Hegel konstitutiv für dialektisches Denken sind, folgt, dass KI nicht dialektisch denken kann. Das heißt, anders als wir kann KI nicht von etwas überrascht und herausgefordert werden, und sie kann uns auch keine Rechenschaft ablegen über die Gründe, die zu ihren Erkenntnissen geführt haben. Da KI wie jede Technologie ein Produkt des menschlichen Geistes ist, können wir also nicht davon sprechen, dass sie selbst etwas mit dialektischem Denken zu tun hat. Vielmehr ist es so, dass unser Verhältnis zu diesen Technologien dialektisch genannt werden kann. Denn auf den ersten Blick erscheint KI als etwas uns ganz und gar Entgegengesetztes, Fremdes – als Objekt. In einem nächsten – dialektischen – Schritt aber können wir erkennen, dass sie ein Produkt unseres Geistes ist, insofern sie mit denjenigen Daten operiert, die wir ihr zur Verfügung gestellt haben, und mithilfe derjenigen Algorithmen, die wir programmiert haben.
Laut Hegel gelangen wir erst im Zusammentreffen und der Negation von anderen Objekten und anderen Subjekten zu einem Selbstbewusstsein. Welche Rolle hätte wohl der Kontakt mit Computern in seiner „Phänomenologie“ eingenommen?
Philosophie Magazin +

Testen Sie Philosophie Magazin +
mit einem Digitalabo 4 Wochen kostenlos
oder geben Sie Ihre Abonummer ein
- Zugriff auf alle PhiloMagazin+ Inhalte
- Jederzeit kündbar
- Im Printabo inklusive
Sie sind bereits Abonnent/in?
Hier anmelden
Sie sind registriert und wollen uns testen?
Probeabo