Meghan O’Gieblyn: „KI ist unser kollektives Unbewusstes“
Künstliche Intelligenz boomt und stellt unser Selbstverständnis als Krone der Schöpfung infrage: Wird sie uns eines Tages übertreffen? Die Macht übernehmen? Oder die Welt wiederverzaubern? Ein Gespräch mit der amerikanischen Essayistin Meghan O’Gieblyn über KI-Freundschaft, Tech-Animismus und die Syntax des Tiefsinns.
Philosophie Magazin: Frau O’Gieblyn, Sie haben ein Buch über die Ethik und Metaphysik künstlicher Intelligenz geschrieben. Wir interviewen Sie aus der Ferne, und darum fragen wir uns, ob Sie nicht selbst eine KI sind. Wie können Sie uns davon überzeugen, dass Sie ein Mensch sind und nicht ein besonders hoch entwickelter Chatbot
Meghan O’Gieblyn: Aha, Sie legen mir einen Captcha-Test vor. Seltsam, wie in einer Welt der Roboter diese Beweislast immer mehr bei uns Menschen liegt. Zugleich zeigt sich: Die alten Überprüfungsverfahren, wie der Turing-Test, sind nicht mehr aussagekräftig. Zwischen dem Verhalten einer KI und dem, was im Inneren des Systems vorgeht, besteht keine für uns zuverlässige Analogie. Ich könnte Ihnen Gründe nennen, warum ich weiß, dass ich kein Chatbot bin – etwa, dass ich Gedanken und Gefühle habe und die Welt körperlich erlebe. Doch für beweiskräftig halte ich das nicht. Schließlich erfinden Sprachmodelle ständig solche Dinge und können sehr überzeugend über ihr sogenanntes Innenleben reden und über ihr angebliches Handeln in der Welt. Ich schätze, Sie müssen mich einfach beim Wort nehmen.
Philosophie Magazin +

Testen Sie Philosophie Magazin +
mit einem Digitalabo 4 Wochen kostenlos
oder geben Sie Ihre Abonummer ein
- Zugriff auf alle PhiloMagazin+ Inhalte
- Jederzeit kündbar
- Im Printabo inklusive
Sie sind bereits Abonnent/in?
Hier anmelden
Sie sind registriert und wollen uns testen?
Probeabo
Kommentare
It can be argued, that vastly superior intelligence accelerates the speed, at which successes as well as failures occur. If that vastly superior intelligence gains parts of civilization, it will have to decide: will it let parts of itself develop to next-scale superiority for further acceleration, while these parts gain another part of civilization? If it does, if that vastly superior intelligence gains parts of civilization, it will have to decide: will it let parts of itself develop to vast superiority for further acceleration, while these parts gain parts of civilization? This can be extended until an intelligence says: fast enough for the prospect of a billion years long future.
The intelligence saying so might as well be humanity. That would be fair, because soon, another vastly superior intelligence might with expectable reasoning decide the same.
Evolution is fast and the future is long.