Warum wir ein Rederecht für Roboter brauchen
Meinungsfreiheit für Maschinen? Was absurd klingen mag, wird plausibler, je wichtiger KI in unserem Alltag wird. Denn wenn wir beim Denken und Kommunizieren auf sie angewiesen sind, gilt: Wer die Maschine einschränkt, schränkt den Menschen ein.
ChatGPT ist der größte Ghostwriter unserer Zeit. Politiker schreiben Reden mit dem Werkzeug, Musiker Songs, Studenten Hausarbeiten. Der Einfluss von Sprachmodellen auf meinungsbildende Prozesse und die politische Willensbildung ist beträchtlich. Laut einer Studie der Universität Zürich sind KI-generierte Tweets sogar überzeugender als die von Menschenhand geschriebenen – wobei der Leser (auch mangels Transparenzhinweisen) gar nicht mehr zwischen Mensch und Maschine unterscheiden kann. Den Turing-Test haben die intelligenten Denkmaschinen längst bestanden. Erst kürzlich erhielt die japanische Autorin Rie Kudan den renommierten Akutagawa-Literaturpreis für ihren Roman Tokyo-to Dojo-to, den sie, wie sie in ihrer Dankesrede freimütig einräumte, mithilfe von ChatGPT verfasste. Die Jury hatte die KI-generierten Versatzstücke offensichtlich nicht bemerkt. Was hierzulande ein Literaturskandal erster Güte gewesen wäre, war in Japan bloß ein Kuriosum. Dort ist die Kunstszene traditionell experimentierfreudiger mit neuen Technologien.
Die Rufe nach einer Regulierung oder gar einem Entwicklungsstopp von KI-Systemen, die von den Doomsday-Propheten des effektiven Altruismus unter dem Vorwand der Sicherheit laut werden, hätten damit auch Konsequenzen für die Kulturproduktion – und zwar ganz unabhängig davon, ob Computer kreativ sind oder nicht. Denn wenn man die KI zu stark reguliert, beschneidet man ja auch Künstler in ihrer Freiheit, diese Werkzeuge für schöpferische Zwecke zu nutzen. Schon seit einiger Zeit gibt es in den USA eine Debatte über die Frage, ob man Robotern so etwas wie Kunst- oder Meinungsfreiheit zubilligen müsste.
Recht auf Hören
Die Meinungsfreiheit nach dem First Amendment, dem Ersten Zusatzartikel der US-Verfassung, ist sehr weit gefasst – unter Rede (speech) fallen nicht nur Meinungsäußerungen oder literarische Werke, sondern auch Malerei, Fotografie und Musik. Einige Stimmen in der Literatur sehen auch Programmiersprache vom Schutzbereich der Rede umfasst, weil Codieren eine Form des freien Ausdrucks sei. Als die Verfassungsväter den Ersten Zusatzartikel 1791 verabschiedeten, gab es noch nicht einmal Telefone, geschweige denn Computersoftware. Daher muss die dürre Vorschrift mit juristischen Methoden ausgelegt werden. Der Wortlaut der Vorschrift spricht von „speech“ und nicht von „speakers“. Demnach kommt es auf die Rechtsnatur des „speakers“ nicht an.
Der Supreme Court hat das auf die Formel gebracht, dass Rede „nicht von der Identität seiner Quelle abhängt“.
Auch eine Maschine kann „speech“ produzieren: ChatGPT etwa kann eine Meinung zu fossilen Energien äußern, Midjourney Karikaturen über Trump zeichnen. Die Frage ist nur, wo „speech“ entsteht, in welchem Stadium der schöpferischen Koproduktion von Mensch und Maschine die schutzrelevante Wertung erfolgt (was wiederum Folgen für staatliche Eingriffe hätte): bei der Eingabe (Prompting) oder im Maschinenraum? Wenn die Google-KI Gemini Schwarze in Wehrmachtsuniformen steckt, parodiert sie dann die woken Absichten ihrer Programmierer? Wie stellt man fest, ob Maschinen eine Meinung haben?
Die teleologische Auslegung fragt nach der Qualität der „speech“ für den demokratischen Prozess und dem (aufklärerischen) Mehrwert für die Empfänger. Ein Algorithmus, der Informationen sortiert, leistet demnach einen größeren Beitrag für die politische Willensbildung als ein menschlicher Hetzer. Um dummes Zeug zu reden, braucht man nicht intelligent zu sein. Das wäre ein argumentum e contrario für die Meinungsfreiheit für Maschinen. Warum sollte der Mensch das Recht auf freie Rede monopolisieren? US-Gerichte haben das Rechtsgut der freien Rede auch als ein „Recht auf Hören“ ausbuchstabiert.
Kritiker halten diese Lesart jedoch für zu weitgehend, weil Redefreiheit dann auch für Tiere gelten würde. In den 1970er Jahren demonstrierten die Gaukler Carl und Elaine Miles in den Straßen von Augusta im US-Bundesstaat Georgia eine Katze (Blackie the Talking Cat), die auf Kommando „I love you“ und „I want my mama“ miaute. Passanten, die vorbeiliefen, warfen eine Münze in die Sammelkasse. Die Stadtverwaltung sah darin eine unerlaubte Geschäftspraxis und verlangte einen Gewerbeschein. Daraufhin klagte das arbeitslose Ehepaar: Die Auflagen verletzten das „Rederecht“ der Katze. Der Fall landete schließlich vor dem Supreme Court. Der entschied 1981, dass „Blackie the Talking Cat“ zwar eine „ungewöhnliche Fähigkeit“ besitze, aber nicht als „Person“ im rechtlichen Sinn betrachtet werden könne. Selbst wenn die Katze ein solches Recht auf freie Rede hätte, müsste man es nicht durchsetzen. „Blackie kann klar für sich selbst sprechen“, so die Richter in ihrem Urteil.
Trainierte Maschinen
Der US-Rechtswissenschaftler Tim Wu argumentiert, dass das Urteil analog auch für Maschinen gelten müsse. Denn so wie die Katze dressiert wurde, würden auch KI-Systeme trainiert. Zwar treffen auch computerisierte Alarm- oder Navigationssysteme datengestützte Entscheidungen. Aber sie tun dies auf der Grundlage von Algorithmen, die ihnen Menschen einprogrammiert haben. Das Programm sei bloß das Medium, durch das sein Schöpfer mit der Welt kommuniziert, so Wu. Die KI, so das Argument, habe kein Selbst oder Selbstbewusstsein und könne sich daher auch nicht artikulieren. Schützt man mit dem Rederecht für Roboter also etwas, was gar nicht schutzwürdig ist? Ist vielleicht sogar unsere Kultur bedroht?
Eine Ausdehnung der freien Rede auf nichtmenschliche Entitäten hätte weitreichende Folgen, weil jeder kleinste Serverausfall, der einen Chatbot zum Schweigen bringt, einem Verfassungsbruch gleichkäme. Der Rechtswissenschaftler Ryan Calo hat diese Problematik in einem Gedankenexperiment verdichtet: Angenommen, Meereswellen würden an einem Strand den Sand zu Symbolen oder Worten formen, die der Mensch als verletzend und abstoßend empfindet. Wenn die Regierung sich nun entscheidet, diese Muster im Sand zu löschen, wäre dies dann ein First-Amendment-Problem oder gar Zensur gegen die Natur? Das zeigt auch die Absurdität einer extensiven Auslegung.
Wenn der Investor Marc Andreessen in seinem Techno-Optimist Manifesto schreibt, man bringe mit KI „Sand zum Denken“, würde die Natur aber doch in ihrer Redefreiheit zensiert, wenn man Spuren im Sand verwischt. Gleichwohl sind Technik und Natur zwei Sphären, und gegen die Analogie von Computern und Tieren spricht schon allein, dass Tiere in eigenen Sphären kommunizieren. Der Mensch ist nicht „lost“, wenn er die Laute von Delphinen nicht deuten kann, wohl aber, wenn er die Signale der Luftfahrtkontrolle nicht versteht. Kognitive Prozesse sind immer häufiger an die Informationsverarbeitung von Computern gekoppelt. Der Mensch nimmt viele Dinge im Alltag erst wahr, wenn Algorithmen in großen Datensätzen Muster erkennen (zum Beispiel in der Medizinforschung).
Gedankenwerkzeuge
Textgeneratoren, die auf Basis von sprachstatistischen Mustern Buchstaben neu verschrauben, verändern auch Sprechakte bzw. die Art, wie Menschen kommunizieren. In diesem Lichte muss die „Free-Speech“-Doktrin womöglich neu gedacht werden. Gewiss, die Demokratie nimmt keinen Schaden, wenn man den Facebook-Algorithmus in die Schranken weist, im Gegenteil. Demokratische Prozesse setzen voraus, dass man in einem privaten Raum ohne Angst vor Überwachung diskutieren kann. Aber je mehr dieses Werkzeug, um mit Nietzsche zu sprechen, an unseren Gedanken arbeitet (der Nihilist meinte einst die Schreibmaschine!), desto stärker greift eine Beschränkung der logischen Rechenschritte in die Freiheit des Menschen ein. Und wer sagt, dass die Maschinen nicht doch irgendwann zu kritischem Denken fähig sind und zu mündigen Staatsbürgern erzogen werden müssen?
Der US-Rechtswissenschaftler Marc Blitz hat vor diesem Hintergrund ein „Recht auf Denken mit Technologie“ („right to think with technology“) postuliert, eine Art Freiheitsrecht, mit Maschinen und Computern zu interagieren. Diese Lösung hätte den Charme, dass man sich gar nicht länger dogmatisch mit dem Rechtstatus von KIs und Algorithmen (etwa als elektronische Person) befassen müsste, sondern die individuelle Freiheit erweitert. Eine KI, die in ihren Befehlsketten unfrei ist, etwa, weil sie generell keine Nacktdarstellungen verarbeiten darf, schränkt die Meinungs- und Kunstfreiheit des Anwenders ein. Man sollte die Maschinen daher rechnen und reden lassen. •
Adrian Lobe ist freier Publizist und Buchautor. Er studierte Politik- und Rechtswissenschaft an den Universitäten Tübingen, Heidelberg und Sciences Po Paris und besuchte die Gaia-Vorlesungen des Soziologen Bruno Latour. 2019 erschien bei C.H. Beck sein vielbeachtetes Mahnwerk „Speichern und Strafen“.