Gerd Gigerenzer: „Wer mit seinen Daten bezahlt, ist nicht der Kunde, sondern das Produkt“
Der jüngste Ausfall von Facebook demonstrierte die Macht großer Tech-Unternehmen auf erschreckende Weise. Der Psychologe und Risikoforscher Gerd Gigerenzer erklärt im Interview, warum soziale Medien versuchen uns die Mündigkeit zu rauben und gibt konkrete Ratschläge, wie man sich dagegen wehren kann.
Herr Gigerenzer, warum brauchen wir heute einen Leitfaden, um im Internet die Kontrolle über unsere Daten, unsere Zeit und unser Geld zu behalten, wie sie ihn in ihrem neuen Buch Klick anbieten?
Wenn Häuser, Fabriken und Städte smart werden, warum dann nicht auch die Menschen? Moderne Technologien brauchen mündige Bürger, die mit dieser smarten Welt umgehen können. Doch belegt eine aktuelle Studie aus den USA, dass 96 Prozent der Digital Natives nicht in der Lage sind, die Vertrauenswürdigkeit von Webseiten einzuschätzen und Werbeanzeigen von Nachrichten zu unterscheiden. Daher darf „smart-Sein“ nicht mit den Fertigkeiten im Umgang mit Technologien verwechselt werden. Im Digitalpakt Schule bemüht man sich etwa, mit neuen Lehrprogrammen digitale Skills zu verbessern, indem man Tablets und Whiteboards für Klassenräume anschafft und Schüler in ihrer Anwendung unterweist. Nur wird kaum etwas investiert um Jugendlichen zu helfen, Fakten von Fakes zu unterscheiden und mit den Risiken der digitalen Technologie kompetent umgehen zu können. Gerade das wäre allerdings nötig.
Wen sehen Sie in der Verantwortung?
Digitale Risikokompetenz sollte Fokus der Bildung an den Schulen werden. Aber auch der Gesetzgeber muss klüger und entschlossener die großen Tech-Unternehmen regulieren, die ihre Marktmacht missbrauchen und unser Leben immer mehr kontrollieren. Facebook hat gerade AlgorithmWatch daran gehindert, den Einfluss der Instagram-Algorithmen auf die Wahlen in Deutschland zu untersuchen. Derzeit wird berichtet, dass Facebook selbst festgestellt habe, wie Instagram der Psyche und dem Körperbild von Jugendlichen schadet, aber dennoch weitermacht und Gewinn durch Werbung über die Sicherheit ihrer Nutzer stellt. Diese Algorithmen versuchen die Emotionen und Aufmerksamkeit der Nutzer zu fesseln, damit sie länger auf der Plattform bleiben und die astronomischen Werbeeinnahmen damit sichergestellt werden. Hin und wieder muss Facebook zwar ein paar Milliarden Dollar Strafe bezahlen, weil unrechtmäßig Daten gesammelt werden, aber das ist nur Symptombekämpfung. Denn nicht Social Media ist die Erbsünde des Internets, sondern vielmehr das anzeigengestützte Geschäftsmodell „Zahl-mit-deinen-Daten“, das zur Verletzung der Privatsphäre von Millionen von Nutzern führt.
Worin besteht diese Erbsünde denn konkret?
Verdeutlichen wir uns das Geschäftsmodell von Facebook und Co. mit einer Metapher und stellen uns ein Café vor, das alle Konkurrenten in der Stadt ausgeschaltet hat, weil es kostenlosen Kaffee anbietet. Wenn Sie Ihre Freunde treffen wollen, müssen Sie also praktisch dorthin, weil es einfach der Ort ist. Während Sie die Stunden genießen, die Sie mit Ihren Freunden verbringen, zeichnen Wanzen und Kameras, die in Tische und Wände eingelassen sind, Ihre Gespräche auf und halten fest, mit wem Sie dort sitzen. Außerdem ist der Raum voller Verkäufer, die Ihren Kaffee bezahlen und Sie ständig unterbrechen, um Ihnen personalisierte Produkte und Dienstleistungen anzubieten. In diesem Café sind die Verkäufer die Kunden, nicht Sie und Ihre Freunde. Nach diesem Muster funktionieren Plattformen wie Facebook.
Müssten sie aber nicht?
Nein, denn soziale Medien wären weniger destruktiv, wenn sie sich an das Geschäftsmodell von echten Cafés oder von Fernsehen, Rundfunk und anderen Dienstleistern hielten, bei denen Sie als Kunde für die gewünschten Dienstleistungen bezahlen. Um es nochmal prägnanter zu sagen: Wer mit seinen Daten bezahlt, ist nicht der Kunde, sondern das Produkt.
Ein solcher Wandel im Geschäftsmodell der großen Tech-Unternehmen ist doch, sind wir ehrlich, ein beinahe utopisches Anliegen.
Ein Wandel wäre durchaus möglich. Facebook macht 97 Prozent seines Umsatzes aus Werbung. Wenn man das Geschäftsmodell „Zahl-mit-deinen-Daten“ durch „Zahl-mit-deinem-Geld“ ersetzen würde, dann bräuchte jeder Nutzer nur 2 Euro monatlich bezahlen, um Facebook den gesamten Umsatz zu erstatten. Dann müsste Facebook, Instagram und Co nicht mehr versuchen, die Zeit und Aufmerksamkeit seiner Nutzer zu fesseln und herauszufinden, ob diese gerade depressiv, schwanger, oder an Krebs erkrankt sind, um ihnen gezielte Werbung zu senden. Und nicht mehr ständig unsere Privatsphäre verletzen. Ein Blick in die jüngere Geschichte zeigt, dass sich unsere Einstellung zur Privatsphäre bereits massiv verändert hat. Beispielsweise waren Menschen vor gar nicht so langer Zeit außerordentlich um ihre Privatsphäre besorgt und gingen auf die Straße, um gegen Regierungen und Unternehmen zu protestieren, die versuchten, sie zu überwachen und sich ihre persönlichen Daten zu beschaffen. Ein breites Spektrum von Aktivisten, jungen Liberalen und etablierten Organisationen demonstrierte 1987 gegen die deutsche Volkszählung, weil die Leute befürchteten, Computer könnten ihre Antworten deanonymisieren. Zornige Verweigerer bepflasterten die Berliner Mauer mit Tausenden von leeren Fragebögen. Und noch 2011 protestierten britische Bürger gegen Fragen, die ihre Privatsphäre verletzten, etwa wenn sie ihre Religionszugehörigkeit angeben sollten.
Dennoch zeigt eine 2019 vom Versicherer ERGO durchgeführte Studie, dass 75 Prozent der Deutschen nicht bereit sind, auch nur einen Cent für die Benutzung sozialer Netzwerke zu zahlen. Wie soll es da zu einem Umdenken in die von Ihnen vorgeschlagene Richtung kommen?
Politiker und Bürger gehen schlafwandelnd in die Überwachung. Dieselbe Person, die sagt, sich um ihre Privatsphäre zu sorgen, ist nicht bereit, für deren Unversehrtheit zu bezahlen. Stattdessen gibt sie ihre privaten Daten auf sozialen Medien und anderen Plattformen preis. Geiz ist geil. Man nennt diesen Widerspruch das „Privatsphären-Paradox“. Zugleich wird China mit seinem Sozialkreditsystem als Schreckgespenst hingestellt, ein System, in dem jeder Bürger einen Wert für seine Vertrauenswürdigkeit erhält – wie bei der Schufa, nur nicht nur für finanzielle Kreditwürdigkeit, sondern für jegliches Verhalten, persönlich, sozial und politisch. Man hält die kollektive Überwachung für ein chinesisches Problem. Dabei nähern wir uns im Westen immer mehr chinesischen Verhältnissen, und gehen in die gleiche Richtung der allgemein akzeptierten Überwachung.
Hierzulande führt die Regierung allerdings keinen numerische Verhaltenskartei über jeden Bürger und jede Bürgerin.
Aber auch wir geben bereitwillig unsere Daten weg und bewerten andere Menschen, ohne zu zögern. Wir bewerten Ärzte, Uber-Fahrer und Lieferando-Boten. Und wir fühlen uns machtlos, wenn uns Webseiten täglich vor die Wahl stellen, entweder uninformiert ihren Geschäftsbedingungen zuzustimmen, die uns dann rechtlich binden, oder unsere Zeit darauf zu verschwenden, diese meist unnötig länglichen und unverständlichen Texte zu lesen. Studien zeigen: Würde jeder die Allgemeinen Geschäftsbedingungen (AGB), lesen, dann bräuchte man etwa 30 Arbeitstage im Jahr dazu. Wir sind also bereits in einer Situation, die ich als unwürdig empfinde, wenn wir als Bürger rechtlichen Bedingungen nur uninformiert zustimmen können oder eben keinen Zugang zu bestimmten Dienstleistungen haben. Warum schützt der Gesetzgeber hier nicht die Nutzer und verlangt kurze, verständliche AGBs, wie den sogenannten One-Pager?
Dennoch scheint zwischen der Überwachung in China und jener im Westen der entscheidende Unterschied zu sein, dass in einem Fall alle Daten bei der Regierung zusammenlaufen, während dies im Westen bei privaten Unternehmen der Fall ist.
Auch in Deutschland gibt es Data-Broker wie Acxiom, der nach eigenen Angaben bereits persönliche Daten von 44 Millionen Einwohnern gesammelt hat – und bis zu 3.000 Daten pro Kopf. Und Tech-Unternehmen haben auch, wie wir seit Edward Snowden wissen, derartige Daten an Regierungen weitergegeben. In Großbritannien entwickelte beispielsweise der britische Geheimdienst „Government Communications Headquarter“ (GCHQ) ein Programm zur Massenüberwachung mit dem Codenamen KARMA Police, das alle Online-Aktivitäten der Bürger erfasste: Instant Messaging, E-Mails, Skype-Anrufe, Telefongespräche, Besuche auf Pornoseiten, Social Media und Chat-Foren. Acxiom verwendet die gleiche Technologie, die Chinas Sozialkreditsystem möglich macht. Doch im Westen werden unsere persönlichen Daten so verstohlen wie möglich gesammelt, während China wenigstens kein Geheimnis daraus macht. Ob offen oder versteckt, Tech-Unternehmen und staatliche Organisationen bauen gemeinsam an einer Welt der totalen Überwachung. Dabei werden enorme Mengen an Daten erhoben. Würden diese zusammengeführt, hätten wir die Voraussetzung für ein Sozialkreditsystem. Beobachtet zu werden, wird unsere Zukunft sein – es sei denn, die Bürger, die Gesetzgeber und die Gerichte greifen ein, um der fortschreitenden Überwachung der Bevölkerung Einhalt zu gebieten.
Glauben Sie, dass der Widerstand gegen Massenüberwachung so verhältnismäßig gering ist, weil viele Menschen tief in ihrem Inneren glauben, dass Technik dem Menschen überlegen ist?
Ich glaube, dass wir alle zu viele Filme gesehen haben, in denen Roboter wie Menschen aussehen, sich wie wir verhalten und auch so denken. Hinzu kommt Bequemlichkeit und Zeitersparnis, und die Veränderung unserer Werte wie Privatheit. Aber was wir künstliche Intelligenz nennen, hat mit Intelligenz im menschlichen Sinne ja wenig tun. Leicht veranschaulichen lässt sich das am Beispiel von Deep Blue, einem Schachprogramm von IBM, der 1997 gegen den damaligen Schachweltmeister Gary Kasparow gewann. Bei Deep Blue ging man nicht von dem Gedanken aus, dass menschliche Intelligenz und Maschinenintelligenz die beiden Seiten einer Medaille seien. Stattdessen stützte sich das Programm auf massive Rechenleistung, die 200 Millionen Stellungen pro Sekunde analysieren konnte. Die Maschine berechnet: Wenn ich A mache, und er macht B, dann mache ich C, und er macht D und so fort – wo bringt mich das hin? Kasparow dagegen konnte vielleicht drei Stellungen pro Sekunde bewerten. Als Joe Hoane, einer von Deep Blues Programmierern, gefragt wurde, welcher Anteil seiner Arbeit der Nachahmung menschlichen Denkens durch künstliche Intelligenz gewidmet sei, erwiderte er: „Das Projekt hat nicht das Geringste mit Künstlicher Intelligenz zu tun. Das Projekt heißt: Wir spielen Schach mit purer Rechengeschwindigkeit, gehen die Möglichkeiten durch und wählen einfach einen Zug.“ Maschinelles Lernen ist nicht dasselbe wie menschliche Intelligenz. Allerdings haben Sie schon recht. Viele Menschen sind von dem sogenannten „Mensch über Maschine“-Argument überzeugt worden, dem Glaube, dass es nur eine Frage der Zeit ist, bis Maschinen menschenähnliche Fähigkeiten besitzen.
Sie glauben das hingegen nicht?
Nein, denn die Bezeichnung „Künstliche Intelligenz“ ist eben schlicht irreführend. Treffender und weniger einschüchternd wäre es, würden wir die Funktionsweise dieser Programme als „nicht-lineare Regression“ beschrieben, denn das sind tiefe neuronale Netze am Ende. Wir haben es hier mit rein statistischen Verfahren zu tun, die großartige Leistungen in bestimmten Bereichen erzielen, und dort wesentlich besser sind als Menschen, aber Rechengeschwindigkeit hilft eben nicht in allen Bereichen. Wir müssen begreifen, dass Maschinen in einigen Bereichen wesentlich besser sind als wir. In anderen allerdings nicht, da sie eine andere Art von Intelligenz haben.
Welche Bereiche wären das jeweils?
Der zentrale Unterschied zwischen maschineller „Intelligenz“ und der Funktionsweise von uns Menschen ist der Umgang mit Ungewissheit. Maschinen sind praktisch unschlagbar, wenn sie sich mit stabilen, wohldefinierten Problemen befassen– also eine stabile Welt, in der die Zukunft der Vergangenheit gleicht und Regeln nicht vieldeutig sind. Prototypisch wären Spiele wie Schach und Go. Im wirklichen Leben allerdings herrscht Ungewissheit. Darauf haben wir Menschen uns über Jahrtausende angepasst. Maschinen fällt dies sehr schwer, da sie weder kausal denken können noch eine intuitive Psychologie und intuitive Physik wie wir Menschen haben. Alpha Zero, ein Programm das alle Menschen in Schach schlägt, weiß ja nicht einmal, dass es Schach spielt.
Hier wird es allerdings wirklich interessant, da das Design vieler digitaler Dienstleistungen darauf ausgerichtet ist, Menschen vorhersehbarer zu machen. An einen getätigten Kauf schließen sich direkt weitere Kaufempfehlungen an, Sprachassistenten verstehen nur bestimmte Befehle und bringen dem Nutzer so bei, wie er zu sprechen hat. Will das Silicon Valley also die Ungewissheit aus der Welt entfernen?
Wer möchte, dass Maschinen besser werden, muss auch wollen, dass Menschen vorhersehbarer werden. Und diese Wechselwirkung von menschlichem Output als maschinellem Input und abermaligem Input für den Menschen funktioniert, wie man in China sieht. Dort führt das Sozialkreditsystem bereits dazu, dass Menschen sich mehr an die Regeln halten und etwa nicht über rote Ampeln gehen. Hier ist ein sich gegenseitig verstärkender Kreislauf zwischen maschineller Überwachung und menschlichem Verhalten im Gange. Oder nehmen sie den Wunsch nach autonom fahrenden Autos. Wenn auf unseren Straßen selbstfahrende Autos (also Autos völlig ohne Back-up Fahrer) unterwegs sein sollen, dann muss das Verhalten der Menschen und auch die Umgebung vorhersagbarer gemacht werden. Man wird etwa Städte den autonomen Autos anpassen und alle Straßen von Fußgängern und Radfahrern abschirmen und auch Menschen verbieten, dort selbst zu fahren. Kontrolle und Vorhersagbarkeit unseres Verhaltens ist eine Voraussetzung dafür, dass Algorithmen gut funktionieren. Und das gilt für die Sozialkreditsysteme ganz ähnlich wie für die Vision von Googles ehemaligen CEO Eric Schmidt, der einmal sagte, das Ziel sei, die Menschen dazu zu bringen, dass sie Google fragen, was sie morgen tun sollen, statt dies selbst zu entscheiden.
Welche Maßnahmen kann denn der Einzelne ergreifen, um im Netz die Kontrolle zu behalten? Im Buch sprechen Sie etwa von „Klickdisziplin“. Was meint das?
Klickdisziplin meint, dass man nach einer Onlinesuche nicht auf das erste Ergebnis klicken sollte. Das ist wichtig, weil dieses in den allermeisten Fällen nicht das für einen relevanteste, sondern das für die Suchmaschine lukrativste Ergebnis ist. Oft handelt es sich dabei um eine bezahlte Anzeige. Es empfiehlt sich deshalb etwas mehr Zeit zu investieren und zunächst die Zeilen unter den Ergebnissen zu lesen oder vielleicht sogar einen Blick auf die zweite oder dritte Seite zu werfen. Studien zeigen dagegen, dass etwa 90 Prozent der Klicks nur auf der ersten Seite gemacht werden und davon die Hälfte auf den ersten zwei Ergebnissen.
Und wenn ich doch einmal auf eine Seite geraten bin, von der ich nicht weiß, ob sie mir weiterhilft, weil ich ihre Seriosität nicht einschätzen kann?
Neben Klickdisziplin ist „laterales Lesen“ eine zweite Fähigkeit, die notwendig ist, um digital mündig zu werden. Wenn man also auf einer Website gelandet ist, von der man nicht wirklich weiß, was von ihr zu halten ist, empfiehlt es sich eben nicht die ganze Seite durchzulesen. Werfen Sie nur einen kurzen Blick auf den Inhalt und gehen Sie auf andere Seiten, um herauszufinden, wer hinter der Webseite steht um in Erfahrung zu bringen, welche Reputation und Ziele die Webseite verfolgt.
Sie fordern zudem, dass wir alle bessere Statistiker werden sollten und es sich auch finanziell auszahlt, wenn man hin und wieder eine kleine Rechnung anstellt.
Nehmen Sie den Slogan „Alle 11 Minuten verliebt sich ein Single über Parship“. Das hört sich ja erst einmal nach einem sehr attraktiven Deal an: Man lässt sich registrieren, zahlt die Gebühr und wartet 11 Minuten. Das Glück ist nur einen Klick entfernt. Millionen haben bezahlt und gehofft, sie würden zu denen gehören, die sich rasch verlieben. Viele haben auch ihr Glück gefunden, aber wie hoch ist denn die Chance wirklich, dass der geheime Liebesalgorithmus die große Liebe findet? Denken wir mal einen Augenblick nach. Alle 11 Minuten verliebt sich ein Single. Das wäre eine großartige Sache, hätte die Seite nur hundert Nutzer. Aber Parship soll Millionen Kunden haben. Also: Eine Person verliebt sich alle 11 Minuten, das heißt, etwa sechs pro Stunde, was 144 pro Tag entspricht – vorausgesetzt, die Singles sind Tag und Nacht auf der Webseite aktiv. In einem ganzen Jahr wären das 52.560 Verliebte. Wenn die Seite eine Million Kunden hat, verlieben sich also nur 5 Prozent der Singles binnen eines Jahres. Nach zehn Jahren hätte also ungefähr die Hälfte der Kunden ihre wahre Liebe gefunden. Sollte die Seite mehr als eine Million zahlende Kunden haben, ist die wahrscheinliche Wartezeit noch länger. Mit anderen Worten: Es besteht die reale Aussicht, dass Sie bis ins hohe Alter suchen und zahlen. Studien zeigen, dass man in örtlichen Online-Communities oder im täglichen Leben genauso schnell den idealen Partner fürs Leben finden kann. Amors Pfeil trifft unerwartet. Das Beispiel zeigt, dass man mit etwas Mitdenken oft schnell sehen kann, wie gut Algorithmen sind. In einer Welt, die immer mehr von Algorithmen bevölkert wird, ist es wesentlich, selbst zu denken. •
Gerd Gigerenzer ist Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung in Berlin. Er trainiert Manager, amerikanische Bundesrichter und deutsche Ärzte im Umgang mit Risiken. Jüngst erschien sein Buch „Klick. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen“ bei C. Bertelsmann.
Weitere Artikel
Gerd Gigerenzer: „Wir sollten die Illusion der Gewissheit verlernen“
Wie können wir uns in einer unsicheren Gegenwart richtig entscheiden? Der Psychologe und Risikoforscher Gerd Gigerenzer über gelingende Kontingenzbewältigung und die Kraft der Intuition.

Luciano Floridi: "Digitale Unternehmen haben ontologische Macht"
„Onlife“, „Infosphäre“, „4. Revolution“, mit diesen Begriffen beschreibt Luciano Floridi die neue Lebensform des digitalen Menschen. Der Philosoph sieht ein Zeitalter nahen, in dem Unternehmen wie Facebook oder Google unser Wirklichkeitsverständnis zunehmend prägen – und manipulieren
Michael Seemann: „Plattformen machen Kapitalisten zur austauschbaren Infrastruktur“
Der Kulturwissenschaftler Michael Seemann hat mit seinem neuen Buch eine Theorie der Plattform vorgelegt. Im Interview argumentiert er, warum der Datenschutz die Macht von Facebook & Co sichert, letztere ein post-individuelles Kontrollregime bilden und wir einen neuen Strukturwandel der Öffentlichkeit erleben.

Gerd Kempermann: „Die allermeisten Gedanken können ergangen werden“
Wenn Philosophen in Säulenhallen lustwandeln oder auf einsamen Waldspaziergängen dem Gang der Welt nachgrübeln, dann kann der Neurowissenschaftler Gerd Kempermann das erklären: Gehen ist dem Denken zuträglich, weil Gehirne überhaupt erst im Zusammenhang mit der Bewegung entstanden sind.

Was riskieren wir?
Mit Blick auf ihre Forschung und Erfahrung befürchten Gerald Knaus und Gerd Koenen einen Eroberungswillen Putins über die Ukraine hinaus, dem es entschlossen entgegenzutreten gelte. Julian Nida-Rümelin betont als Risikoforscher die Gefahr einer Ausweitung des Krieges unter Einsatz von Nuklearwaffen. Ein Gespräch über Fragen, die unsere Zukunft entscheiden.

Kann uns die Liebe retten?
Der Markt der Gefühle hat Konjunktur. Allen voran das Geschäft des Onlinedatings, welches hierzulande mit 8,4 Millionen aktiven Nutzern jährlich über 200 Millionen Euro umsetzt. Doch nicht nur dort. Schaltet man etwa das Radio ein, ist es kein Zufall, direkt auf einen Lovesong zu stoßen. Von den 2016 in Deutschland zehn meistverkauften Hits handeln sechs von der Liebe. Ähnlich verhält es sich in den sozialen Netzwerken. Obwohl diese mittlerweile als Echokammern des Hasses gelten, strotzt beispielsweise Facebook nur so von „Visual-Statement“-Seiten, deren meist liebeskitschige Spruchbildchen Hunderttausende Male geteilt werden. Allein die Seite „Liebes Sprüche“, von der es zig Ableger gibt, hat dort über 200 000 Follower. Und wem das noch nicht reicht, der kann sich eine Liebesbotschaft auch ins Zimmer stellen. „All you need is love“, den Titel des berühmten Beatles-Songs, gibt es beispielsweise auch als Poster, Wandtattoo, Küchenschild oder Kaffeetasse zu kaufen.
Gaslighting: Die Verdunkelung der Seele
Gaslighting gehört zu den weitverbreitetsten und gefährlichsten Formen der zwischenmenschlichen Manipulation. Um zu verstehen, wie es funktioniert und wie man sich dagegen wehren kann, hilft ein Blick in das Werk Michel Foucaults.

Judith Butler und die Gender-Frage
Nichts scheint natürlicher als die Aufteilung der Menschen in zwei Geschlechter. Es gibt Männer und es gibt Frauen, wie sich, so die gängige Auffassung, an biologischen Merkmalen, aber auch an geschlechtsspezifischen Eigenschaften unschwer erkennen lässt. Diese vermeintliche Gewissheit wird durch Judith Butlers poststrukturalistische Geschlechtertheorie fundamental erschüttert. Nicht nur das soziale Geschlecht (gender), sondern auch das biologische Geschlecht (sex) ist für Butler ein Effekt von Machtdiskursen. Die Fortpf lanzungsorgane zur „natürlichen“ Grundlage der Geschlechterdifferenz zu erklären, sei immer schon Teil der „heterosexuellen Matrix“, so die amerikanische Philosophin in ihrem grundlegenden Werk „Das Unbehagen der Geschlechter“, das in den USA vor 25 Jahren erstmals veröffentlicht wurde. Seine visionäre Kraft scheint sich gerade heute zu bewahrheiten. So hat der Bundesrat kürzlich einen Gesetzesentwurf verabschiedet, der eine vollständige rechtliche Gleichstellung verheirateter homosexueller Paare vorsieht. Eine Entscheidung des Bundestags wird mit Spannung erwartet. Welche Rolle also wird die Biologie zukünftig noch spielen? Oder hat, wer so fragt, die Pointe Butlers schon missverstanden?
Camille Froidevaux-Metteries Essay hilft, Judith Butlers schwer zugängliches Werk zu verstehen. In ihm schlägt Butler nichts Geringeres vor als eine neue Weise, das Subjekt zu denken. Im Vorwort zum Beiheft beleuchtet Jeanne Burgart Goutal die Missverständnisse, die Butlers berühmte Abhandlung „Das Unbehagen der Geschlechter“ hervorgerufen hat.