Lionel Barbe: „Editionskriege auf Wikipedia sind nicht zwangsläufig schlecht“
Der Krieg in der Ukraine wird auch auf Wikipedia ausgetragen. Der Professor für Informations- und Kommunikationswissenschaften, Lionel Barbe, analysiert die Fortführung des Kampfes mit digitalen Mitteln.
Russland erklärte kürzlich, dass es die russische Version der Wikipedia-Plattform zensieren wolle, sollte die digitale Enzyklopädie die „Falschinformationen“ über den Krieg in der Ukraine nicht löschen. Hätte man damit rechnen müssen?
Diese Drohung kommt nicht überraschend. Russland greift alle Informationsnetzwerke an, die nicht in seinem Sinne agieren. Und Wikipedia spielt heute als Informationsquelle eine sehr wichtige Rolle. Sie ist die weltweit führende digitale Wissensplattform. Nichtsdestotrotz könnte der Kreml die russische Version von Wikipedia nicht einfach zensieren oder gar weltweit stilllegen lassen. Die Datenmenge der Enzyklopädie ist nicht besonders groß, so dass sie relativ leicht hochgeladen werden kann. Und sie ist ganz bewusst dezentralisiert – anders als Soziale Netzwerke wie Facebook, die qua Gerichtsurteil auf eine Art und Weise aufgebaut sein müssen, die sie leichter kontrollierbar macht. Was Moskau hingegen tun könnte, ist den Zugang in Russland zu verbieten, um so die russische Bevölkerung daran zu hindern, die Plattform zu verwenden. Dies stellt die Machthaber jedoch unmittelbar vor ein Problem: Denn dann würde die russische Website hauptsächlich von russischsprachigen Personen außerhalb des Landes mit Informationen versorgt werden, die dem Regime im Allgemeinen wenig wohlgesonnen sind. Der Kreml könnte auch – wie erst kürzlich wieder in Weißrussland geschehen – einige der Mitwirkenden der Seite verhaften und hinter Gitter bringen. Die Community der Website bemüht sich nach Kräften, die Nutzer zu anonymisieren, um gegen diese Risiken gewappnet zu sein – doch die Vorsichtsmaßnahmen sind nicht immer ausreichend. Eine Strategie der Verteidigung ist es, immer wieder Artikel über solche Verhaftungen zu veröffentlichen.
Neben diesen offiziellen Drohungen waren zuletzt diejenigen Einträge, die mit dem Krieg in der Ukraine in Verbindung stehen, Schauplatz von sogenannten „Editionskriegen“ zwischen Anhängern der russischen und der ukrainischen Seite. Handelt es sich dabei um individuelle Initiativen oder um politische Einflussnahme?
Editionskriege dieser Art sind auf Wikipedia nicht neu und auch nicht zwangsläufig schlecht. Sie sind ein fester Bestandteil der Geschichte der Enzyklopädie. Die Community der Nutzer strebt nach einem „neutral point of view“, einer einvernehmlichen „Objektivität“, die alle Standpunkte widerspiegeln soll. Konflikte sind Teil dieses Prozesses. Es geht darum, die Gegensätze zu überwinden, gegebenenfalls durch Abstimmung, aber immer mit dem Ziel, einen Konsens zu erreichen. Die Diskussionen haben das Ziel, sich auf eine Version zu einigen, die für alle akzeptabel ist. Jenseits dieser teils erbitterten Konflikte gibt es natürlich auch Nutzer auf Kollisionskurs, deren Mission es ist, ihren Standpunkt zu verteidigen... Das hat man in einem größeren Maßstab im Fall von Éric Zemmour gesehen, dem zweitstärksten Kandidaten der extremen Rechten bei der diesjährigen Präsidentschaftswahl in Frankreich. Im Zuge seiner Kampagne hat eine organisierte Gruppe versucht, Einträge der Enzyklopädie zu verändern, um so Einfluss zu nehmen. Auch Prominente sind zunehmend bereit, Zeit für ihre Wikipedia-Seite zu investieren. Doch die Enzyklopädie hält diesen Einflussnahmen im Allgemeinen gut stand und erstarkt so nach und nach.
Inwiefern erstarkt sie?
Seiten mit sensiblen Inhalten sind in der Regel geschützt, das heißt nicht allen zur Änderung freigegeben: Nur Nutzer mit dem Attribut „autopatrolled“ – also jene, die mehr als 500 Beiträge auf ihrem Konto haben – können Änderungen daran vornehmen. Vor allem aber ist Wikipedia „anti-fragil“: Je öfter eine Seite angegriffen wird, desto mehr Aufmerksamkeit und Mobilisierung der Community erfährt sie durch den „Streisand-Effekt“. Die führt letztendlich zu einer besseren, zuverlässigeren Version des Artikels. Dies ist eine der Stärken der horizontalen und dezentralisierten Organisationen, die mit dem Internet entstanden sind. In den Debatten ist die Qualität der Argumente und damit der Quellen grundlegend für den Austausch und die Auseinandersetzungen zwischen den Beitragenden. Ein Nutzer, der sich lediglich mit dem Ziel Beeinflussung beteiligt, wird schnell entdeckt und diskreditiert.
Bisher hält Wikipedia dem großen Zusammenprall stand. Aber lässt die Plattform gerade deshalb nicht auch viele Fehler durch, wenn die behandelten Themen weniger sensibel sind?
Dies ist in der Tat eine Schwachstelle, die gelegentlich angesprochen wurde. Themen mit einem kleineren Publikum rufen weniger Wachsamkeit hervor. So hatte der Wissenschaftsjournalist Pierre Barthélémy 2017 auf der Seite über Leophanes, einen recht unbedeutenden griechischen Gelehrten, absichtlich Fehler eingebaut, um die Überprüfungsmechanismen der Enzyklopädie zu testen. Die Fehler blieben tatsächlich einige Zeit lang unbemerkt. Es muss jedoch betont werden, dass die Fehler gerade deshalb unverändert bestehen bleiben konnten, weil der Artikel sich mit einem ausgesprochenen Spezialthema befasste. Kaum jemand hat die Seite in diesem Zeitraum aufgerufen. Die Glaubwürdigkeit der Enzyklopädie und die Relevanz ihrer Organisation werden durch diesen Test aus meiner Sicht also nur unwesentlich in Frage gestellt.
Wer hat die Standards aufgestellt, die diese Organisation regeln? Welche Rolle haben dabei die Nutzer gespielt?
Die Nutzer haben die volle Kontrolle über die Verfahren, auf denen die Funktionsweise von Wikipedia beruht. Und es ist auch die Community, die über die Regeln und Standards entscheidet, die diese Verfahren organisieren. Als Jimmy Wales und Larry Sanger die Enzyklopädie 2001 gründeten, diskutierten sie mit den ersten Beitragenden und stellten fünf Gründungsprinzipien auf: Neutralität der Meinungen; enzyklopädischer Anspruch; freie Lizenzen; höfliche Umgangsformen; und – der wohl wichtigste Punkt – keine weiteren festgeschriebenen Regeln. Alle Regeln – von denen es mittlerweile sehr viele gibt – wurden von der Community durch Abstimmung festgelegt und können wieder vollständig geändert werden, wenn die Nutzer sie für nicht mehr effektiv oder relevant halten. Es handelt sich um ein entwicklungsfähiges Modell, was wiederum die große Stärke der Enzyklopädie ist. Die Wikimedia-Stiftung, die die Enzyklopädie hostet, hat weder Einfluss auf diese Regeln noch auf die Inhalte. Dies gilt auch für die „technischen“ Funktionen, die von einer kleinen Anzahl von Nutzern, die zu „Administratoren“ gewählt wurden, übernommen werden. Aber auch eine Entscheidung – wie der Ausschluss von der Plattform – beruht auf einer Abstimmung unter den Administratoren. Wikipedia basiert auf Diskussion und dem Austausch von Argumenten, nicht auf dem Willen eines einzelnen Teilnehmers.•
Lionel Barbe ist Dozent für Informations- und Kommunikationswissenschaften an der Pariser Nanterre-Universität.