30 Jahre Mauerfall Mehr erfahren
Auf einem Notebook ist die Startseite der deutschen Wikipedia vor einem Bücherregal zu sehen

10.10.2012 | Von:
Stuart Geiger

Wer (oder was) beherrscht Wikipedia?

Zur Bedeutung von Bots

Bild eines Roboters, der einen Stift in der Hand hält und Nullen und Einsen malt, gesehen auf einer Wand in Lakenham, Norwich, UK.Roboter-Graffiti an einer Wand in Lakenham, Norwich, UK Lizenz: cc by-nc-sa/2.0/de (CC, flickr.com/photos/stevent/)
Zahlreiche andere halbautomatische Bots und Tools arbeiten nach demselben Prinzip. Sie zeigen potenziell problematische Bearbeitungen zur Prüfung an, damit der Bearbeiter sie nötigenfalls mit einem Mausklick korrigieren kann. Ein weiteres Modell konzentriert sich auf eine andere Kategorie von Aufgaben. Anders als die eigenständigen Desktop-Programme, die die Offline-Interaktion mit Wikipedia revolutionierten, erweitern Programme wie "Friendly" und "Twinkle" den Web-Browser um Funktionen, die Bearbeiter bei Routineaufgaben unterstützen. Friendly (später in Twinkle integriert) fügt beispielsweise kontextspezifische Links in Wikipedia-Artikel ein, damit ein Autor mit nur zwei Klicks vorformulierte Begrüßungen bereits beim Betrachten der Nutzerseite oder der Versionsgeschichte verschicken konnte. Ähnlich werden mit Twinkle stärker administrative Aufgaben vorbereitet (Das Prinzip aber bleibt das selbe). So kann ein Bearbeiter beispielsweise einen Artikel mit drei Klicks für die Löschung vorschlagen: mit dem ersten zum Öffnen des Vorschlagsfeldes, dem zweiten zur Auswahl aus zahlreichen vorformulierten Begründungen und dem dritten zum Abschicken. Darauf regelt Twinkle den gesamten Austausch, der im Rahmen der Wikipedia-Löschregelungen notwendig ist, um diesen Vorgang als ordnungsgemäß anzuerkennen.

Insgesamt ermöglichen die beiden Tools den Power Usern, rasch, effizient und gemäß anerkannter Verfahren zu handeln. In der Funktionsweise unterscheiden sie sich zwar von den eigenständigen Tools, die die Aufmerksamkeit des Nutzers in eine Richtung lenken, hin zu stark reglementierten Handlungsmöglichkeiten. Beide aber dienten bzw. dienen dazu, soziale Normen, organisatorische Verfahren und Diskursregeln zu konkretisieren, weil sich eine ganz bestimmte Auffassung davon, wie bestimmte Arten von Arbeiten in Wikipedia auszuführen sind, im Computerprogramm manifestierte.

Mehr als "Kraftverstärker"?

Dass Bots und Tools nach allgemeinem Verständnis nur Kraftverstärker seien, dass sie also Power Usern lediglich ermöglichten, gewohnte Arbeiten einfach effizienter und produktiver zu erledigen – diese Auffassung kann man mit diesem Wissen nicht teilen. Das mag vielleicht für die ersten Bots noch gelten: Ihre Funktionen hätte theoretisch ein eigens dafür eingesetzter Bearbeiter ewig wiederholt ausführen können – etwa das manuelle Kopieren und Einsetzen von Artikeln der 1911 Encyclopedia Britannica oder die Suche und Korrektur nach "Untied States of America" . Aber: Nachdem Bots und Tools erst einmal nahezu in Echtzeit funktionierten, machten sie es praktisch unmöglich, Artikel anders als auf eine bestimmte, algorithmisch determinierte Art und Weise zu bearbeiten. Sie wurden zu Gatekeepern (quasi "Schrankenwärtern" ) einer bestimmten Vorstellung der Inhalte. Oder angelehnt an Bruno Latours berühmte Unterscheidung zwischen einem englischen Butler und einem automatischen Türschließer müsste man sagen: Bots und die toolunterstützten Benutzer wurden eher zu echten "Schranken" als nur zu Schrankenwärtern, betrachtet man, wie tief bestimmte automatisierte Ausschlussverfahren sowohl in die technologische Infrastruktur der Wikipedia als auch in ihre soziale Struktur bereits verankert waren. Ein Beispiel: Seitdem ein Bot Signaturen "vergesslicher" Benutzer automatisch hinzufügt – was vor seiner Entwicklung routinemäßig von Wikipedianern manuell erledigt wurde –, sind Signaturen und Zeitstempel bei Kommentaren Vorschrift. Sehr zum Missfallen einer kleinen aber lautstarken Minderheit, die Signaturen und Zeitstempel in ihren Kommentaren ablehnt. Ebenfalls wegen bestimmter Bots wurden Urheberrechtsangaben beim Hochladen von Bildern verbindlich vorgeschrieben, was für kurze Zeit zu hitzigen Kontroversen führte. Denn nun wurden urheberrechtlich geschützte Bilder, die aber nach dem angloamerikanischen Rechtsgrundsatz des Fair Use (der angemessenen Verwendung) unter bestimmten Voraussetzungen legal verwendet werden dürfen, von einem Bot systematisch aus der Enzyklopädie entfernt.

Das soll nicht heißen, dass manche Tools nicht tatsächlich als Kraftverstärker wirkten. Sie versetzten Wikipedia-Autoren und andere durchaus in die Lage, Beiträge viel effizienter zu überprüfen und oder Beiträge gar nicht erst anzunehmen Dass hierfür allerdings entscheidende Aspekte dieses Vorgangs automatisiert wurden, wirkte sich nachhaltig darauf aus, wie die Wikipedianer als Gemeinschaft mit Neulingen kommunizierten. Mit Ausnahme von "Friendly" wurden alle anderen Bots und Tools dazu entwickelt, nicht ganz perfekte Beiträge und ihre Bearbeiter zu ermitteln, sie über ihre Fehler zu informieren und sie vor den Folgen bei ähnlichen Fällen zu warnen. Da Kritisieren und Warnen jetzt automatisiert waren, Begrüßen und Loben hingegen nicht, nahmen Kritik und Warnungen nun in höherem Maße zu. Folge dieser Entwicklung: Seit 2006 dominieren die Bots die Verständigung zwischen den Wikipedianern. Bis Ende 2007 erhielt die Hälfte aller neuen Wikipedia-Nutzer ihre erste Nachricht von einem Tool oder Bot. Der Anteil stieg bis Mitte 2008 auf 75%, und er steigt in ähnlichem Tempo bis heute.

Fazit: Bots heute und morgen

Auch 2012 sind Bots aus der globalen Produktion von Wikipedia-Artikeln nicht mehr wegzudenken. Gemessen an der Zahl der Artikelbearbeitungen sind 17 der zwanzig produktivsten Bearbeiter vollautomatische Bots; Überprüfungen werden nach wie vor von halbautomatischen Tools dominiert. Während die ersten Bots noch dem Verfassen neuer Artikel und dem Aufbau der Enzyklopädie dienten, fungieren moderne Bots als Immunsystem, das die Wikipedia vor schädlichen Bearbeitungen schützt. Die Frage ist nun: Sind wir mit diesen Bots vielleicht zu weit gegangen? Gibt es für sie möglicherweise andere Aufgaben? In diesem Zusammenhang erwähnenswert ist der vieldiskutierte Rückgang der Autorenzahlen seit dem Höchststand 2007–2008. Sogar langjährige Mitarbeiter haben sich von dem Projekt abgewendet, und es gibt nicht genug neue Autoren. Damals wurde Wikipedia als unzuverlässig kritisiert da sie sich selbst als die Enzyklopädie propagierte, an der jeder mitwirken könne.

Heute hingegen wird sie kritisiert, weil ihre Artikel unglaublich schwierig zu bearbeiten seien. Die Medien kolportieren Fälle, in denen sogar Beiträge von Hochschulprofessoren abgelehnt werden; und viele Persönlichkeiten des öffentlichen Lebens äußern ihren Unmut darüber, Fehler in ihren Biographien nicht korrigieren zu können. Zudem geriet die Wikipedia in die Kritik aktueller Untersuchungen , denen zufolge unverhältnismäßig viele Bearbeiter junge männliche US-Amerikaner und Europäer seien.

Es wäre sicherlich überzogen zu behaupten, Bots seien die Ursache allen Übels.Die Art und Weise, wie Bots einen raschen und reibungslosen Ablehnungsmodus ermöglichten, mag auch die Hoffnung wecken, sie könnten einmal sinnvoll dafür verwendet werden, Mitarbeiter zu werben und zu halten. Derzeit läuft im Umfeld der Wikimedia Foundation eine ganze Reihe von Versuchen, die zeigen soll, wie Nachrichten, die Bots bei der Ablehnung von Artikeln verschicken, positiv formuliert werden könnten. Die Überlegung dabei ist Folgende: Wenn Bots freundlicher und konstruktiver würden, könnten sie den Bearbeitern helfen, eine Ablehnung zu verwinden, und sie motivieren, sich künftig an die häufig komplizierten Wikipedia-Regeln zu halten. Da zahlreiche Wikipedia-Autoren und Mitarbeiter der Wikimedia Foundation sich dafür engagieren, die Website benutzerfreundlicher zu gestalten, wird sich wohl ein Großteil neuer Forschungen und der Software-Entwicklung auf solche Bots und Tools richten, die Neulingen helfen, sich als Bearbeiter zu verbessern. Wenn beispielsweise jemand einen Artikelabschnitt verfasst und darin eine MySpace-Seite zitiert, macht derzeit mit einiger Sicherheit noch ein "Anti-Spam-Bot" die Bearbeitung prompt rückgängig. In Zukunft aber ist vorstellbar, dass stattdessen ein schon während der Eingabe ein Hinweis im entsprechenden Textfenster erscheint. Fügt ein Benutzer also einen Link ein, der eigentlich entfernt werden müsste, kann er höflich darauf hingewiesen und über die Gründe aufgeklärt werden – und die Chance bekommen, eine alternative Quelle anzugeben. Ebenso denkbar sind Bots, die verunsicherte Neulinge mit erfahrenen Bearbeitern als Mentoren zusammenbringen – oder sogar selbst als Mentoren dienen und neue wie alte Wikipedianer durch die enzyklopädische Wildnis führen.

Der Text basiert auf einem englischen Beitrag aus dem Reader zur Konferenz "Wikipedia: Ein kritischer Standpunkt" Geert Lovink and Nathaniel Tkacz (Hrsg.)(2011): Critical Point of View: A Wikipedia Reader

Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Stuart Geiger für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Ein Wordle aus dem Einführungstext des Dossiers.
Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Dossier deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite.

Mehr lesen

Alles auf Grün - Bild einer Ampel, auf der 'Go' zu lesen ist.
Dossier

Open Source

Open Source-Software ist das Paradox der Wissensgesellschaft: Programmierer verschenken ihr wertvollstes Gut – und begründen eine soziale Bewegung, die weltweit das Wissen befreien will.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de