>>> Alles zur Bundestagswahl 2017 <<<
Auf einem Notebook ist die Startseite der deutschen Wikipedia vor einem Bücherregal zu sehen

Offene Grenzen?

Open Access und Peer-Reviewing


10.10.2012
"Wissen ohne Gütesiegel" oder " Wissen von allen für alle“? Rainer Kuhlen seziert Wikipedia und Wissenschaft auf der Suche nach gemeinsamen (Qualitäts-)Kriterien: Handelt es sich dabei tatsächlich nur um Gegensätze?

Bibliothek im IG-Hochhaus auf dem Campus Westend der Goethe-Universität Frankfurt"Wissen ohne Gütesiegel" oder " Wissen von allen für alle“? - wo liegen die Stärken der Wikipedia? (CC) Lizenz: cc by/3.0/de

Wikipedias Potenzial



Wikipedia erhebt keinen Anspruch, Wissenschaft zu sein, und produziert im klassischen Verständnis von Wissenschaft auch kein neues Wissen: Wikipedia stellt laufend erarbeitetes Wissen dar und für die freie Nutzung bereit. Allerdings kann auch Aufbereitung und Darstellung ein Beitrag für neues Wissen sein – altes neu dargestellt. Die Wikipedia gesteht durchaus zu, dass sie im Unterschied zu herkömmlichen Enzyklopädien (und im Unterschied zur Wissenschaft selber) keine Gewähr für die Richtigkeit und Vollständigkeit ihrer Artikel geben könne. So empfahl sogar Wikipedia-Gründer Jimmy Wales 2006 bei einem Vortrag an der Universität Pennsylvania, den Studierenden Wikipedia nicht als Grundlage für seriöse Forschung zu verwenden.

In der Wissenschaft wird das Publikmachen von Wissen ohne Gütesiegel bzw. ohne etablierte Qualitätskontrolle (Peer-Review) zumindest als Risikofaktor eingeschätzt. Daher wird auch in wissenschaftlichen Primärveröffentlichungen eine Referenz auf einen Wikipedia-Artikel kaum akzeptiert . All das mag sich ändern, zumal die Wikipedia, an vorderster Front in Deutschland, immer stärker darum bemüht ist, Wissenschaftler in die Arbeit der Wikipedia-Projekte mit einzubeziehen. Auch jetzt schon verhilft die unglaublich große Wissensbasis zweifellos dazu, dass sich neue Spitzen einer exzellenten Wissenschaft entwickeln können. Auf den Schultern von "Riesen"und "Zwergen"[1] (Wissen von allen für alle) entsteht neues Wissen. Folgenreicher mag sein, dass die der Wikipedia zugrundeliegenden Prinzipien der offenen freien Nutzung und des kollaborativen Prinzips (für Aufbereitung und Weiterentwicklung von Wissen) Einfluss auf die normativen Einstellungen für den Umgang mit Wissen und Information insgesamt haben sollten. Dem normativen Wandel zugunsten einer freien Nutzung wird in einer Parallelentwicklung auch über das Open-Access-Prinzip in der Wissenschaft Rechnung getragen, ähnlich wie das kollaborative Arbeiten durch die Open/Free-Source-Software-Bewegung als möglich und erfolgreich bewiesen wurde. Ob sich dieses kollaborative Arbeiten auch in der Wissenschaft durchsetzen wird und zu einer Auflösung des klassischen individualistischen Autorenbegriffs und des geschlossenen unverrückbaren wissenschaftlichen Werks beitragen wird, ist weiter eine offene Frage.

1. Offene Grenzen zwischen Wikipedia und Wissenschaft



Wikipedia ist heute mehr als nur eine Enzyklopädie aus freien Inhalten, ebenso wenig wie Google heute nur eine Suchmaschine ist. Die Enzyklopädie hat viele Schwesterprojekte, so gehören zur Wikipedia neben einigen anderen das Wörterbuchprojekt Wiktionary, Wikibooks, Wikiversity, Wikisource, Wikispecies und das jüngste Projekt Wikidata.

Ihnen ist gemeinsam, dass ihre Inhalte frei sind und dass die Inhalte gemäß dem kollaborativen Paradigma erstellt und weiter entwickelt werden . Ebenso ist ihnen gemeinsam, dass sie auf vielfältige Weise Strukturen entwickelt haben, die der Ordnung, der Orientierung und vor allem der Qualitätssicherung, einschließlich der Vermeidung von Missbrauch (Vandalismus), dienen. Alle diese Projekte haben großes Potenzial, stärker als bislang in die Bereiche Bildung und Wissenschaft hinein zu wirken. Dieser Beitrag konzentriert sich zunächst auf das Zentrum der Wikipedia, also auf die Enzyklopädie (überwiegend auf die deutsche Version), und hier vor allem auf die methodischen Aspekte, die auf Bildung und Wissenschaft vielleicht sogar einen größeren Einfluss haben, als es die Enzyklopädie für sich tut.

2. Erfolg und Qualität



Sind Wissenschaft und Wikipedia Gegensätze? – Das ist die zentrale Frage dieses Beitrags. Was könnten dafür die Kriterien sein? Kriterien auf einer sehr hohen Ebene könnten sein, mit welchem Erfolg und mit welcher Qualität Wissen der Öffentlichkeit zur Verfügung gestellt wird. Erfolg und Qualität sind nicht das gleiche, sie können, müssen sich aber auch nicht widersprechen. Bei der Wissenschaft ist es leichter, auch wenn das zuweilen ambivalent gesehen wird: Der Erfolg der Wissenschaft ist ihre Qualität - wie immer das auch im Detail definiert wird.

2.1 Erfolg

Über den Erfolg der Wikipedia muss man nicht lange streiten. Der Anspruch, das Wissen der Welt allen Bürgerinnen und Bürgern zur Verfügung zu stellen, damit sie ihre privaten, wirtschaftlichen und öffentlichen Geschäfte informationell abgesichert betreiben können, wird zwar wohl nie ganz eingelöst werden können. Aber die Wikipedia kommt dem schon sehr nahe. Eindrucksvoll ist schon die schiere Menge: Alleine die deutsche Wikipedia-Version, die zweitgrößte nach der englischsprachigen, enthält (mit Stand Juli 2012) 1,4 Millionen Artikel.

Als Erfolg wird vor allem die intensive Nutzung angesehen. Die Wikipedia steht in der Tat allen Menschen mit Internet-Anschluss orts- und zeitunabhängig nicht nur zur Verfügung, sondern gehört auch zu den meist genutzten Webdiensten. Und hat so die Druckversionen großer Enzyklopädien abgehängt.

Als Erfolg kann auch gewertet werden, dass zwar nach wie vor die englische Version die weitaus größte ist, dass jedoch in weitgehender inhaltlicher Autonomie (und mit der gleichen Basissoftware) überall regionale bzw. sprachspezifische Wikipedien entstanden sind, derzeit in ca. 280 Sprachversionen. Die Wikipedia in ihrer Gesamtheit trägt somit nicht unwesentlich zum Erhalt und zur Pflege des jeweiligen kulturellen und nationalen Erbes der vielfältigen Regionen der Welt bei.

Der Erfolg der Wikipedia unter dem Gesichtspunkt der Rezeption beruht natürlich auch auf der freien Verfügbarkeit aller dort angebotenen Informationen. Wikipedia ist das prominenteste Beispiel für die Open-Content-Bewegung. Für die Wikipedia ist festgelegt, was "frei” bedeutet: "the freedom to use, the freedom to study, the freedom to copy, the freedom to redistribute, and the freedom to improve those works.” Es ist nicht zu verkennen, dass dieses Verständnis von "frei"auf die freie offene Software-Bewegung zurückgeht. Entsprechend standen bis 2009 die Wikipedia-Artikel unter der GNU-Lizenz für freie Dokumentationen. Seit 2009 gilt für diese Texte auch die Creative Commons-Lizenz "Attribution-ShareAlike 3.0 Unported".

Der wohl entscheidende, wenn auch immer wieder als kritisch angesehene Faktor für den Erfolg der Wikipedia ist, dass die Erstellung der Inhalte nicht von der Fachautorität einzelner Experten abhängt, sondern von der Zusammenarbeit vieler Personen, die auf verschiedenen Fachgebieten kompetent sind und über unterschiedliche Expertise (und sei es auch nur in der Rechtschreibung) verfügen. Die hohe Beteiligung ist zweifellos auch auf die Wiki-Software zurückzuführen, die es jedermann ohne größere Einarbeitung erlaubt, sich an der Erstellung und kontinuierlichen Weiterentwicklung der Inhalte zu beteiligen. Bisher haben international etwa 1.538.903 angemeldete und eine unbekannte Zahl nicht angemeldete Nutzer zur Wikipedia beigetragen. Fast 7.000 Autoren arbeiten regelmäßig bei der deutschsprachigen Ausgabe mit (Stand Juli 2012).

Die starke Überlappung von Nutzern und Produzenten gilt für die Wissenschaft sicherlich in noch höherem Maße. Denn hier sind alle Produzenten von Wissen immer auch schon Nutzer von Wissen. Wissen entsteht nicht aus dem Nichts, sondern setzt immer auf schon vorhandenem Wissen auf, das Andere hervorgebracht haben.

Die Anderen müssen nicht immer die Riesen sein – wie man es Isaac Newton zuschreibt, der seine Leistungen dadurch erklärte, weil er "auf den Schultern von Riesen stehe"-, sondern können durchaus auch die Zwerge sein. Dies hat Jürgen Renn in seinem Einstein-Buch sehr schön formuliert und so zu einer "Ehrenrettung"auch des Alltagswissens beigetragen: "Die spannende Geschichte von Einsteins Entdeckungen bietet wie kaum eine andere Episode der Wissenschaftsgeschichte die Chance zu klären, warum große Denker wie Einstein weitergesehen haben als ihre Vorgänger. Sie standen nämlich nicht nur auf den Schultern von "Riesen", also den wissenschaftlichen Leistungen einzelner großer Vorgänger wie Newton, sondern auch auf den Schultern von "Zwergen", dem wissenschaftlichen Wissen, dem technischen Wissen und dem Alltagswissen, das Generationen im Verlaufe der Menschheitsgeschichte angehäuft haben."Die "Riesen"und "Zwerge"sorgen auch in der Wikipedia für die enzyklopädische Anhäufung von Wissen.

Könnte man daraus also die Hypothese ableiten, dass die Wikipedia - sozusagen das kumulierte Wissen der "Zwerge"- nicht nur jedermann hilft, etwas mehr darüber zu wissen, was die Welt in ihrem Innersten zusammenhält, sondern auch die Entwicklung der Wissenschaft selber befördert? Spitzenleistungen der Wissenschaft (wie auch auf allen anderen Gebieten) sind nur möglich, wenn sie auf eine breite Basis des schon erstellten Wissens aufbauen können. Der Beitrag der Wikipedia zur Bildung dieser Basis schon in der Gegenwart kann gar nicht hoch genug eingeschätzt werden. Natürlich wird heute und wohl auch in der Zukunft Wissenschaft betrieben, ohne dass eine Auseinandersetzung mit dem in der Wikipedia repräsentiertem Wissen erfolgt. Dennoch: Forschung, so könnte man es auf die Spitze treiben, braucht die Basis der Wikipedia.

Wir wollen den Zusammenhang zwischen den "Riesen" und den "Zwergen" nicht überstrapazieren. Immer mehr arbeiten auch die Riesen in der Wikipedia mit. Oder anders formuliert: Nicht zuletzt durch die Anstrengungen und Projekte des Vereins "Wikimedia Deutschland - Gesellschaft zur Förderung Freien Wissens" unternimmt es die Wikipedia immer mehr, sich der Expertise der Wissenschaft zu vergewissern.

Dies hatte August 2005 sozusagen mit dem Ritterschlag für die Wikipedia durch die Deutsche Bibliothek (heute Nationalbibliothek) begonnen, als diese mit Wikipedia vereinbart hatte, dass den Personenartikeln von wikipedia.de ein Verweis beigegeben wird, der direkt zu dem entsprechenden Eintrag der in der Deutschen Bibliothek gepflegten Personennamendatei (PND) führt.

2.2 Kollaboration

Der Erfolg der Wikipedia beruht nicht nur auf der großen Anzahl der ehrenamtlich arbeitenden Autoren. Entscheidender ist vielleicht die Form, die Art, in der einmal erstellte Artikel fortlaufend weiterentwickelt werden. Fast ist man versucht, den McLuhan‘schen Aphorismus "The media is the message"hier anzuwenden. Gewiss ist auch der Inhalt die Botschaft der Wikipedia, aber die (kollaborative) Form, das Medium, ist das attraktiv neue Prinzip der Produktion und Weiterentwicklung von Wissen und dürfte ebenso den Erfolg ausmachen wie der riesige Output und die enorme Nutzung selber. Kollaboration ist sicher keine Erfindung der Wikipedia, aber die quasi Universalisierung dieses Prinzips lässt erahnen, dass es keineswegs auf die Wikipedia beschränkt bleibt.

Die dem Kollaborationsprinzip zugrundeliegende Hypothese, wie sie auch beim eLearning angewendet wird, geht davon aus, dass kollaboratives Arbeiten zwar nicht unbedingt effizienter ist, aber zu einem höherwertigen Ergebnis führt als durch die Summe vieler Einzelbeiträge. Kollaboration, so die Annahme, sollte es erleichtern, unterschiedliche Positionen und Sichten auf ein Thema einzubringen, vorschnelle Festlegungen auf einen erreichten Wissensstand zu vermeiden und entstandene Fehler zu bemerken und zu beseitigen.

Die gegenüber der Wikipedia auch immer wieder kritisch angebrachte These besagt genau das Gegenteil: Kollaboration, zumal ohne Anerkennung von Wissenshierarchien und qualifizierten Fachautoritäten, führe nicht zu einer Exzellenz von Artikeln, sondern schließlich zu mittelmäßiger, nivellierender Qualität.. Spitzenleistungen seien letztlich immer Leistungen einzelner Personen sind. Ob das nach wie vor weiterhin in der Großforschung speziell in den Natur- und Technikwissenschaften oder in der Medizin richtig ist, sei dahingestellt. Die Wikipedia versucht sich der Mitarbeit von qualifizierten Wissenschaftlern zu vergewissern und bietet dafür entsprechende Teilbereiche Portale an. Kollaboration ist etwas anderes als Kooperation oder koordinierte Arbeit. Bei dem fortgeschrittenen Stand der Wikipedia-Entwicklung sind auch Kooperations- und Koordinationsformen nötig geworden. Nach wie vor ist für die Wikipedia entscheidend, dass zum einen gemäß des kollaborativen Ansatzes für die Inhalte nicht einzelne Autoren verantwortlich gemacht werden können - im Prinzip zumindest. In der Regel geht die Initiative meistens von einzelnen Autoren aus, "seltener von kollektiv arbeitenden Autoren”, aber entscheidend ist, dass nach der Veröffentlichung dieser Beitrag "gemeinschaftlich korrigiert, erweitert und aktualisiert” wird . Jedermann - ohne Nachweis von Kompetenz oder Autorität kann mitwirken - in vielen Fällen auch ohne Anmeldung, anonym und nur referenzierbar über die IP-Adresse. Zum andern gibt es bei Wikipedia-Artikeln keine Garantie für Stabilität. Wikipedia-Beiträge sind grundsätzlich offen für Weiterentwicklung. Eine Referenz auf einen Wikipedia-Artikel sollte eigentlich immer mit einem Zeitstempel versehen sein.

Beides – Verzicht auf Autorität und auf Stabilität des Werks - ist schwer mit dem auf langer Tradition beruhendem Wertverständnis der Wissenschaft in Einklang zu bringen. Glaubwürdigkeit und Vertrauen in die Richtigkeit des dargestellten Wissens beruhen in der Wissenschaft auf der Autorität der jeweiligen, immer erkennbaren und auch über ihre Institution identifizierbaren Autoren. Deren Arbeit wird von anderen Autoritäten überprüft und, wenn die Standards wissenschaftlichen Arbeitens eingehalten sind, auch anerkannt. Auch wenn der wissenschaftliche Prozess immer offen für Korrektur und Weiterentwicklung ist, so ist doch das einmal veröffentlichte Werk stabil und wird Jahre später noch in der gleichen Form einsehbar sein, wie zum Zeitpunkt der Veröffentlichung.

2.3 Qualität

Erfolg sagt natürlich nicht alles über die Qualität der in der Wikipedia angebotenen Beiträge aus, auch wenn Zugriff und Aktualität auch schon als Qualitätskriterien herhalten können. Erst recht dürfte auch das Kollaborationsprinzip trotz einer ambivalenten Einschätzung als Qualitätsmerkmal angesehen werden.

Die anfängliche Skepsis an der Seriosität, der Qualität, der Unwissenschaftlichkeit der Artikel in der Wikipedia ist längst einer sich beruhigten Akzeptanz gewichen. Dazu haben verschiedene vergleichende Evaluierungen beigetragen. Bereits im Oktober 2004 bestätigte eine Studie der Computerzeitschrift c't (Ausgabe 21/04) der Wikipedia auf der Basis einer Stichprobe von 60 bis 70 Artikeln eine vergleichbare oder sogar höhere Korrektheit gegenüber entsprechenden Artikeln in digitalen Nachschlagewerken wie Microsoft Encarta Professional 2005 und Brockhaus multimedial 2005 Premium. Kurze Zeit später kam ein Lexikavergleich in der Wochenzeitung Die Zeit zu dem gleichen Ergebnis. Besonders wirksam war die ebenfalls schon ältere, allerdings nicht unumstrittene Nature-Studie von 2005, die nahegelegt hatte, dass es in der Qualität keine deutlichen Unterschiede zwischen der Wikipedia und traditionellen Enzyklopädien und Lexika gebe.

Müssen die hohen Standards der Wissenschaft auch auf die Wikipedia angewendet werden? Nutzer der Wikipedia erwarten in der Regel keine Wahrheit, auch nicht den aktuellen Stand der Wissenschaft in der Sprache der Wissenschaft (obgleich viele Artikel dem oft genug erstaunlich nahe kommen). Sie erwarten Relevanz der Inhalte, für welchen Zweck auch immer. Was für den Astrophysiker banal oder auch ungenau sein mag, kann für den (aus welchen Gründen auch immer) an Schwarzen Löchern Interessierten eine hochgradig willkommene Information sein. Diese Offenheit der Nutzung für heterogene Nutzerkreise ist sicher einerseits das Plus der Wikipedia, andererseits führt das Fehlen einer deutlich definierten Zielgruppe zu einer großen Bandbreite bei der Qualität der Artikel, aber auch beim Umfang. Aktuelle Themen werden oft über viele Seiten hinweg überintensiv behandelt. Der Beitrag zum Stop Online Piracy Act (SOPA) endet beispielsweise mit alleine 201 (!) Referenzen. Dies steht sicherlich keineswegs im Verhältnis zu der dauerhaften Bedeutung dieses Artikels.

Aber vielleicht gerade wegen der Fähigkeit, auf aktuelle Entwicklungen schnell und umfassend zu regieren, erfüllt die Wikipedia in hohem Maße den pragmatischen Primat für Information, wie er in der Informationswissenschaft entwickelt wurde. Informationen haben zunächst einmal nichts mit Wahrheit zu tun, sie entscheiden sich über deren Handlungsrelevanz bzw. Einschlägigkeit und wohl auch über Neuigkeit. Trotzdem kann es durchaus nützlich sein, Notiz von einem Wikipedia-Artikel zu nehmen, auch wenn dessen Inhalt dem Lesenden schon bekannt ist. Redundanzen haben die schöne Eigenschaft, das Gelesene in der Richtigkeitsskala etwas weiter nach oben zu rücken. Diese pragmatische Ausrichtung auf neue, aktuelle, situationsbezogene und handlungsrelevante Entwicklungen kann natürlich Wissenschaft für ihr Wissensverständnis nicht akzeptieren. Wissenschaft heißt eben nicht Informationswissenschaft. Wenn auch der Wahrheitsbegriff für Wissenschaft weitgehend aufgegeben ist und Wissenschaft immer stärker in den (gewiss auch pragmatischen) Nutzungszusammenhang und in die Verwertung nicht zuletzt in der Wirtschaft eingebunden ist, bleibt doch der primäre Zweck erhalten: Produktion von Wissen mit dem Ziel des Zuwachses an Wissen – was immer auch damit geschieht.

2.4 Qualitätssicherung durch Peer-Review?

Die Diskussionen um Qualitätssicherungsverfahren, die denen in der Wissenschaft vergleichbar sind, sind seit den ersten Anfängen nie abgerissen. Am hartnäckigsten hat sich darum sicherlich Larry Sanger bemüht -der Chefeditor des Vorläufers der Wikipedia, der 2000 begründete Nupedia. Nach ihrem Konzept einer Kontrolle von Fachautoren unter Anwendung des Peer-Review-Prinzips konnten in drei Jahren gerade mal 24 Artikel fertig gestellt werden, so dass sie 2003 den Betrieb einstellte. Der nächste Anlauf war 2006 Sangers Projekt Citizendium, bei dem auch die MediaWiki-Verwaltungssoftware zum Einsatz kommt. Sanger blieb bei seinem Qualitätsanspruch, der über Fachlektoren gesichert werden sollte. In Citizendium sollte vor allem nicht anonym gearbeitet werden können. Als Autoren waren zunächst nur Wissensexperten vorgesehen, später "reduzierte"sich das auf akademisch gebildete Personen wie Lehrer, Hochschulassistenten oder Journalisten oder wer sich sonst als Fachperson ausgewiesen hat. Andere Personen sollten quasi nur "read-only"-Status haben. Einen ähnlichen, also auf Peer-Review und Open Access beruhenden Ansatz verfolgt Scholarpedia, mit den Schwerpunkten Astrophysik und Informatik.

Ob tatsächlich dauerhaft eine "Marktlücke" für solche Peer-Review gesicherte Projekte besteht, ist sicher nicht endgültig entschieden. Es ist aber kaum anzunehmen, dass solche mit universalem enzyklopädischen Anspruch realisiert werden können. In Entwicklungen auf Spezialgebieten hat sich allerdings das kollaborative Wikiprinzips nicht nur in der Wirtschaft, sondern auch in der Wissenschaft, in Universitäten und Forschungseinrichtungen längst erfolgreich etabliert. Gerade in experimentellen Wissenschaften ist bei komplexen Fragestellungen ein Wissensgewinn nur in kollaborativer Teamarbeit möglich.

In der Wikipedia selber und in ihren Schwesterprojekten wird weiter mit Qualitätssicherungsverfahren experimentiert. Auch der Vorschlag, eine Anmeldung als Voraussetzung für den Schreibzugriff einzuführen, so dass nur angemeldete Benutzer neue Seiten anlegen können, wie Ende 2005 für die englische Wikipedia eingeführt, wurde erwogen, hat sich aber offenbar nicht bewährt bzw. wurde von der großen Mehrheit der Wikipedianer nicht akzeptiert.

Die Öffnung in Richtung einer Qualitätssicherung, wie sie in der Wissenschaft üblich ist, ist in der Wikipedia-Community schwer zu vermitteln. Die Wikipedia sollte Wissen aufbereiten und bereitstellen ohne Rekurs auf Autoritäten. Wissen sollte von etablierten Herrschaftsstrukturen freigehalten werden. Nicht Experten sollten über Richtigkeit von Wissen entscheiden, sondern die Gesamtheit der im kollaborativen Prozess Beteiligten. Das der Wissenschaft immanente Peer-Review-Prinzip ist von Seiten der Wikipedia immer skeptisch bis ablehnend eingeschätzt worden, auch wenn das Prinzip natürlich konstruktiv dadurch umgedeutet werden könnte, dass "Peers"alle diejenigen sind, die in erheblichem Umfang aktiv an der Erstellung von Inhalt beteiligt waren. Diese Personen bekommen auch in der Wikipedia besondere Eingriffsrechte, um Qualität zu sichern und Vandalismus zu bekämpfen. Aber das ist nicht das Gleiche, wie das Prinzip der "Peers"auf der Basis wissenschaftlicher Exzellenz.

2.5 Wikipedia immanente Qualitätssicherung

Zur Vermeidung von Vandalismus stellt Wikipedia den Autoren verschiedene (technische) Hilfsmittel zur Verfügung (die Administratoren verfügen über einige weitere), um solche böswilligen Veränderungen überhaupt zu erkennen und dann zu bekämpfen. Anhänger der Enzyklopädie bringen vor, dass die überwältigende Mehrheit solcher Angriffe entdeckt und innerhalb kürzester Zeit abgewehrt werden, meistens innerhalb von etwa fünf Minuten. Vandalismen wie das Leeren von Artikeln oder das Einfügen obszöner Fotografien sind normalerweise in Sekunden rückgängig gemacht. Geschickter eingeschleuste Verfälschungen verweilen möglicherweise sehr viel länger.

Vandalismus ist das eine, Fehler das andere. Entstandene Fehler können nur durch Überprüfung beseitigt werden. Je mehr verschiedene Personen eine Seite besuchen, desto höher ist die Wahrscheinlichkeit, dass Fehler entdeckt werden. Fehler in "abseitigen Themengebieten"bleiben daher häufiger unentdeckt. Ansatzweise hilft hier die 2005 erfolgte Einführung der Markierung von Artikeln als "gesichtete Version". Für die Sichtung soll ein regelmäßig in der Wikipedia aktiver Autor den Artikel durchsehen. Fachlich werden die Artikel dadurch nicht überprüft. Die Sichtung sorgt zumindest dafür, dass Vandalismus und grobe Fehler eliminiert werden. In der Wikipedia wird durch Icons markiert, ob ein Artikel gesichtet ist oder nicht.

Die Kriterien für die Akzeptanz einer Person als Sichter sind allerdings nicht sehr rigide. Sie muss z.B. mindestens 30 Tage registriert sein, sollte selber mindestens 150 Bearbeitungen getätigt haben oder mindestens 50 Bearbeitungen, die später zum Ergebnis von gesichteten Artikeln geführt haben, und sie darf nie gesperrt worden sein.
  • Neben der erwähnten Sichtung wird Artikeln die Kennzeichnung in lesenswert und exzellent zugeschrieben. Mindestkriterien für lesenswerte Artikel sind beispielsweise, dass sie fachlich korrekt sind, die Kernaspekte erfasst und die Informationen durch zuverlässige und überprüfbare Quellen belegt sind und den Wikipedia Format-Standards entsprechen. Außerdem müssen sämtliche im Artikel verwendeten Abbildungen unter einer freien Lizenz stehen.
  • Der Anteil der exzellenten Artikel – liegt seit ihrer Einführung 2004 konstant bei ca. 1,5%. Für exzellente Artikel gelten weitere Kriterien, die über die vorigen noch hinausgehen. Entscheidend ist beispielsweise, ob der aktuelle Stand der Forschung abgedeckt wird, eine ausgewogene Darstellung erfolgt, auch auf Qualität und Aktualität Quellen wird noch stärkeres Augenmerk gelegt, ebenso wie auf den sprachlichen Stil.
  • Für die deutsche Wikipedia ist zusätzlich die Kennzeichnung von Artikeln als geprüfte über ein Icon vorgesehen . Solche Artikel dürfen weder falsche Aussagen noch verfälschende Lücken enthalten. Darüber sollen entsprechend qualifizierte fachkundige Prüfer entscheiden. Es ist noch nicht endgültig entschieden, nach welchen Kriterien Prüfer als qualifiziert angesehen werden können.


3. Angebote für Wissenschaft



3.1 Portale

Für Wissenschaft ist die durch das Wiki-Projekt Portale gegebene Ordnungsstruktur besonders interessant. In Portalen werden größere Themenkomplexe systematisch zusammengefasst, die für sich wieder Teilportale enthalten können. Als "informativ"etikettierte Portale sollten dabei beispielsweise die folgenden Kriterien erfüllen:

  • Ein Portal sollte seinen Themenbereich fachlich korrekt und gut strukturiert darstellen. Es sollte dabei andererseits nicht mit Informationen überladen sein.
  • Abschnitte, die zur aktiven Mitarbeit anregen, sollten in angemessener Form vorhanden sein.
  • Es sollte eine ausgewogene Mischung aus Fließtext und Links bieten.
  • Farben sollten zweckgebunden eingesetzt sein.
  • Das Layout sollte ansprechend und fehlerfrei sein, d. h. keine großen Löcher, keine falsch platzierten Bilder, die aus Rahmen herausfallen, keine Tabellen mit fester Breite o. ä. enthalten
  • Eine aktive Betreuung und Pflege des Portals sollte erkennbar sein.


Portale können sich auf geographische Einheiten, größere Epochen der Geschichte, internationale Organisationen, Kunstrichtungen, Sportarten etc. Derzeit gibt es in der deutschen Wikipedia 535 Portale. Portale als Metainformationsdienste dienen in erster Linie der strukturierten Übersicht. Aus ihnen wird auf die einzelnen, dem Portal zugeordnete Artikel verwiesen. Der Wissenschaft ist ein eigenes (Meta-)Portal gewidmet, das insgesamt gut 40 selbständige Teilportale aus den Gebieten Ingenieurwissenschaften; Naturwissenschaft, Mathematik und Informatik; Geisteswissenschaften, Philosophie und Theologie und Sozialwissenschaften enthält. Viele, wenn auch bei weitem nicht alle Portale werden über einen Portalbetreuer koordiniert. Portale entwickeln durchaus eigene Qualitätsstandards (vgl. z.B. die ausführlichen Hinweise im Portal für die Mathematik - de.wikipedia.org/wiki/Portal:Mathematik/Mitarbeit) die auch sonst besonders aktiv in der Wikipedia vertreten ist (im Folgenden leicht gekürzt):

  1. Die Einleitung des Artikels liefert jedem eine grundsätzliche Einordnung des Gegenstandes, sowie eine klare Beschreibung des Themas.
  2. Der Artikel enthält eine Definition des Lemmas.
  3. Der Artikel enthält Belege nach Wikipedia-Quellenangaben. Als Quellen geeignet sind beispielsweise: Lehrbücher, Zeitschriftenartikel, Fachpresse, …. Reprints oder Vorlesungsskripte werden nicht als zuverlässige Quelle angesehen. …
  4. Jedes Thema ist in eine sinnvolle Kategorie einsortiert. Das vereinfacht das Suchen für den Leser und hilft auch dem Autor dabei, den Begriff ab- oder einzugrenzen. ….
3.2 Wikipedia-Projekte für Bildung und Wissenschaft

Es ist ein wahrer Balanceakt zwischen "elitärer"wissenschaftlich begründeter Expertise und dem Engagement durch die Kollaboration der Vielen. Letzteres kann die Wikipedia und in ihren vielen Projekten nicht aufgeben. Die Herausforderung besteht, beides und für beide Seiten attraktiv zu verbinden. Am ehesten sollte das über die Projekte möglich sein.

Neben dem Projekt Wikibooks als Bibliothek von Lehr-, Sach- und Fachbüchern könnte in diesem Zusammenhang vor allem die 2006 gestartete Wikiversity interessant sein. Bezieht sich die englische Version überwiegend auf Lernressourcen, so möchte die deutsche Version den weitergehenden Anspruch als Plattform "zur gemeinschaftlichen Bearbeitung wissenschaftlicher Projekte erheben, zum Gedankenaustausch in fachwissenschaftlichen Fragen und zur Erstellung freier Kursmaterialien". Wikiversity ist auf Offenheit und Austausch ausgerichtet: "Die freie und offene Zusammenarbeit mit Fachkollegen, Projektteilnehmern aus anderen Wissensgebieten und interessierten Laien führt zu einer Erhöhung von Interdisziplinarität, Transparenz und Verständlichkeit im wissenschaftlichen Forschungsprozess. Durch Wikiversity wird es räumlich getrennten Wissenschaftlern möglich, kooperativ zu arbeiten, ohne dafür eine eigene technische Infrastruktur aufbauen zu müssen." Soweit das Programm. Tatsächlich kommt das Wikiversity-Projekt nicht so recht voran. So ist unter der Kategorie "Kolloquium"zwar Platz für viele fachspezifische Kolloquien eingerichtet, aber viele sind leer oder gehen nicht über eine Platzhalterseite hinaus. Ausnahmen wie zu Biologie, Mathematik oder Physik deuten an, dass das Vorhaben Potenzial hat. Der Einstieg in aktive aktuelle Forschung ist bislang in Wikiversity allerdings kaum gelungen. Ansprechpersonen sind eher Studierende als Wissenschaftler.

Das aktuellste und wohl ambitiöseste, durch Großspenden vom Allen Institute for Artificial Intelligence, der Gordon and Betty Moore Foundation und Google Inc. unterstützte Projekte ist Wikidata. Dieses Text-Mining-Projekt hat sich zum Ziel gesetzt, aus den derzeit ca. 280 Sprachversionen der Wikipedia strukturierte Daten zu extrahieren, die als Fakten in Millionen Artikeln "versteckt"sind und auf die ein zentralisierter freier Zugriff für die Allgemeinheit möglich sein soll. Diese Daten können dann in anderen Wikimedia-Projekten, aber auch von externen Wissenschaftlern genutzt werden. Wikimedia Deutschland, ebenso die Förderorganisationen versprechen sich von dem zukünftig reich semantisch erschlossenen und vernetzten Datenangebot von Wikidata erhebliche Impulse für die Forschung. All das ist allerdings erst in sehr frühen Stadien der Entwicklung, eher noch der Planung. Wenn die ehrgeizigen Ziele auch nur annähernd erreicht werden können, sollte die angestrebte Einbindung der Wissenschaft durch Wikidata erfolgreicher werden als in den bisherigen Projekten.

3.3 Wikipedia und Open Access

Setzte sich in der Wissenschaft die freie Lizenzierungspraxis der Wikipedia allgemein durch, könnte ein Großteil der Probleme der gegenwärtigen Publikations- und Verwertungspraxis, die nicht zuletzt durch ein stark die kommerzielle Nutzung unterstützendes Urheberrecht entstanden sind, gelöst werden. Z.B. wäre die Nutzung, zumal des mit öffentlichen Mitteln produzierten Wissens für jedermann kostenfrei und ohne jede Zeitverzögerung möglich. Das schließt nicht aus, dass Autoren ihre Werke selber vermarken oder Dritte mit der kommerziellen Nutzung beauftragen. Die Vertragsfreiheit bliebe also gewahrt. , allerdings nicht mit der Möglichkeit, Verträge mit exklusiven Verwertungsrechten abzuschließen. Auch kommerzielle Nutzungen aus den frei verfügbaren Wissensobjekten wären weiter möglich – allerdings nur dann, wenn die nun in kommerzieller Absicht erstellten Produkte ebenfalls unter eine freie Lizenz gestellt werden.

Tatsächlich gibt es zu der freien Nutzung in der Wikipedia eine Entsprechung durch das Open-Access-Publizieren in der Wissenschaft: Die Berliner Open-Access-Erklärung, vergleichbar die Budapest-Open-Access-Initiative, die ECHO-Charta und das Bethesda "Statement on Open Access Publishing", verpflichten Open-Access-Autoren zu ähnlichen Rechteübertragungen:
"Die Urheber und die Rechteinhaber solcher Veröffentlichungen gewähren allen Nutzern unwiderruflich das freie, weltweite Zugangsrecht. Zu diesen Veröffentlichungen und erlauben ihnen, diese Veröffentlichungen – […] in jedem beliebigen digitalen Medium und für jeden verantwortbaren Zweck zu kopieren, zu nutzen, zu verbreiten, zu übertragen und öffentlich wiederzugeben sowie Bearbeitungen davon zu erstellen und zu verbreiten, sofern die Urheberschaft korrekt angegeben wird."
Dabei hat es eine lange anhaltende Diskussion um das Recht der Bearbeitung der veröffentlichten Arbeiten gegeben. Interessanterweise war zuerst in der deutschsprachigen Version die in der verbindlichen englischen Version enthaltene Passage enthaltene "to make and distribute derivative works" nicht mit übersetzt worden. Ob dies ein Versehen war oder dieses Recht als zu weitgehend angesehen wurde, sei dahin gestellt – tatsächlich ist dieses Recht nach wie vor für viele Wissenschaftler Grund zur Besorgnis, dass ihr Text durch das Recht "to make derivative works" nicht mehr in seinen ursprünglichen Form öffentlich zugänglich sei. Das ist, anders als in der Wikipedia, bei Open Access nicht gemeint.

Zweifellos muss auch bei einer Open-Access-Publikation der ursprüngliche Text unangetastet bleiben, und zusätzlich muss bei jeder "Bearbeitung" (besser sollte es heißen: bei jeder "Ableitung"oder "Weiterentwicklung") der Name des Ursprungsautors angegeben werden. Auch das ist eine Abweichung zur Wikipedia, weil es im kollaborativen Verfahren weder den Urheber im klassischen Sinne noch das abgeschlossenes Werk mehr gibt.

Open Access hat alle Chancen, in Ergänzung zur öffentlichen Zugänglichmachung auf den allgemeinen Publikumsmärkten, im wissenschaftlichen Publikationswesen zur verbindlichen Publikationsform zu werden - auch mit Blick auf eine kommerzielle Verwertung. Tatsächlich deuten aktuelle Tendenzen darauf hin, dass Verlage beginnen, den goldenen Ansatz von Open Access zu akzeptieren, also wissenschaftliche Artikel in ihren bisherigen oder neuen Zeitschriften frei (im Sinne von gebührenfrei und unter einer freien Lizenz) jedermann zur Verfügung zu stellen. Allerdings erwarten kommerzielle Open-Access-Verlage, anders als die Wikipedia, dass irgendjemand schon für die bei der Publikation und der Bereitstellung entstehenden Kosten (und für den erwarteten Gewinn!) aufkommt – im Zweifelsfall die Öffentlichkeit, direkt oder über die von der Öffentlichkeit finanzierten Einrichtungen wie die Bibliotheken oder die großen Wissenschaftsorganisationen. Freie Nutzungsmodelle, die ohne öffentliche Finanzierung auskommen, sind bislang von der Informationswirtschaft nicht entwickelt worden. Wie immer man diese Finanzierungsabhängigkeit der Informationswirtschaft von der öffentlichen Finanzierung einschätzen mag – für Bildung und Wissenschaft sollte Open Access in mittlerer Perspektive das flächendeckend möglich machen, was die Wikipedia immer schon vorgemacht und umfassend erreicht hat: die freie offene Nutzung des in ihr aufbereiteten und bereitgestellten Wissens. Ob das mit oder ohne Mitwirkung der Informationswirtschaft erreicht werden kann, ist zweitrangig.

Weitere Referenzen und Literatur



Hammwöhner, Rainer (2007): Qualitätsaspekte der Wikipedia. Kommunikation@gesellschaft, Jg. 8 Beitrag 3 http://www.soz.uni-frankfurt.de/K.G/B3_2007_Hammwoehner.pdf

Lewandowski, Dirk und Ulrike Spree (2010): Ranking of Wikipedia articles in search engines revisited: Fair ranking for reasonable quality? in Journal of the American Society for Information Science and Technology 2010.


Fußnoten

1.
Jürgen Renn: Auf den Schultern von Riesen und Zwergen. Einsteins unvollendete Revolution. Wiley-VCH-Verlag. Weinheim 2006
Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Rainer Kuhlen für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

 
Ein Wordle aus dem Einführungstext des Dossiers.Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen. Weiter... 

Ein Besucher blickt auf die Computerfarm des Kernforschungszentrums CERN bei Genf.Dossier

Die Politik des Suchens

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Dossier deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter... 

Alles auf Grün - Bild einer Ampel, auf der 'Go' zu lesen ist.Dossier

Open Source

Open Source-Software ist das Paradox der Wissensgesellschaft: Programmierer verschenken ihr wertvollstes Gut – und begründen eine soziale Bewegung, die weltweit das Wissen befreien will. Weiter...