Auf einem Notebook ist die Startseite der deutschen Wikipedia vor einem Bücherregal zu sehen
1 | 2

Temporalisierung von Wissen

Wissen in Zeiten von Wikipedia - ein zeitkritischer Standpunkt


10.10.2012
War Wissen in Bibliotheken und im Buchdruck zeitweise stabilisiert, erfährt es mit dem Internet und mit der Wikipedia eine neue Dynamik: Wissen wird auf die Momente verkürzt, an denen sich etwas ändert. Statt Wissensmonumente zu schaffen, werden das stetig veränderte Wissen und seine zeitlichen Relationen bedeutsam.

Zwei Oxford English Dictionarys mit den hineingeschnittenen Worten "DATA BASE".Das Internet ordnet Wissen in Form einer offenen, nicht mehr durch das Format des Buches geschlossenen Form. Lizenz: cc by-sa/3.0/de (Michael Mandiberg www.flickr.com/people/theredproject/ )

Eine medienarchäologische Perspektive auf die Politik des freies Wissens, wie sie in der Wikipedia vertreten wird, gründet in der Analyse ihrer konkreten technologischen Bedingungen und Ermöglichungen: Algorithmen, vernetzte Computer, hypertextuelle Adressierung in elektrischer Blitzgeschwindigkeit. Daraus ergibt sich die medientheoretische Frage: Wie berühren Wikipedia und deren unverzügliche, jederzeitige Verfügbarkeit den Sinn für die Zeitlichkeit von Wissen? Wissen "in Zeiten von Wikipedia" ist nicht schlicht als zeitgeschichtliche Analyse gemeint, sondern bezweckt den Verweis auf die Eigenzeitlichkeit besagter Online-Enzyklopädie.

Beschleunigung und Dynamisierung des Wissenserwerbs: Halbwertzeiten und das Zeitkritischwerden von Wissen



Die Dauerhaftigkeit von Wissen versinkt in Datenströmen und ist nur noch temporär gültig. Dies galt im Unterschied zu religiösen Dogmen oder politischen Ideologieansprüchen zwar immer schon für den Prozess wissenschaftlicher Forschung, wurde aber durch den Buchdruck zumindest für längere Intervalle zementiert. Der klassische Begriff der Enzyklopädie verweist noch auf das von Foucault definierte panoptische Regime, d. h. den Wunsch und die Ermöglichung, Text- und Wissensräume mit einem Blick zu erfassen; an die Stelle solcher typographischen Räume tritt nun eine zeitliche Ordnung, ein blitzschnelles Kommen und Gehen von Wissen im Fließgleichgewicht: Sie umfasst den Menschen und seine Handlungen in Zeiteinheiten und Strukturen. Die technischen Möglichkeitsbedingungen sind es, die hier den Unterschied machen. Verkörpern klassische Enzyklopädien mit ihren festgesetzten Verweisen eine Art diagrammatische Buchmaschine, können hypermediale Adressen mit elektronischer Geschwindigkeit dynamisch umgeschrieben werden.

Im statischen Medium Buchdruck war redigiertes Wissen zumindest zeitweilig stabilisiert. Diese kanonische Stabilität wird im Zeitalter elektromathematischer Medien durch und durch dynamisiert; die Zeitabstände der Wissensaktualisierung schrumpfen gegen Null. Typographische Wissensräume, die sich traditionell - wie das Lesen eines Textes oder der Rhythmus von Tageszeitungen - linear, also im geordneten Nacheinander entfalten, gehen in das über, was Marshall McLuhan für die Epoche der Elektrizität als den "acoustic space" definierte: eine permanente Gleichzeitigkeit im globalen Dorf. Die längste Zeit - nämlich in der Epoche von Handschrift und Buchdruck - waren Wissensarchive durchweg zeitunkritisch. Wissen aber ist in Zeiten der Online-Enzyklopädie Wikipedia zeitkritisch geworden. "Zeitkritik" meint hier gerade nicht den kritischen Zeitgeist, sondern jene mikrotemporalen Prozesse, die für das Gelingen eines Vorgangs technisch oder neurophysiologisch entscheidend sind. Das Zeitkritischwerden der Wissensarchive ist eine Funktion von Zugriffszeiten und fortwährenden, immer kurzfristigen Aktualisierungen. Die für alle Web-Zitate notwendige Datierung ("access time") bis hin zur Sekundenangabe ist ein Hinweis auf das Zeitkritischwerden des Wissens im Netz. Die Differenz von elektronischem Speicher und institutionellem Archiv liegt in der Skalierung des zeitlichen Zugriffs. Ein möglichst rascher Zugriff auf die Dokumente war aus Sicht der Nutzer in klassischen Archiven und Bibliotheken zwar immer ein Bedürfnis, aber selten entscheidend für das Zustandekommen der Information. Im Kontext von Kommunikationsmedien, die mit elektronischer Geschwindigkeit Signale und Daten zur Verfügung stellen, hat sich jedoch der Anspruch auf Verfügbarkeit des Wissens in kürzester Zeit herausgebildet: ein mikrotemporales Zeitfenster.

Die Tradition der Enzyklopädie und die Elektrifizierung von Wissensräumen



Wissen war immer schon zeitbasiert im Sinne der wissenschaftlichen Einsicht in die Kontextabhängigkeit, Relativität und das beständige Revisionsbedürfnis allen Wissens. Wissen schwingt fortwährend zwischen den Polen Varianz und Invarianz. Der Philosoph Henri Bergson betont in seinem Werk Materie und Gedächtnis um 1900, dass die Aktualisierung von Vergangenheit im Bewusstsein als ständige Variation geschieht, nicht als identischer Abruf fest adressierbarer Information aus einem mechanischen Speicher. Ein theoretisches Modell dafür lieferte G. W. F. Hegels Enzyklopädie in seiner systematischen Unterscheidung von technischem Gedächtnis und aneignender Erinnerung.

Der Ausdruck "Tradition der Enzyklopädie" meint einerseits die bis in die Antike zurückreichende Genealogie der Enzyklopädie und den Wandel in den technischen Formen der enzyklopädischen Wissensüberlieferung andererseits. Die kontinuierliche Zeitachse, über der Wissen bislang als Dauer eingetragen war, wird mit Wikipedia auf die Momente verkürzt, an denen sich etwas ändert - eine Form der digitalen Zeitkomprimierung. Damit reiht sich Wikipedia nicht nur in eine Geschichte des enzyklopädischen Wissens und seiner jeweiligen Schrifttechniken ein, sondern bildet selbst eine Alternative zum bisherigen Modell von Wissensgeschichte zugunsten diskreter Zustände aus. Aus nachrichtentechnischen Codes zur Komprimierung komplexer Ton- und Bilddatenströme (streaming media) ist es vertraut: Redundante, sich wiederholende Information lässt sich symbolisch oder numerisch verkürzt übertragen.[1] Tradition privilegierte bislang Wissen vor allem als Bewahrung; die Ästhetik des ständigen Up-dates als lokale Differenzbildung dagegen setzt an dessen Stelle das fortdauernd Ephemere "Ephemer"[2] bezeichnet Zustände von kurzzeitiger Dauer[3]; diese subjektiv empfundene Dauer aber hängt vom zeitlichen Wahrnehmungsfenster der Gegenwart ab - je nach Perspektive von Menschen, Insekten und Messmedien.[4] Im Verbund damit steht das Temporäre als das skalierbare Zeitfenster, wie es in der industriellen und kommunikationstechnischen Signalverarbeitung, aber auch in der Hirnforschung auf den Begriff der 'Echtzeit' gebracht worden ist. Die kybernetisierte Wissensökonomie tauscht dauernde Gültigkeit gegen fortlaufende Aktualität; die zeitliche Endlichkeit ist hier von Beginn an mit eingeplant. Paratextuelle Datierungsangaben wie "last modified" und "accessed" in elektronischen Texten deuten es an: Heterochronien, also diverse Zeitwelten, treten an die Stelle klassischer Wissensräume.[5]

Eine Enzyklopädie ist kein Archiv und keine Bibliothek, sondern eine relationale Datenbank, deren diagrammatisches Merkmal – im Unterschied zu allen Erzählungen – der non-lineare Querverweis ist. Im Fall von Wikipedia ist diese Verweisstruktur nicht nur offen, sondern auch dynamisch. Tatsächlich sind Archive, Bibliotheken und Museen, seitdem sie Anschluss an vernetzte Computerwelten fanden, "in Bewegung"[6] geraten. Das mit Wikipedia verbundene Wissen ist nicht nur im Cyberspace, sondern vor allem auch in der Cybertime. Hypertextuell markierte Vernetzungen von geschriebenem Wissen schauen auf eine lange Tradition zurück und sind damit Teil dessen, was McLuhan 1962 auf den Begriff der 'Gutenberg Galaxis' brachte: eine in typographisch fixierten Texträumen sich bewegende Kultur. Erstmals aber ist diese Struktur mit Wikipedia auch in einen Zeitraum eingebettet und wird damit ebenso hypertemporal.

Der Buchdruck, also die klassische Medientechnik des enzyklopädischen Wissens, steht für die dauerhafte, unumschreibliche Fixierung und die Form dessen, was in der Sprache der Informatik "Read Only Memory" (ROM) heißt. Heute ergreift die Temporalisierung im World Wide Web auch die textbasierten Wissensräume. Mobile Medien sind nicht nur die technologische Form aktueller Kommunikation, sondern sie definieren auch die Form ihrer Aussagen. Die eigentliche Botschaft der elektronischen Wissensenzyklopädie ist ihre mikrozeitliche Form.

Grafik der Entwicklung der Artikel in der deutschsprachigen Wikipedia von 2007 bis 2012. Die Zahl der Artikel hat von rund 500.000 auf mehr als1.500.000 fast verdreifacht.Ungezügeltes Wachstum: die Zahl der Artikel in der deutschsprachigen Wikipedia hat sich von 2007 bis 2012 fast verdreifacht. (© Public Domain, wikistatistics.net)

Cybertime: Die radikale Verzeitlichung von Wissenszuständen



Die jeweilige Jetztvergangenheit eines Wikipedia-Eintrags wird (aus diskursiver Gewohnheit) als ihre "Geschichte" bezeichnet; tatsächlich aber ist damit die ahistorische Form des Palimpsests, der übereinandergeschriebenen, sich jeweils ausradierenden Texte gemeint, wie Matthew Kirschenbaum erklärt: "Attention to these editorial histories can help users exercise sound judgement as to whether or not the information before them at any given moment is controversial."[7] Die "Editier-Historie” hilft also den Usern bei einer nüchternen Beurteilung, ob die Information, die sie vor sich sehen, kontrovers ist oder nicht. Und zu welchem Zeitpunkt, dies der Fall ist – oder nicht. Die Offenlegung der jeweiligen Wissensmomente geschieht "with a precision, transperency, and granularity unprecedented in printed publications outside the realm of genetic editions and textual scholarship". Und offenbart so eine Transparenz, Präzision und Detailgenauigkeit, wie sie in gedruckten Werken nicht möglich ist. Tatsächlich kommt dies der Vorstellung eines dynamischen Archivs aller Textvarianten nahe, wie es etwa den Herausgebern der kritischen Edition von Franz Kafkas Werken vorschwebte.[8] Dies gehörte auch bereits zum ursprünglichem (und im Projekt Xanadu fortwährenden) Entwurf des amerikanischen Philosophen Theodor Holm Nelson von Hypertext als docuverse – als elektronische, universale Bibliothek: Alle jeweiligen Versionen eines Textes, auch in zeilen- und wortweisen Überschreibungen sollten bewahrt werden (layering) und in einem Palimpsest, das nicht nur räumliche, sondern auch zeitliche Querverweise erlaubt, resultieren: hypertime.[9]

Die aktuelle Antwort der Informatik zum Zweck von online backups heißt Delta-Kodierung, derzufolge in sukzessiven Varianten eines Dokuments nicht die jeweilige Ganzheit, sondern nur die Differenzen gespeichert respektive übertragen werden. Ein Protagonist in den Zeitweisen hochtechnischer Medien, das mathematische Intervallsymbol ∆, kommt in solchen "Deltas" auf den sprachlichen Begriff.

Die Delta-Kodierung, die in Wikipedia-Artikeln die jeweiligen Änderungen entweder vollständig in chronologischer Reihe (gelistet nach Versionen) oder als aktuellen Unterschied zur bisherigen Version auflistet, ersetzt die statis von Wissen durch eine differentielle Dynamik. An die Stelle von Wissensmonumenten treten zeitliche Relationen.

Das Internet ordnet Wissen in Form einer offenen, nicht mehr durch das Format des Buches geschlossenen Form. Es hierarchisiert dieses Wissen nicht bibliotheksförmig, sondern korreliert vielmehr mit der aus der Ökonomie der Warenspeicherung vertrauten sogenannten chaotischen Lagerung, wie es schon 1997 die Zeitschrift Scientific American kennzeichnete: "The more serious, longer-range obstacle is that much of the information on the Internet is quirky, transient and chaotically 'shelved'[10] - eine Schreckensvorstellung aller Bibliothekare. Das Internet stellt auf Seiten seiner öffentlichen Nutzung in der Tat ein (im Sinne von Maurice Halbwachs verstandenes) globalisiertes "soziales Gedächtnis"[11] kultureller Artikulation dar, dessen Dynamik jedoch gegenüber der Dauer zur flüchtigen Zwischenspeicherung tendiert. Dem sucht die regelmäßige umfassende Speicherung von Momenten des gesamten Internet durch die Non-Profit Organisation und ihr "Internet-Archiv" archive.org in den USA zu begegnen nur ansatzweise aber ist für diese Form der Totalkopie der Name Archiv angemessen. Auf technomathematischer Ebene jedoch ist das Internet tatsächlich archivförmig organisiert, und das in dem Sinne, der Archive von Bibliotheken unterscheidet: im Verborgenen, wenn nicht gar Geheimen. Das hinter dynamischen Wissensformaten wie Wikipedia agierende "Archiv" sind die Algorithmen und Protokolle ihrer Adressier- und Verfügbarkeit.[12]

Die topologische Infrastruktur des Internet ist eine Radikalisierung des postalischen Dispositivs; sie ist mit zeitkritischen Vektoren versehen, ganz wie die darauf bauende Wissensökonomie. Ist es bislang die Aufgabe klassischer Archive, Rechtsansprüche und Wissen auf Dauer in einer je festgelegten Form und symbolischen Ordnung zu bewahren, obliegt das Wissensfeld namens Internet einer höchst andersartigen Dynamik der Aktualisierung in Permanenz. Die Ökonomie, die in dieser grundsätzlichen Temporalisierung des Wissens waltet, ist zeitkritischer Natur. Der wissensökonomische Tausch lautet fortlaufende Aktualität um den Preis der Flüchtigkeit; an die Stelle dauernder, monumentaler Gültigkeit treten "flow" und "streaming". Diese Chronologik läuft auf das Provisorische hinaus; die zeitliche Endlichkeit ist hier von Beginn an mit eingeplant. Paratextuelle Datierungsangaben wie "last modified" und "accessed" deuten es an: Zeitkritische Heterochronien treten an die Stelle klassischer Wissensräume.[13] Internetbeiträge werden in wissenschaftlichen Aufsätzen nicht nur mit ihrer medienlogischen Ortsangabe (URL) und einer Angabe des Erscheinungsjahrs in Tradition klassischer Printpublikationen zitiert, sondern mit ihrer minuten- oder gar sekundengenauen Abrufzeit. Stetige räumliche Mobilität (das Credo des Modernismus) wird zunehmend von diskreter zeitlicher Mobilität – einer Art time hopping – überlagert. Wikipedia-Artikel rufen ausdrücklich dazu auf, bestimmte Zeitpunkte eines Artikels, also dessen jeweilige Version zu laden. Damit wird das Wissen selbst zeitkritisch, radikaler als der Langzeitanspruch des Wissens von in Bibliotheken aufgehobenen Enzyklopädien, deren Gültigkeit in der Gutenberg-Ära durch aktualisierende Neuauflagen skandiert war.

WWW: Anarchivische Wissensordnungen



Angesichts von Website-Wellen, die sich am Strand aktueller Interfaces ständig brechen und erneuern, hat es den Anschein, dass das Internet zum wissenspolitischen Anarchiv tendiert. Neue Medienplattformen wie Facebook, Youtube oder Wikipedia stellen zwar durchsuchbare Datenbanken dar, doch das Bewahren von Wissen ist weder ihr eigentliches Ziel noch wird es so verwendet: "YouTube is not itself an archive. Preservation is neither its mission nor its practice."[14] Archive haben den vorrangigen Zweck der dauerhaften Bewahrung von dokumentarischen Originalen, während Bibliotheken Kopien oder Reproduktionen zugänglich halten. "The digital archive is by nature a database." – und nicht die Erzählungen des Wissens, die sich auf dieser Grundlage erst entfalten. [15] Was passiert, wenn der technologische Support für die entsprechende Software aufgegeben wird? Dieses Risiko ist der Preis für den Ersatz von Langzeitarchivierung durch ephemere, flüchtige Speicher.[16] Aber es hätte wenig Sinn, die Wikipedia regelmäßig auszudrucken und in Papierform aufzubewahren. Überdauern wird vielmehr das Wissen der Algorithmen, die Wikipedia ermöglichen – in welchem physikalischen Speichermedium auch immer.

1 | 2
Alles auf einer Seite lesen

Fußnoten

1.
Dazu Trond Lundemo, In the Kingdom of Shadows: Cinematic Movement and Its Digital Ghost, in: Pelle Snickars / Patrick Vonderau (Hg.), The YouTube Reader, Stockholm (National Library of Sweden) 2009, 314-329; technisch im Einzelnen: Adrian Mackenzie, Eintrag "Codecs", in: Matthew Fuller (Hg.), Software Studies. A Lexicon, Cambridge, Mass. / London (MIT Press) 2008, 48-55
2.
Siehe Wendy Hui Kyong Chun, The Enduring Ephemeral, or the Future Is a Memory, in: Critical Inquiry Bd. 35, Heft 1 (2008), 148–171
3.
Siehe W. E., "Temporary items: Die Beschleunigung des Archivs", in: Immanuel Chi / Susanne Düchting / Jens Schröter (Hg.), ephemer_temporär_provisorisch (= Schriftenreihe des Instituts für Kunst- und Designwissenschaften (IKUD) der Universität/GH Essen, Bd. 6), Essen (Klartext) 2002, 77-88
4.
Siehe Karl Ernst von Baer, Welche Auffassung der lebenden Natur ist die richtige? und wie ist diese Auffassung auf die Entomologie anzuwenden? [*1860], in: Volmar (Hg.) 2009: 45-59
5.
Siehe Michel Foucault, Andere Räume, in: zeitmitschrift. ästhetik und politik 1/1990, 4-15
6.
Theodor Holm Nelson, Literary Machines, Sausalito, Calif. (Mindful Press) 1981
7.
Matthew Kirschenbaum, Mechanisms. New Media and the Forensic Imagination, Cambridge, MA (The MIT Press) 2008, xvii
8.
Franz Kafka, Historisch-Kritische Ausgabe sämtlicher Handschriften, Drucke und Typoskripte, hg. v. Roland Reuß / Peter Staengle, Basel / Frankfurt a. M. 1995ff
9.
Theodor Holm Nelson, Literary Machines, Sausalito, Calif. (Mindful Press) 1981
10.
Editorial: The Internet. Bringing order from chaos, in: Scientific American 276, Heft 3 (1997), 49
11.
Maurice Halbwachs und Lutz Geldsetzer. Das Gedächtnis und seine sozialen Bedingungen 1985
12.
Der Begriff Archiv wird hier nicht im institutionalen Sinne als administrativer Urkundenspeicher verstanden, sondern als das jeweilige Gesetz des Sagbaren: das, was technologisch den Gebrauch von Wikipedia überhaupt erst ermöglicht, "das System, das das Erscheinen der Aussagen als einzelner Ereignisse beherrscht": Michel Foucault, Archäologie des Wissens, Frankfurt/M. 1981, 187. Siehe ferner Alexander Galloway, Protocol. How Control Exits after Decentralization, Cambridge, Mass. / London (MIT) 2004
13.
Siehe Foucault 1990
14.
Rick Prelinger, The Appearance of Archives, in: Snickars / Vonderau (Hg.) 2009, 268-274 (268)
15.
Pelle Snickars, The Archival Cloud, in: ders. / Vonderau (Hg.) 2009: 292-313 (304)
16.
Siehe Sebastian Handke, Die neue Flüchtigkeit. Wer archiviert das Internet? Archivwissenschaftler und Medienarchäologen diskutierten in der Mikrolounge des WMF über die Zukunft der Erinnerung, in: taz Nr. 6264 vom 7. Oktober 2000, 26
Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Wolfgang Ernst für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

 
Ein Wordle aus dem Einführungstext des Dossiers.Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen. Weiter... 

Ein Besucher blickt auf die Computerfarm des Kernforschungszentrums CERN bei Genf.Dossier

Die Politik des Suchens

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Dossier deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter... 

Alles auf Grün - Bild einer Ampel, auf der 'Go' zu lesen ist.Dossier

Open Source

Open Source-Software ist das Paradox der Wissensgesellschaft: Programmierer verschenken ihr wertvollstes Gut – und begründen eine soziale Bewegung, die weltweit das Wissen befreien will. Weiter...