Ein Besucher blickt auf das Rechenzentrum des CERN.

8.4.2011 | Von:
Katja Mayer

Zur Soziometrik der Suchmaschinen

Ein historischer Überblick der Methodik

Informetrische Optimierung

Mit soziotechnischen Netzwerken hingegen beschäftigten sich zeitgleich Operationsresearch und Kybernetik. Flussdiagramme für Prozesssteuerungen und Netzpläne wurden ebenfalls als topologische Graphen konstruiert. So lag es nicht fern, Analogien zwischen der Vermessung von sozialen Gruppen und elektrischen Netzwerken herzustellen.(32) Militärische Logistik und die Automatisierung von Waffensystemen standen am Anfang der Kybernetik, doch kybernetische Theorien der Automation und Regelung komplexer Maschinen-Systeme entwickelten sich bald weiter zu einer umfassenden Wissenschaft der Kontrolle und Kommunikation, der sozialen Regulierung und Optimierung von Informationsressourcen.(33) Information wurde zum konstitutiven Prinzip einer fortschrittlichen, telematischen Gesellschaft erhoben und sogleich als Maß der Erwartungswahrscheinlichkeit von sozialen, wie maschinellen Prozessen festgesetzt. Ziel eines kybernetischen Sozialmanagements wäre also die Minimierung von Unsicherheiten durch eine Informatisierung der Gesellschaft. In einer solchen Gesellschaft wandelten sich soziale Beziehungen zu Kommunikationsverbindungen. Kommunikationsverhalten und Informationsverbreitung wurden als messbare epistemische Entitäten modelliert. Die Perspektive wurde immer weiter weg von den Inhalten der Kommunikation hin zu deren soziotechnischen Verbreitungsmustern gelenkt. Damit wollte man auch die Frage nach Wissen und seiner Autorisierung beantworten: "Wer entscheidet, was Wissen ist, und wer weiß, was es zu entscheiden gilt?"(34) "Das zeigt sich nach erfolgreicher Übertragung." So könnte die sozio-informetrische Antwort lauten.

Anerkennung durch Referenz

Robert Merton bemühte sich in seiner Wissenssoziologie seit den 1930er Jahren um eine Definition der Rahmenbedingungen für eine von der Politik unabhängige Wissenschaftlichkeit. Er konnte in seinen Untersuchungen zeigen, dass die Legitimation von Wissen einem historischen Wandel unterliegt, spezifische soziale Aushandlungsprozesse und Strategien benötigt und sich in sozialen Beziehungen etabliert.(35) Merton war überzeugt, dass das Wissenschaftssystem selbst die oberste Autorität für das darin produzierte Wissen darstellen sollte. Forschungsergebnisse wären demnach Gemeineigentum, welches mittels der peer-review überprüfbar, wiederholbar und kritisierbar sein muss. Die Bewertung wissenschaftlicher Forschung sollte unabhängig vom individuellen Wissenschaftler und seinen sozialen Attributen erfolgen. Eine Methode, die eine solche Bewertung möglich machte, war die Bibliometrie.

Bibliometrie als statistische Untersuchung von Publikationsverhalten und Bibliotheken blickte zu diesem Zeitpunkt bereits auf eine lange Tradition zurück. Die Zitationsanalyse als Teilbereich bediente sich anfänglich relativ einfacher statistischer Verfahren und Indexierungsysteme, um Wissensgebiete auf einen Blick erkennbar zu machen. Bereits im 16. Jahrhundert markierte und filterte man biblische Textstellen mit Zitationsindizes.(36) Lotka berechnete und interpretierte bereits 1926 die wissenschaftliche Produktivität im Bereich der Physik und Chemie über das Publikationsverhalten.(37)

Eugene Garfield, der Begründer des Science Citation Index, hatte über seine Begegnung in den 1940er Jahren mit dem juridischen Zitationsindex Shepard´s die Idee, ein solches System auch für andere Wissensgebiete anzuwenden. Der Shepard´s versammelte seit 1873 Gerichtsurteile und darin enthaltene Referenzen auf frühere Rechtssprechungen als Zitationskatalog. In diesem System war Autorität zeitlich angelegt, jeweils die letzte Rechtssprechung war die relevanteste. Garfield erkannte das Potential einer solchen Anwendung für den unüberschaubaren Korpus technischer Patente und wissenschaftlicher Publikationen:
    The amazing efficiency of the citation method is such that once the starting case or statute is found it becomes a key that unlocks the entire store of law on a given point. It is this function which it appears would be of great value in other fields. An article on any scientific subject would be the key to all others.(38)
So erfasst, konnte ein einziges wissenschaftliches Dokument zum effizienten Zugang in die Wissenslandschaft werden. Garfield bezeichnete sich selbst gerne als "information engineer" und konzipierte den SCI bereits von Anfang an sowohl als Analyseinstrument, als auch als Evaluationswerkzeug und "Hypersuchmaschine". "That‘s why I call it ‚hypersearch‘. I‘ve said that the SCI is the ultimate hypersearch product. I think Ted Nelson is credited with the notion of hypertext, but I doubt that he knew the SCI even existed."39 Garfield träumte von einer Einheitswissenschaft, dementsprechend sollte sein wissenschaftlicher Index alle Disziplinen erfassen. Im Gegensatz zu Shepard´s, welcher auf das Fachwissen der Redakteure angewiesen ist, sollte sich sein Index auf Basis von Fachjournalen, wo bereits im peer review-Verfahren die Wissenschaftlichkeit garantiert wurde, selbst generieren. Der Science Citation Index misst und bewertet nicht die Inhalte der zitierten Werke, sondern nur deren Referenzpunkte und damit deren Reputationen. Insofern produziert der SCI ein sozio-stukturelles Modell des Publikationsverhaltens, und macht so die Fußnote zur wichtigsten Informationsquelle.

Nachdem eine erste Version der Zitationsdatenbank mit Geldern des amerikanischen National Institute of Health initiiert wurde, konnte bereits 1963 der SCI für das Jahr 1961 extrahiert werden. Parallel wurde auch ein Patentindex angelegt, der jährlich alle US Patente aufnahm. Die Datenbank umfasste im Jahre 1965 bereits 1057 Fachzeitschriften, knapp 50.000 Patente und mehr als 2 Millionen "registrierte Ausgangsstellen zur Weltliteratur der Wissenschaften und Technologie"(40). Diese Daten lagen alle auch in Form von Lochkarten für die automatisierte Verarbeitung vor. Dank der Automatisierung und der Reduktion der Zitate auf ihre Referentialität konnte der Index statistisch analysiert werden. Dividierte man die Anzahl der Zitate eines Bezugsjahres auf Artikel der vergangenen zwei Jahre durch die Anzahl der Artikel der vergangenen zwei Jahre, erhielt man eine Maßzahl, welche bald als impact factor in die Wissenschaftsgeschichte eingehen sollte.

Der SCI "wurde hauptsächlich dazu entwickelt, Probleme der Informationsauffindung zu lösen. Später hat man noch eine Gruppe von zusätzlichen Anwendungsarten gefunden, die für Historiker, Soziologen, Verwaltungspersonal etc. von Bedeutung sind."(41) Häufig trafen Vertreter der (Wissenschafts-)Soziologie, der Netzwerkforschung und der Kommunikationswissenschaft mit Garfield und den Mitarbeitern seines ISI Institutes zusammen. Gemeinsame Themen waren jedoch nicht nur die (sozialen) Kontexte von Wissensproduktion und die Diffusion von Innovationen, sondern im speziellen die Möglichkeiten der Bewertung wissenschaftlichen Wissens. Der impact factor des SCI stellte eine solche Möglichkeit dar und bestimmt bis heute maßgeblich wissenschaftliche Karriereverläufe. In ihm ist eine gewertete soziale Beziehung operationalisiert, denn eine Referenz zu setzen, bedeutet die Anerkennung der bezüglichen Expertise.

Doch damals war der impact factor nur eine mögliche Auswertungsform und Garfield ersann weitere Explorationen des Datenmaterials:
    Is it reasonable to assume that if I cite a paper that I would probably be interested in those papers which subsequently cite it as well as my own paper. Indeed, I have observed on several occasions that people preferred to cite the articles I had cited rather than cite me! It would seem to me that this is the basis for the building up of the "logical network" for the citation index service.(42)
Neben dem Zugang zu ähnlicher Fachinformation erkannte Garfield bald das Interesse am wechselseitigen Publikationsverhalten und an der Kontrolle der Verwertung des geistigen Eigentums. Wissenschaftler hätten fortan sowohl bessere Möglichkeiten der bibliographischen Kontrolle als auch der Meisterung der Informationsflut, die damals auch von offiziellen Stellen als Krise hochstilisiert wurde.(43)

Tatsächlich, das Interesse am Datenmaterial des SCI wurde immer größer. Die Zitationsanalyse wurde nun auch vermehrt auf historische Dokumente, Monographien und Korrespondenznetzwerke ausgedehnt, und Studien wie etwa jene zu "Invisible Colleges"(44) öffneten den Blick auf breit gefächerte Wissensgeschichten, welche keinen einheitlichen Narrativen folgten und sich durchaus entgegen den Idealen des stetigen Wachstums von Wissen in lose gekoppelten Konfigurationen gestalteten. Analysen des "bibliographic coupling"(45) und Kozitationsanalysen (46) gaben Aufschluss über die Streuung der wissenschaftlichen Fachliteratur. Kozitierte Dokumente erschienen gemeinsam in einer Referenzliste eines dritten Dokuments und konnten so gezählt werden. Über die bibliographische Kopplung hingegen wurde festgestellt, welche Werke sich auf die gleiche Arbeit beziehen.

Price interessierte sich für den Lebenszyklus eines wissenschaftlichen Textes. "More work is urgently needed on the problem of determining whether there is a probability that the more a paper is cited the more likely it is to be cited thereafter."(47) Spätere zitationsanalytische Studien bestätigten seine Hypothese; "the rich get richer". Ein solches Netzwerk würde man heute skalenfrei nennen, denn es besteht im Wesentlichen aus vielen Knoten mit niedrigem, und wenigen Knoten mit hohem Rang. Neu hinzukommende Publikationen referenzieren mit einer deutlich höheren Wahrscheinlichkeit auf bereits populäre Arbeiten.(48) Die Anzahl der Referenzen generiert damit Sichtbarkeit und Anerkennung.

Robert Merton, ebenfalls ein Verfechter der strukturellen Perspektive in der Soziologie, formulierte auf Basis der Arbeiten von Harriet Zuckerman seine These vom "Matthäus Effekt"(49) im Anerkennungssystem in den Wissenschaften. Dieser bestehe darin, dass "hoch angesehenen Wissenschaftlern für gewisse wissenschaftliche Beiträge unverhältnismäßig große Anerkennungsbeiträge zufallen, während solche Anerkennung Wissenschaftlern, die sich noch keinen Namen gemacht haben, vorenthalten wird."(50) Merton erkannte die Zitation als "Routineform" der wissenschaftlichen Wahrnehmung. Neben der Erschließung der Quellen des "entlehnten" Wissens wäre sie als Institution der "Anerkennung" eingebettet in das Normen- und Belohnungssystem der Wissenschaft und wirkte selbst wieder auf das System zurück.(51) Der SCI wurde bald zu einem zentralen und globalen Akteur in der Wissenschaftslandschaft. Der referenzierte wissenschaftliche Text wurde so zur Einheit für die Messung seiner Tragweite, seiner Wichtigkeit und in weiterer Form zum Indikator für die Evaluation der wissenschaftlichen Produktivität. Damit fungierte die Zitationsanalyse auch als Instrument der Disziplinierung der wissenschaftlichen Akteure. Eine wissenschaftliche Karriere wird u.a. am impact factor der Publikationen gemessen, und damit ist das epistemische Zitat schlussendlich insofern verdinglicht, als es inzwischen auch von den zitierenden Akteuren selbst als soziales Kapital anerkannt wird, was zu Effekten führt, die eine Zitationsanalyse in weiterer Folge gar unterminieren könnten. Strategisch eingesetztes Zitierverhalten wie Selbstzitation und so genannte Zitationskartelle, in welchen sich beteiligte Wissenschaftler ständig gegenseitig referenzieren, erinnern an die Suchmaschinenoptimierer, die heute Webseiten eine größere Sichtbarkeit in den Resultatslisten generieren sollen. Akademische Suchmaschinen machen inzwischen nicht nur Publikationen großer, den Markt beherrschender Verlage durchsuchbar, sondern listen auch frei zugängliche akademische Publikationen. Indem der wissenschaftliche Zitiertrend eindeutig in Richtung frei verfügbarer Inhalte geht,(52) könnten traditionelle Verlage, und damit auch der herkömmliche SCI und sein Impaktfaktor, bald obsolet werden.


Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de