Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Zur Soziometrik der Suchmaschinen | Die Politik des Suchens | bpb.de

Suchmaschinen Einleitung Geschichte Die Suche vor grep 6000 Jahre Schrift Fragen oder Googeln Soziometrik der Suchmaschinen Grundrechte Spurenauswertung Suchmaschinen-Gesetzgebung Der zweite Index Macht Die Macht der Suchmaschinen Demokratisierung der Suche? Googles PageRank Die Macht der Klassifizierung Sichtbarkeit Zur Frage der Vergoogelung Marginalität in Netzwerken Digitale Kulturen Redaktion

Zur Soziometrik der Suchmaschinen Ein historischer Überblick der Methodik

Katja Mayer

/ 27 Minuten zu lesen

Katja Mayer zeichnet die Geschichte einer Methode nach, die heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Bedeutung von Veröffentlichungen durch Soziometrik. Sie zeigt auf, dass diese Methode nun in allen Bereichen der Informationsproduktion eingesetzt wird.

Amerikanische Wissenschaftler an der Universität von Indiana demonstrieren "Virtual Reality"-Brillen. (© AP)

Der vorliegende Text (1) rekonstruiert die wechselvolle Geschichte einer Methode, die allen heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Autorität eines Datensatzes über seine Verlinkung – und die mit dieser Methode verbundenen sozialen Visionen. Ausgehend von Referenzen, die die Konstrukteure der Suchmaschinen selbst zur historischen Verankerung ihrer Techniken angeben, folge ich multiplen Spuren auf der Suche nach der so vorgenommenen Bestimmung von Autorität. Ich werde fündig in Konzepten zu sozialen Beziehungen und deren Wandel zu soziotechnischen Kommunikationen, die heute selbstverständlich erscheinen.

Ich bezeichne im Folgenden drei verwandte Ausrichtungen der Erfassung von sozialen Beziehungen.

  1. Die "soziometrische Revolution" propagierte seit den 1930er Jahren gruppenpsychologische Interventionen und Sichtbarmachungen von Einbettungen in soziale Strukturen als Mittel der Selbstermächtigung.(2) Dafür wurden mathematische Methoden entwickelt, die Autoritätsverteilungen direkt aus dem Gruppenverhalten, direkt aus der sozialen Beziehung selbst heraus erklären, verändern oder etablieren sollten, ohne auf bereits vorgefertigte Klassifikationschemata zurückzugreifen.

  2. In dieser Denktradition stehen bis heute bibliometrische Methoden zur Erschließung und Vermessung der Wissenschaften. Man verzichtete auf externe Referenzen zugunsten einer vermeintlich politisch neutralen Wissenschaft und erarbeitete selbst-referentielle Methoden zur Aggregation von objektiven Autoritäten – beispielsweise den impact factor des Science Citation Index –, welche als Maßstab bald selbst großen Einfluss auf ihr Messobjekt ausüben sollten. Mit fortschreitender Automation und Datenarchivierung wandelten sich solche Messmethoden erfolgreich zu Verhaltensanweisungen.

  3. Suchmaschinen stützen sich ebenfalls auf ein Verständnis von sozialen Beziehungen und Autorität, welches klare, qualitativ nachvollziehbare Referenzpunkte vermissen lässt. Als zentrale Vermittlungsinstanzen spiegeln sie nicht nur bestehende Autorität wider, sondern stellen diese auch mit her und machen diese Selbstbezüglichkeit sichtbar. Doch diese Strategie findet sich heute nicht nur in Suchmaschinen, sondern ist Teil einer allgemeinen Tendenz der sozialen Optimierung.

Regelung der Autorität – Legitimation des Wissens

Googles Erfolgsgeschichte begann an der Universität Stanford, als Sergey Brin und Larry Page Ende der 1990er Jahre "Ordnung ins Web" bringen wollten.(3) Im Gegensatz zu den damals den Markt beherrschenden Suchmaschinen, welche die Relevanz von Suchergebnissen nach der Frequenz und Platzierung von Suchworten in den gefunden Webseiten bemaßen, sollte Google mit einem anderen Ansatz die relevantesten Dokumente erkennen. Die Bewertung einer Website wurde auf Basis ihrer Verlinkungsstruktur vorgenommen. Das so genannte PageRank-Verfahren bewertet eine Webseite mittels der auf sie verweisenden Links. Doch die eingehenden Links werden nicht gleichwertig gezählt, sondern wiederum nach der Bedeutsamkeit der Herkunftsseite gewichtet. Somit ist ein Verweis einer als wichtig eingestuften Webseite besonders wertvoll. Die PageRank-Werte von eingehenden Links werden vererbt. Jede indexierte Webseite im Google Archiv wird also mit einem unabhängig von der Suchanfrage bestehenden PageRank-Wert versehen.

PageRank nimmt eine objektive Bewertung der Wichtigkeit von Websites vor. Dabei wird eine Gleichung mit über 500 Millionen Variablen und zwei Milliarden Ausdrücken berechnet. Anstatt die direkten Links zu zählen, interpretiert PageRank einen Link von Seite A auf Seite B als Votum für Seite B durch Seite A. Anschließend bewertet PageRank die Wichtigkeit einer Seite anhand der erzielten Voten.(4) So formuliert Google selbst das Verfahren. Was hier als Votum benannt und damit relativ unpräzise gehalten ist, findet man in einem Paper von Jon Kleinberg, Spitzname "rebel king", etwas erhellender ausgedrückt: "Hyperlinks encode a considerable amount of latent human judgment, and we claim that this type of judgment is precisely what is needed to formulate a notion of authority." Noch etwas genauer schreibt er:

Specifically, the creation of a link on the www represents a concrete indication of the following type of judgment: the creator of page p, by including a link to page q, has in some measure conferred authority on q. Moreover, links afford us the opportunity to find potential authorities purely through the pages that point to them. (5) Auf der Suche nach Ordnungsmechanismen für die Ergebnisse der Suchmaschinen stellte Kleinberg das Konzept der "hubs and authorities" vor. Er entwickelte ein dem PageRank ähnliches Verfahren, das er "hypertext-induced topic selection" (HITS) nannte. In Hyperlinks findet sich also ein gewisser Anteil latenten, menschlichen Urteils, welches als Autorität zur Bewertung der Wichtigkeit einer Seite herangezogen werden kann. Wer einen Link setzt, hat sich das überlegt und positiv für diese Referenz entschieden.

So wie Page und Brin nennt auch Kleinberg die bibliometrische Zitationsanalyse als direkte Quelle seiner Inspiration. Er macht auch auf das sozialwissenschaftliche Feld der Soziometrie aufmerksam, im speziellen auf ein von Katz im Jahre 1953 entwickeltes Verfahren zur Berechnung des Status in einer sozialen Gruppe,(6) und auf den von Hubbell weiterentwickelten Ansatz zur Identifizierung von Cliquen.(7) Fast ein halbes Jahrhundert zuvor waren also bereits Verfahren entwickelt worden, an die jetzt direkt angeschlossen werden konnte. Sie stammten aus jener sozialwissenschaftlichen Perspektive, die sich seit langem mit sozialen Netzwerken auseinandersetzte und die in den 1970er Jahren als "Soziale Netzwerkanalyse" bekannt wurde.

Soziale Strukturen sichtbar machen

Die Soziale Netzwerkanalyse beschäftigt sich mit der Sichtbarmachung (informeller) sozialer Strukturen und deren Interpretation. Ihr zentrales Untersuchungsobjekt sind (soziale) Beziehungen. Akteure wie Personen, Institutionen, Dokumente, Nationen, Telefonanschlüsse, Viren usw. sind durch vielfältige Beziehungsformen miteinander verbunden, die mit mathematischen Verfahren vermessen und interpretiert werden können. Sind die Daten erstmals gesammelt, dann kann man sie heute am Computer als Beziehungsgeflechte visualisieren und analysieren lassen. Die Techniken der Sozialen Netzwerkanalyse haben längst die Gefilde der Wissenschaft Richtung kommerzieller Sozialforschung verlassen, und akademische Soziologen blicken vielerorts fast neidisch auf die riesigen, routinemäßig erhobenen Datensätze der seit Jahren fleißig sammelnden Unternehmen.(8) Waren anfangs netzwerkanalytische Studien noch extrem zeitaufwändig und kostenintensiv, ersetzen sie heute aufgrund der verfügbaren Rechenkapazitäten und der bereitstehenden Daten herkömmliche Umfrageforschung und Sozialstatistiken in vielen Bereichen. Wahrscheinliches Verhalten der Gesamtheit muss nicht mehr inferentiell über Stichproben vorhergesagt werden. Observierende Institutionen archivieren jede einzelne Transaktion und können so Verhalten über konkrete Werte mappen. In Verbindung mit Daten von Partner-Institutionen, welche im Rahmen von so genannten Daten-Konsortien ausgetauscht werden,(9) aber auch mit Daten von staatlichen Stellen, wie statistischen Zentralämtern, werden vielerorts geodemographische Datenbanken aufgebaut.(10) Beherbergten vormals nur utopische Gesellschaftsentwürfe solche Systeme, sind sie heute Realität und ermöglichen sowohl auf Mikro- als auch auf Makroebenen gezielte Einblicke in soziale Sphären, punktgenau oder musterhaft. Paradoxerweise stehen diesen Verfahren nun auch die größten Dimensionen offen, dabei wollte man einst die Analyse von sozialen Strukturen doch eigentlich auch gegen allsichtige, "skopische Herrschaftsformen"(11) etablieren.

Die Methoden zur Erforschung sozialer Strukturen entwickelten sich in einem stark relational geprägten Denkklima im beginnenden 20. Jahrhundert. Einstein empfahl die Lektüre von Pearsons "The Grammar of Science",(12) und die Mathematik brachte u.a. Mengenlehre, Topologie und Spieltheorie hervor. Parallel zur Entstehung moderner Bürokratien hatte sich eine optimistische Vorstellung entwickelt, "dass eine auf Mathematik und empirischen Beobachtungen beruhende Rationalität zu einer Objektivität und somit einer Transparenz führen kann, die gleichermaßen auf Beschreibungen und Entscheidungen zutrifft."(13) Mathematische Vermessungsmethoden und statistische Verfahren begründeten ihrerseits neue Felder, wie Biometrie und Ökonometrie. Der Ausbau von offenen Infrastrukturen wie Telegrafie, Telefon- und Verkehrsnetzen gewann große Bedeutung, und traditionelle Vorstellungen von Staat als zentralistisch organisierte Einheit und von Gesellschaft als Gemeinschaft wurden porös. Nachdem sich bereits führende Sozialtheoretiker des ausgehenden 19. Jahrhunderts explizit mit Sozialstrukturen auseinandergesetzt hatten, beschrieb Simmel zu Beginn des 20. Jahrhunders die Aufgabe einer "reinen" Soziologie wie folgt:

[sie sollte] aus den Erscheinungen das Moment der Vergesellschaftung [ziehen], induktiv und psychologisch von der Mannigfaltigkeit ihrer Inhalte und Zwecke, die für sich noch nicht gesellschaftlich sind, gelöst, wie die Grammatik die reinen Formen der Sprache von den Inhalten sondert, an denen die Formen lebendig sind.(14) Er fokussierte damit auf die Wechselwirkungen zwischen Individuen und Gesellschaft und auf die daraus entstehenden sozialen Dynamiken und Strukturen. Simmel bevorzugte die Erforschung der "sozialen Formen", der "Formen der Vergesellschaftung" als Beziehungsgeflechte in ihren vielfältigen Kontexten, im Gegensatz zur Erforschung der Inhalte der gesellschaftlichen Wirklichkeit, welche für ihn als Objekte anderer Sozialwissenschaften galten.(15) Für ihn war die Triade, das soziale Dreieck, die wichtigste Organisationsform in der Analyse sozialer Wechselbeziehungen:

Die Zwei stellte, wie die erste Synthese und Vereinheitlichung, so auch die erste Scheidung und Antithese dar; das Auftreten des Dritten bedeutet Übergang, Versöhnung, Verlassen des absoluten Gegensatzes – freilich gelegentlich auch die Stiftung eines solchen.(16) Die Triade stellt auch die kleinste soziale Gruppe dar, und soll deswegen als kleinste Analyseeinheit der Soziologie herangezogen werden.

Soziometrie und Netzwerkmetapher

Before the advent of sociometry no one knew what the interpersonal structure of a group ‚precisely‘ looked like.(17) Zu Beginn des 20. Jahrunderts untersuchte Jakob Levi Moreno bereits das Verhältnis von psychologischem Wohlbefinden und damit sozialen Konfigurationen. 1916 etwa unterbreitete er dem Innenministerium der K.u.K Monarchie einen Vorschlag zur sozialpsychologischen Intervention mittels Vermessung der sozialen Beziehungen in einer Flüchtlingsgruppe, doch sein Vorschlag wurde abgelehnt. 1925 wanderte Moreno von Wien nach New York mit dem Ziel, seine sozialpsychologischen Methoden der Gruppentherapie wie Rollenspiele ("Soziodrama") und Stegreiftheater dort anwenden zu können, wo sie auch willkommen wären. Seine Methode nannte er fortan Soziometrie und verband sie mit einem politischen Ziel: die "soziometrische Revolution"(18) sollte zur Gleichberechtigung der Menschen führen. Indem die Klienten als Experten selbst an den "soziometrischen Experimenten" mitarbeiteten, sollten sie ihre Situation und ihre strukturelle Einbettung selbst umgestalten und eine soziale Ordnung entsprechend der eigenen Perspektive herstellen können. Im Gegensatz zur sozialwissenschaftlichen Statistik und survey sociology wollte man nicht bereits mit vorgefertigten Kategorien in die Datenerhebung gehen, sondern solche Kategorisierungen sollten aus den vermessenen sozialen Strukturen heraus sichtbar werden.

Die Soziometriker arbeiteten kontinuierlich an neuen Mess- und Darstellungstechniken. In Beobachtungen, Befragungen und Rollenspielen wurden Anziehung und Abstoßung von Individuen erhoben und das soziale Wahlverhalten in Form von Matrizen notiert. Nach der Analyse der Gruppe und der Beziehungstypen konnte so etwa die soziale Kohäsion gemessen werden. Als wichtiges methodisches Werkzeug und Darstellungsinstrument führte man das Soziogramm ein, das die Struktur der Gruppe und die Muster der Verbindungen zwischen den Individuen sichtbar machen konnte. Punkte repräsentierten Individuen, Linien entsprachen den Verbindungen zwischen Individuen und ermöglichten so eine operative Bildlichkeit, die darauf abzielte, soziale Strukturen zugänglich und veränderbar zu machen. Indem die Einbettung der Akteure evident gemacht wurde, wollte man diese dazu bewegen, ihre soziale Positionierung nun selbst in die Hand zu nehmen, und so sowohl Veränderung induzieren als auch Ordnung optimieren.

Erst durch Soziogramme wurden eine Experimentierung und "präzise Exploration" der komplexen Beziehungen, welche seit damals als "soziale Netzwerke" und als "Entstehungsorte der öffentlichen Meinung" (19) gelten, möglich. Die so angewendete "Sozialkartographie" ermöglichte die Entdeckung des "soziodynamischen Gesetzes", des tendenziellen Wahlverhaltens in einer Gruppe, aber auch die Entwicklung von Mustern und Formen, wie den "Star", welcher heute wohl hub genannt würde.

Mathematische Netzwerke oder Graphen

Die Soziometriker fertigten Soziogramme zu Beginn manuell und ad-hoc an, was vielfach als Mangel an Wissenschaftlichkeit der Methode kritisiert wurde. Die konsequente Kritik am intuitiven Soziogramm führte in den 1940er Jahren zum Vorrang der Notation der Daten in Matrizenform. Die daraus resultierende Standardisierung der Daten zur sozialen Interaktion sollte einen objektiveren Umgang mit den Daten ermöglichen.(20) Darstellungen von sozialen Beziehungen in Matrizenform brachten einen Mathematisierungsschub der Soziometrie mit sich.(21) Erstmals konnten mit mathematischer Hilfe Subgruppen identifiziert werden und der Status einer Person, ihr Prestige, in einem sozialen Netzwerk berechnet werden, alles auf Basis der gemessenen sozialen Beziehungen. Über diese Notationsform gelangten schließlich in den 1950er und frühen 1960er Jahren auch erste topologische bzw. graphentheoretische Ansätze in die Soziometrie. Der soziale Raum konnte folglich in Form seiner Verhältnisse topographisch erfasst werden.

Die ersten Verfahren zur elektronischen Kalkulation von soziometrischen Daten ebneten weiter den Weg zur graphentheoretischen Soziometrie. Die Soziomatrizen lieferten die notwendigen Voraussetzungen und die Soziogramme verloren vorerst an Bedeutung. Die Verfechter der Soziogramme bemängelten allerdings, dass man in der Matrizennotation nur schwerlich soziale Formen, wie Dreiecke, Stars und Ketten erkennen könnte, und verlangten nach mathematischen Verfahren, welche solche Ansichten auch in Matrizen und Resultatslisten übertragen konnten.(22)

Vorerst erlaubte die formale Bearbeitung von Netzwerkdaten jedoch endlich die Operationalisierung von gerichteten und gewerteten Verbindungen und vor allem die Analyse der Gruppenstruktur vom Standpunkt jedes einzelnen Gruppenmitglieds aus.(23) Dieser Ansatz war besonders für die sich gerade formierende Theorie der Gruppendynamik interessant, um Gruppenzusammenhalt, sozialen Druck, Kooperation und Herrschaftsverhältnisse zu modellieren. Doch die Applikation von solchen Algorithmen war schwierig und langsam, Computer waren so gut wie nicht verfügbar, und wenn doch, bedeutete die Erstellung der Lochkarten einen ungeheuren Aufwand. So konnten sowohl die Erstellung eines Soziogramms als auch die Berechnungen eines kleinen Netzwerkes sehr viel Zeit in Anspruch nehmen.(24) Wollte man spezielle strukturelle Muster erkennen und bereits bestehende Konzepte testen, wie "isolates", "cliques" (25), "density" und Zentralität (26), war ebenfalls viel Aufwand notwendig.

Zentralität und Diffusion vermessen

Das Konzept der Zentralität zählt sicherlich zu den bekanntesten der Netzwerkanalyse und wurde – aufbauend auf der topologischen Psychologie Kurt Lewins – von der Gruppe um Bavelas in psychologischen Laborexperimenten am MIT im Hinblick auf die Konsequenzen von Kommunikationsstrukturen entwickelt.(27) Das Experiment muss man sich wie folgt vorstellen: Fünf Studenten saßen an einem runden Tisch und waren durch Wände von einander getrennt. Sie sollten gemeinsam eine Aufgabe lösen, konnten aber nur per schriftlichen Mitteilungen miteinander kommunizieren. Die Information bestand aus sechs Symbolen. Die Teilnehmer erhielten jeweils eine Karte mit fünf Symbolen – bei jedem fehlte ein anderes – und sollten durch Kooperation das fehlende sechste Symbol recherchieren. Bei Ertönen eines Signals durften farbig kodierte Mitteilungen ausgetauscht werden. Nach dem Versuch füllten die Teilnehmer einen Fragebogen zu ihrer Einschätzung der Performance aber auch ihrer Befindlichkeit aus. Oftmals wurden von den Experimentleitern auch gezielt Störungen in den Ablauf eingebaut und Kommunikationskanäle unterbrochen. Mit dieser stark vereinfachten Kommunikationssituation wollte man Diffusion und Autorität aus dem zweckgeleiteten Gruppenverhalten ermessen.

Aus der Studie wurde der Schluss gezogen, dass in effizienten Kommunikationsnetzwerken immer eine Person zur zentralen Anlaufstelle wird, die das Wissen sammeln muss und dadurch auch eine gewisse Machtposition hält. In dezentralen Netzwerken hingegen würde Information ineffizient fließen. Diese und ähnliche Studien waren mit neuartigen Diagrammen ausgestattet, welche die idealtypischen Kommunikationsmuster zeigen sollten: Kreis, Kette, Y und Rad (X). Die Muster konnten in Folge auch auf Maßzahlen abgebildet werden.

Ein zentraler Akteur hat viele soziale Beziehungen, doch für seine Machtposition ist sein sozialer Status, seine Autorität ausschlaggebend.(28) Die Kontrolle über knappe Güter zeigt sich erst in der Richtung der Beziehungen. Positioniert sich der Akteur mit hohem Prestige zudem noch zwischen untereinander nicht verbundenen Gruppen und fungiert so als Brücke, hält er eine Schlüsselposition im Netzwerk inne. Aus der Berechnung der Zentralität und des sozialen Status entwickelten sich vielfältige formale Methoden des Ranking eines Knotens in einem Netzwerk.

Man denke beispielsweise auch an das berühmte (und oft kritisierte) "small world" Experiment von Stanley Milgram.(29) Auf der Suche nach Diffusionsmustern wurden Versuchspersonen gebeten, ein Paket ausschließlich über persönliche Bekannte weiterzugeben, so dass es möglichst rasch an der Zieladresse ankomme. Milgram zählte die Zwischenstationen und prägte die Idee der "six degrees of separation", indem er das Ergebnis dieser und ähnlicher nachfolgender Studien auf die Bevölkerung der USA extrapolierte.

Die Interessen der sozialwissenschaftlichen Netzwerkforscher verlagerten sich allmählich durch die vermehrte Zusammenarbeit mit Statistikern und Kommunikationsforschern und der Anwendung von Computern auf die Verbreitungsmodalitäten von Information in der Gesellschaft. Soziale Gruppen, oder, weiter gefasst, soziale Netzwerke wurden nun auf ihre Durchlässigkeit hin untersucht, auf ihre sozialen Gravitationen und ihre unterschiedlichen Logiken. Im Jahre 1957 beschrieben Coleman, Katz und Wenzel in einem klassischen Paper die sozialen Prozesse in Form von Kommunikationen, welche letztlich zur Einführung eines neuen Medikamentes führten.(30) In Interviews fragten sie Ärzte nach deren professionellen und privaten Kontakten rund um die Einführung des Medikaments. Sie sollten die Namen von jeweils drei Ärzten nennen, mit denen sie freundschaftlich und beratend verbunden sind. Hierbei standen weniger der Inhalt der Kommunikation im Mittelpunkt des Interesses als die Frage, wie und mit wem kommuniziert wurde, bis schließlich das neue Medikament angenommen wurde. Sie konnten zeigen, dass sich Ärzte sehr stark von ihrem direkten informellen und professionellen Umfeld beeinflussen lassen. Je höher der Vernetzungsgrad, desto höher der Grad der Akzeptanz des neuen Medikaments.

In weiterführenden Untersuchungen zu Cliquen, Eliten und sozialen Bewegungen wurde versucht, ein Instrumentarium zu entwickeln, wie man meinungsbildende Knoten erkennen könne.(31) Solche Studien kümmerten sich nicht mehr um die ursprüngliche Forderung, Soziometrie immer gemeinsam mit den Klienten, mit deren Einverständnis und zu deren Nutzen durchzuführen. Denn die fortschreitende Mathematisierung und die damit einhergehende Normierung statteten nicht nur empirische Beobachtungen und Befragungen mit präziseren Instrumenten aus, sondern erlaubten nun auch komplexe Themengebiete mittels Filterung von Dokumenten nach Namen oder Begriffen strukturell abzubilden. Die sozialen Beziehungen der Untersuchungssubjekte, ihre social ties und sozialen Entscheidungen konnten im Rückgriff auf bestimmte Beziehungstypen aus Texten und Datensammlungen heraus bestimmt werden. Die Analyse sozialer Strukturen wurde mehr und mehr zum data mining und bot fortan auch jenseits sozialwissenschaftlicher Forschung interessante Möglichkeiten. Neben sozialpsychologischen Interventionen oder anthropologischen Untersuchungen von dörflichen oder kleinstädtischen Gemeinschaften, Heiratsregeln, sozialen Interaktionen an Arbeitsplätzen oder sozialen Konflikten, fanden sich bald unzählige Studien zu Kommunikationsverhalten, Meinungsbildung, Produktivität, Innovation und Optimierung gesellschaftlicher Zusammenhänge. Diese bedienten sich ebenfalls graphentheoretischer Methoden aus dem Umfeld der Soziometrie und Sozialpsychologie.

Informetrische Optimierung

Mit soziotechnischen Netzwerken hingegen beschäftigten sich zeitgleich Operationsresearch und Kybernetik. Flussdiagramme für Prozesssteuerungen und Netzpläne wurden ebenfalls als topologische Graphen konstruiert. So lag es nicht fern, Analogien zwischen der Vermessung von sozialen Gruppen und elektrischen Netzwerken herzustellen.(32) Militärische Logistik und die Automatisierung von Waffensystemen standen am Anfang der Kybernetik, doch kybernetische Theorien der Automation und Regelung komplexer Maschinen-Systeme entwickelten sich bald weiter zu einer umfassenden Wissenschaft der Kontrolle und Kommunikation, der sozialen Regulierung und Optimierung von Informationsressourcen.(33) Information wurde zum konstitutiven Prinzip einer fortschrittlichen, telematischen Gesellschaft erhoben und sogleich als Maß der Erwartungswahrscheinlichkeit von sozialen, wie maschinellen Prozessen festgesetzt. Ziel eines kybernetischen Sozialmanagements wäre also die Minimierung von Unsicherheiten durch eine Informatisierung der Gesellschaft. In einer solchen Gesellschaft wandelten sich soziale Beziehungen zu Kommunikationsverbindungen. Kommunikationsverhalten und Informationsverbreitung wurden als messbare epistemische Entitäten modelliert. Die Perspektive wurde immer weiter weg von den Inhalten der Kommunikation hin zu deren soziotechnischen Verbreitungsmustern gelenkt. Damit wollte man auch die Frage nach Wissen und seiner Autorisierung beantworten: "Wer entscheidet, was Wissen ist, und wer weiß, was es zu entscheiden gilt?"(34) "Das zeigt sich nach erfolgreicher Übertragung." So könnte die sozio-informetrische Antwort lauten.

Anerkennung durch Referenz

Robert Merton bemühte sich in seiner Wissenssoziologie seit den 1930er Jahren um eine Definition der Rahmenbedingungen für eine von der Politik unabhängige Wissenschaftlichkeit. Er konnte in seinen Untersuchungen zeigen, dass die Legitimation von Wissen einem historischen Wandel unterliegt, spezifische soziale Aushandlungsprozesse und Strategien benötigt und sich in sozialen Beziehungen etabliert.(35) Merton war überzeugt, dass das Wissenschaftssystem selbst die oberste Autorität für das darin produzierte Wissen darstellen sollte. Forschungsergebnisse wären demnach Gemeineigentum, welches mittels der peer-review überprüfbar, wiederholbar und kritisierbar sein muss. Die Bewertung wissenschaftlicher Forschung sollte unabhängig vom individuellen Wissenschaftler und seinen sozialen Attributen erfolgen. Eine Methode, die eine solche Bewertung möglich machte, war die Bibliometrie.

Bibliometrie als statistische Untersuchung von Publikationsverhalten und Bibliotheken blickte zu diesem Zeitpunkt bereits auf eine lange Tradition zurück. Die Zitationsanalyse als Teilbereich bediente sich anfänglich relativ einfacher statistischer Verfahren und Indexierungsysteme, um Wissensgebiete auf einen Blick erkennbar zu machen. Bereits im 16. Jahrhundert markierte und filterte man biblische Textstellen mit Zitationsindizes.(36) Lotka berechnete und interpretierte bereits 1926 die wissenschaftliche Produktivität im Bereich der Physik und Chemie über das Publikationsverhalten.(37)

Eugene Garfield, der Begründer des Science Citation Index, hatte über seine Begegnung in den 1940er Jahren mit dem juridischen Zitationsindex Shepard´s die Idee, ein solches System auch für andere Wissensgebiete anzuwenden. Der Shepard´s versammelte seit 1873 Gerichtsurteile und darin enthaltene Referenzen auf frühere Rechtssprechungen als Zitationskatalog. In diesem System war Autorität zeitlich angelegt, jeweils die letzte Rechtssprechung war die relevanteste. Garfield erkannte das Potential einer solchen Anwendung für den unüberschaubaren Korpus technischer Patente und wissenschaftlicher Publikationen:

The amazing efficiency of the citation method is such that once the starting case or statute is found it becomes a key that unlocks the entire store of law on a given point. It is this function which it appears would be of great value in other fields. An article on any scientific subject would be the key to all others.(38) So erfasst, konnte ein einziges wissenschaftliches Dokument zum effizienten Zugang in die Wissenslandschaft werden. Garfield bezeichnete sich selbst gerne als "information engineer" und konzipierte den SCI bereits von Anfang an sowohl als Analyseinstrument, als auch als Evaluationswerkzeug und "Hypersuchmaschine". "That‘s why I call it ‚hypersearch‘. I‘ve said that the SCI is the ultimate hypersearch product. I think Ted Nelson is credited with the notion of hypertext, but I doubt that he knew the SCI even existed."39 Garfield träumte von einer Einheitswissenschaft, dementsprechend sollte sein wissenschaftlicher Index alle Disziplinen erfassen. Im Gegensatz zu Shepard´s, welcher auf das Fachwissen der Redakteure angewiesen ist, sollte sich sein Index auf Basis von Fachjournalen, wo bereits im peer review-Verfahren die Wissenschaftlichkeit garantiert wurde, selbst generieren. Der Science Citation Index misst und bewertet nicht die Inhalte der zitierten Werke, sondern nur deren Referenzpunkte und damit deren Reputationen. Insofern produziert der SCI ein sozio-stukturelles Modell des Publikationsverhaltens, und macht so die Fußnote zur wichtigsten Informationsquelle.

Nachdem eine erste Version der Zitationsdatenbank mit Geldern des amerikanischen National Institute of Health initiiert wurde, konnte bereits 1963 der SCI für das Jahr 1961 extrahiert werden. Parallel wurde auch ein Patentindex angelegt, der jährlich alle US Patente aufnahm. Die Datenbank umfasste im Jahre 1965 bereits 1057 Fachzeitschriften, knapp 50.000 Patente und mehr als 2 Millionen "registrierte Ausgangsstellen zur Weltliteratur der Wissenschaften und Technologie"(40). Diese Daten lagen alle auch in Form von Lochkarten für die automatisierte Verarbeitung vor. Dank der Automatisierung und der Reduktion der Zitate auf ihre Referentialität konnte der Index statistisch analysiert werden. Dividierte man die Anzahl der Zitate eines Bezugsjahres auf Artikel der vergangenen zwei Jahre durch die Anzahl der Artikel der vergangenen zwei Jahre, erhielt man eine Maßzahl, welche bald als impact factor in die Wissenschaftsgeschichte eingehen sollte.

Der SCI "wurde hauptsächlich dazu entwickelt, Probleme der Informationsauffindung zu lösen. Später hat man noch eine Gruppe von zusätzlichen Anwendungsarten gefunden, die für Historiker, Soziologen, Verwaltungspersonal etc. von Bedeutung sind."(41) Häufig trafen Vertreter der (Wissenschafts-)Soziologie, der Netzwerkforschung und der Kommunikationswissenschaft mit Garfield und den Mitarbeitern seines ISI Institutes zusammen. Gemeinsame Themen waren jedoch nicht nur die (sozialen) Kontexte von Wissensproduktion und die Diffusion von Innovationen, sondern im speziellen die Möglichkeiten der Bewertung wissenschaftlichen Wissens. Der impact factor des SCI stellte eine solche Möglichkeit dar und bestimmt bis heute maßgeblich wissenschaftliche Karriereverläufe. In ihm ist eine gewertete soziale Beziehung operationalisiert, denn eine Referenz zu setzen, bedeutet die Anerkennung der bezüglichen Expertise.

Doch damals war der impact factor nur eine mögliche Auswertungsform und Garfield ersann weitere Explorationen des Datenmaterials:

Is it reasonable to assume that if I cite a paper that I would probably be interested in those papers which subsequently cite it as well as my own paper. Indeed, I have observed on several occasions that people preferred to cite the articles I had cited rather than cite me! It would seem to me that this is the basis for the building up of the "logical network" for the citation index service.(42) Neben dem Zugang zu ähnlicher Fachinformation erkannte Garfield bald das Interesse am wechselseitigen Publikationsverhalten und an der Kontrolle der Verwertung des geistigen Eigentums. Wissenschaftler hätten fortan sowohl bessere Möglichkeiten der bibliographischen Kontrolle als auch der Meisterung der Informationsflut, die damals auch von offiziellen Stellen als Krise hochstilisiert wurde.(43)

Tatsächlich, das Interesse am Datenmaterial des SCI wurde immer größer. Die Zitationsanalyse wurde nun auch vermehrt auf historische Dokumente, Monographien und Korrespondenznetzwerke ausgedehnt, und Studien wie etwa jene zu "Invisible Colleges"(44) öffneten den Blick auf breit gefächerte Wissensgeschichten, welche keinen einheitlichen Narrativen folgten und sich durchaus entgegen den Idealen des stetigen Wachstums von Wissen in lose gekoppelten Konfigurationen gestalteten. Analysen des "bibliographic coupling"(45) und Kozitationsanalysen (46) gaben Aufschluss über die Streuung der wissenschaftlichen Fachliteratur. Kozitierte Dokumente erschienen gemeinsam in einer Referenzliste eines dritten Dokuments und konnten so gezählt werden. Über die bibliographische Kopplung hingegen wurde festgestellt, welche Werke sich auf die gleiche Arbeit beziehen.

Price interessierte sich für den Lebenszyklus eines wissenschaftlichen Textes. "More work is urgently needed on the problem of determining whether there is a probability that the more a paper is cited the more likely it is to be cited thereafter."(47) Spätere zitationsanalytische Studien bestätigten seine Hypothese; "the rich get richer". Ein solches Netzwerk würde man heute skalenfrei nennen, denn es besteht im Wesentlichen aus vielen Knoten mit niedrigem, und wenigen Knoten mit hohem Rang. Neu hinzukommende Publikationen referenzieren mit einer deutlich höheren Wahrscheinlichkeit auf bereits populäre Arbeiten.(48) Die Anzahl der Referenzen generiert damit Sichtbarkeit und Anerkennung.

Robert Merton, ebenfalls ein Verfechter der strukturellen Perspektive in der Soziologie, formulierte auf Basis der Arbeiten von Harriet Zuckerman seine These vom "Matthäus Effekt"(49) im Anerkennungssystem in den Wissenschaften. Dieser bestehe darin, dass "hoch angesehenen Wissenschaftlern für gewisse wissenschaftliche Beiträge unverhältnismäßig große Anerkennungsbeiträge zufallen, während solche Anerkennung Wissenschaftlern, die sich noch keinen Namen gemacht haben, vorenthalten wird."(50) Merton erkannte die Zitation als "Routineform" der wissenschaftlichen Wahrnehmung. Neben der Erschließung der Quellen des "entlehnten" Wissens wäre sie als Institution der "Anerkennung" eingebettet in das Normen- und Belohnungssystem der Wissenschaft und wirkte selbst wieder auf das System zurück.(51) Der SCI wurde bald zu einem zentralen und globalen Akteur in der Wissenschaftslandschaft. Der referenzierte wissenschaftliche Text wurde so zur Einheit für die Messung seiner Tragweite, seiner Wichtigkeit und in weiterer Form zum Indikator für die Evaluation der wissenschaftlichen Produktivität. Damit fungierte die Zitationsanalyse auch als Instrument der Disziplinierung der wissenschaftlichen Akteure. Eine wissenschaftliche Karriere wird u.a. am impact factor der Publikationen gemessen, und damit ist das epistemische Zitat schlussendlich insofern verdinglicht, als es inzwischen auch von den zitierenden Akteuren selbst als soziales Kapital anerkannt wird, was zu Effekten führt, die eine Zitationsanalyse in weiterer Folge gar unterminieren könnten. Strategisch eingesetztes Zitierverhalten wie Selbstzitation und so genannte Zitationskartelle, in welchen sich beteiligte Wissenschaftler ständig gegenseitig referenzieren, erinnern an die Suchmaschinenoptimierer, die heute Webseiten eine größere Sichtbarkeit in den Resultatslisten generieren sollen. Akademische Suchmaschinen machen inzwischen nicht nur Publikationen großer, den Markt beherrschender Verlage durchsuchbar, sondern listen auch frei zugängliche akademische Publikationen. Indem der wissenschaftliche Zitiertrend eindeutig in Richtung frei verfügbarer Inhalte geht,(52) könnten traditionelle Verlage, und damit auch der herkömmliche SCI und sein Impaktfaktor, bald obsolet werden.

Netzwerke, Optimierung und Kontrolle

Das Zitat, als Verdinglichung einer bestimmten sozialen Beziehung in der Wissenschaft, wurde zum Wegbereiter für Ordnungsalgorithmen der heutigen Suchmaschinen im Internet. Die Referenz aus der Bibliometrie stand Modell für die Behandlung von Hyperlinks zwecks Relevanzkonstruktion von Resultatslisten. Während die frühe Soziometrie ein Votum als soziale Wahl definierte, welche eingebettet in soziale Situationen und unter Teilnahme der Wählenden eruiert werden sollte, operationalisierte die soziometrisch geprägte Kommunikationsforschung die soziale Beziehung im Hinblick auf die zweckrationale Diffusion von Information. Die wissenschaftlich-publizistische Referenz wiederum steuerte die Logik der Anerkennung in Referenzsystemen, die zum "authoritative judgment"(53) in Suchmaschinentechniken herangezogen werden konnte. Die Zitationsanalyse formte das wissenschaftliche Zitat erst zu dem, was wir heute darunter verstehen, indem sie explizit als bewertendes Instrument geschaffen wurde. Ihre methodische Autorität erhält sie aus dem Wissenschaftsfeld zugeschrieben, basierend auf den darin geltenden Normen und Wertvorstellungen. In Ranking-Algorithmen wird die soziale Beziehung auf eine spezifische Kommunikationsdimension hin reduziert: der Setzung einer Referenz. Kommunikationsbeziehungen in Form von Hyperlinks dienen der sichtbaren Vernetzung und damit der Anbindung an oder von Informationen. Über die Richtung der Verbindung wird dann noch Autorität als Prestige oder sozialer Status im Sinne der Vernetzung an die Referenz weitergegeben. Doch gerade in Zeiten der vielen Optimierungsmaßnahmen, mash-ups und automatischen feeds wird ein solches Konzept von Autorität wieder fragwürdig. Automatisierte kollektive Autoritäten produzieren Matthäus Effekte, preferential attachments usw., und man sehnt sich nach Redaktionsteams wie denen des Shepard‘s Index, welche jede Referenz einer qualitativen Prüfung unterzogen.

Doch die heute unhintergehbaren Leitmetaphern des Netzwerks als "zeitgenössische Vergesellschaftungsform des modernen Kapitalismus"(54) verstellen alternative Anschauungsformen abseits des "Absolutheitsanspruchs der Vernetzung".(55) "Vernetzt Euch!" lautet nicht nur die technische Devise. Man ist ebenfalls angehalten, beruflich wie privat sichtbare Verbindungen zu allen potentiell bereichernden Kontakten zu knüpfen, sich auf social networking-Plattformen oder Events zu begeben, mobil und flexibel die Strukturen des Arbeitsmarktes zu bedienen und Verantwortlichkeiten in den Prozessen der Netzwerke zu verorten. Auch für bereits gut vernetzte Individuen gilt das Optimierungsparadigma, ihre Positionen sowohl temporal als auch im Sinne des sozialen Kapitals zu verbessern. Sichtbare Vernetzungen sollen heute sowohl Autonomie und Eigenverantwortlichkeit als auch Zeugenschaft und Autorität garantieren, doch keinesfalls stabile soziale Sicherheit.. Eine "audit society" inkorporiert und dezentralisiert gleichzeitig ihre Kontrolltechniken, wodurch sie undurchschaubar bleiben.(56) Der SCI Journal Impact Factor ist ein Beispiel für das systematische Vertrauen darauf, dass irgendwo in der Verkettung der Beziehungen – in dem Fall Referenzen – bereits eine kollektive (Qualitäts-)Kontrolle stattgefunden hat. Suchmaschinen im Internet nutzen ebenfalls diesen Vertrauensvorschuss, und obwohl Autoritäten im automatisierten, vernetzten System verschwimmen, sind sie selbst "obligatory passage points".(57) Vorgeblich zu ihrer eigenen Optimierung, aber vor allem zur individualisierten Versorgung mit Werbeeinschaltungen, sammeln sie Daten und interpretieren Suchprofile. Mit Studien wie etwa zur Ausbreitung einer Grippeepidemie auf Grundlage von Suchanfragen (58) sichern sie sich weiter Vertrauen, in dem sie ihre Offenheit, Transparenz und ihren offenkundigen Willen, sich in den Dienst der Gesellschaft zu stellen, kommunizieren.

Die soziometrische Vermessungskunst mit ihren soziogrammatischen Darstellungsformen soll indessen ermöglichen, Suchresultate als Knoten-Kantendiagramme zu repräsentieren, Freundschaften auf deren Freundschaften – friend of a friend, FOAF – hin zu untersuchen, professionelle Kontakte um einige Handshakes näher an die eigene Position heranzuziehen, den vermeintlichen Kopf einer Terrorgruppe im Diagramm zu identifizieren. Im Netzwerk zählt jede Beziehung, im "panoptischen Diagramm" kann man damit hantieren.(59) Autorität liegt damit nicht mehr in den Beziehungen, sondern wird in das Messinstrument selbst verschoben, in die Sichtbarmachung interpretiert. Ob die Resultate als Liste, Matrize oder Diagramm vorliegen, in ihrem Auftreten sind sie zugleich Darstellung und Herstellung von Beziehungen, deren Sozialität einer Informetrisierung unterzogen wurde. Suchmaschinen und ihre Politiken der Sichtbarmachung müssen demnach als spektakuläre Instrumente und Teil eines soziometrischen Gesellschaftsmanagements begriffen werden. Dieses jedoch trägt die Techniken seiner eigenen Manipulierbarkeit immer in sich, wie etwa Zitationskartelle zeigen. Unter soziometrischer Revolution wird heute eine netzwerkorientierte Optimierung verstanden: Suchmaschinenoptimierer bauen rund um ihre Kundenwebseiten Autoritäten auf, damit diese in der Resultatsliste weit oben aufscheinen; Suchmaschinen optimieren die Streuung ihrer Werbekunden und erforschen die Welt der Informationssuchenden über ihre Suchprofile; epidemiologische Untersuchungen zur Ausbreitung von Krankheitserregern gleichen Studien zu verflochtenen Finanzmärkten, nicht nur in deren formalen Aspekten, sondern auch in deren Inszenierungen und Rhetoriken; die Flexibilisierung von Produktionsprozessen, die Verkürzung von Produktlebenszyklen und die (angebliche) Individualisierung von Waren entspringen einer Anpassung der Massenmärkte an eine Netzwerklogik der Prozessoptimierung; ökonomische Netzwerkforschungen lehren strukturelle Blockadestrategien gegen Konkurrenzunternehmen;(60) Verteidigungsministerien und diverse Exekutivorgane in aller Welt fördern die Netzwerkforschung, da sie sich von network centric warfare Vorteile durch ihre bessere Logistik und key player Analyse erwarten.

Zentrale Positionen – key player – in einem Netzwerk auszumachen, um diese dann genau zu beobachten, eingreifend zu verändern, zu umgehen oder gar auszuschalten, sind nicht nur Anliegen von Militärs und Unternehmen. Auch Wissenschaftler nutzen sie, sei es um den superklassischen Text zu finden, sei es seine eigene Position im Wissenschaftssystem zu verbessern, oder, um in das Untersuchungsfeld allgemein einzugreifen. Auch Epidemiologen, Finanzdienstleister, Marketingstrategen, Versicherungsvertreter und Wahlkampfhelfer sind an solchen Schlüsselpositionen interessiert und bringen ihre eigenen Optimierungsstrategien in die Netze ein. Führen letztlich solche Optimierungsstrategien gar im kybernetischen Sinne als Rückkopplungen zur Selbstregulation der Systeme oder führen sie eher gewisse Analysesysteme ad absurdum? Vorerst jedoch führen sie zu einer soziometrischen Subjektivierung der Akteure, die sich fortan als Knoten begreifen und ihre sozialen Beziehungen sichtbar optimieren wollen.

Anmerkungen

(1) Vorliegender Text stützt sich auf mehrere Recherchen für andere Publikationen, u.a. meine Dissertation zum Thema Netzwerkvisualisierung in der Sozialen Netzwerkanalyse (Mayer, K. forthcoming. Imag(in)ing Networks. Doctoral Thesis, University of Vienna, Department of Social Studies of Science), und einen Aufsatz (Mayer, K. 2007. Who shall survive? Die Netzwerke des Jakob L. Moreno; in: Bredekamp, H., Werner G., (Hg) 2007. Bildwelten des Wissens. Systemische Räume. Berlin, Akademie Verlag). Ich danke folgenden Personen(gruppen) für wertvolle Gespräche und Tipps: Konrad Becker, Gerhard Dirmoser, Arno Böhler, Ulrike Felt, Lin Freeman, Thomas König, Astrid Mager, Patrick Pulsinger, Theo Röhle, SOCnet Mailingliste, Felix Stalder.

(2) Moreno, J.L. 1967. Die Grundlagen der Soziometrie. Köln und Opladen: Westdeutscherverlag.

(3) Page, L., Brin, S., Modwani, R., and Winograd, T. 1999. The PageRank Citation Ranking: Bringing Order to the Web. Stanford: http://ilpubs.stanford.edu:8090/422/ (1.12.2008)

(4) Google. 2008. Unternehmensbezogene Information. http://www.google.de/corporate/tech.html (1.12.2008)

(5) Kleinberg, J. 1998. Authoritative sources in a hyperlinked environment. Proc. 9th ACM-SIAM Symposium on Discrete Algorithms. (Extended version in Journal of the ACM 46(1999). Also appeared as IBM Research Report RJ 10076, May 1997.) 2.

(6) Katz, L. 1953. A new status index derived from sociometric analysis. In: Psychometrika, Vol. 18, Nr.1, 39–43.

(7) Hubbell, Ch. H. 1965. An Input-Output Approach to Clique Identification. In: Sociometry, Vol. 28, Nr. 4, 377–399.

(8) Savage, M. and Burrows, R. 2007. The coming crisis of empirical sociology. In: Sociology, Vol. 41, Nr. 5, 885–599.

(9) Vgl. Marsh, H. 1998. What‘s In Store? In: Marketing, Vol. 15th October 1998, p37–38.

(10) Evans, M. 2005. Confidentiality, Data Protection & Marketing. http://www.ccels.cf.ac.uk/archives/publications/2004/ evanspaper.pdf (1.12.2008) (Edited version of The data-informed marketing model and its social responsibility‘ by Martin Evans in The glass consumer: Life in a surveillance society published by The Policy Press, June 2005.)

(11) vgl. Crary, J. 1990. Techniques of the Observer: On Vision and Modernity in the 19th Century. Cambridge: MIT Press; Jay, M. 1994. Downcast Eyes: The Denigration of Vision in Twentieth-Century French Thought. Berkeley: University of California Press.

(12) Pearson, K. [1892] 1957. The Grammar of Science. New York: Meridian Books.

(13) Desrosières, A. 2005. Die Politik der großen Zahlen. Eine Geschichte der statistischen Denkweise. Berlin, Heidelberg: Springer. 33.

(14) Simmel, G. 1917. Grundfragen der Soziologie. (Individuum und Gesellschaft). Berlin und Leipzig: Göschen´sche Verlagshandlung. 27. http://socio.ch/sim/gs171.htm (1.12.2008)

(15) Simmel, G. 1908. Soziologie. Untersuchungen über die Formen der Vergesellschaftung. Berlin: Duncker & Humblot.

(16) Simmel 1908: 75.

(17) Moreno, J.L. [1934] 1953. Who shall survive. A New Approach to the Problem of Human Interrelations. Washington D.C.: Nervous and Mental Disease Publishing. (2. stark erweiterte Auflage: Who Shall Survive? Foundations of Sociometry, Group Psychotherapy and Sociodrama. NY: Beacon House Inc.) lvi.

(18) Moreno 1967.

(19) Moreno 1967: 276.

(20) Forsyth, E. and Katz, L. 1946. A Matrix Approach to the Analysis of Sociometric Data: Preliminary Report. In: Sociometry, Vol. 9, No. 4 (Nov., 1946), 340–347.

(21) Wasserman, S. and Faust, K. (1994). Social Network Analysis. Cambridge: University Press. 79.

(22) Moreno, J.L. 1946. Sociogram and Sociomatrix: A Note to the Paper by Forsyth and Katz. In: Sociometry, Vol. 9, No. 4 (Nov., 1946), 348–349.

(23) Vgl. Cartwright, D. and Zander, A. 1953. Group Dynamics: Research and Theory.1st ed., Evanston, IL: Row Peterson; Harary, F. and Norman, R. Z. 1953. Graph theory as a mathematical model in social science. Ann Arbor, Mich.: University of Michigan; Bavelas, A. 1950. Communication patterns in task oriented groups. In: Journal of the Acoustical Society of America, Vol. 22, 271–282.

(24) Freeman, L.C. 2004. The Development of Social Network Analysis: A Study in the Sociology of Science. Vancouver: Empirical Press. 98.

(25) Vgl. Luce, R. D and Perry, A. 1949. A method of matrix analysis of group structure. In: Psychometrika, Vol. 14, 94–116; Luce, R. D. 1950. Connectivity and Generalized Cliques in Sociometric Group Structure. In: Psychometrika, Vol. 15, 169–190.

(26) Vgl. Bavelas, A. 1948. A mathematical model for group structure. In: Applied Anthropology, Vol. 7, 16–30; Leavitt, H.J. 1951. Some effects of certain communication patterns on group performance. Journal of Abnormal and Social Psychology, Vol. 46, 38–50.

(27) Vgl. Bavelas 1948, 1950; Leavitt 1951.

(28) Vgl. Moreno 1953; Katz 1953; Harary, F. 1959. Status and contrastatus. In: Sociometry Vol. 22, 23–43; Hubbell 1965; Freeman, L. C. 1977. A set of measures of centrality based on betweenness. In: Sociometry Vol. 40, 35–41.

(29) Milgram 1967. The Small World Problem. In: Psychology Today, May, 60–67.

(30) Coleman, J., Katz, E. and Menzel, H. 1957. The Diffusion of an Innovation Among Physicians. In: Sociometry, Vol. 20, 253–170.

(31) Vgl. Freeman 2004.

(32) vgl. Cherry, C. 1963. Kommunikationsforschung – eine neue Wissenschaft. Hamburg: S. Fischer Verlag; Schüttpelz, E. 2007. Ein absoluter Begriff. Zur Genealogie und Karriere des Netzwerkkonzepts. In: Kaufmann, S. (Hg.): Vernetzte Steuerung. Zürich: Chronos, 25–47.

(33) Vgl. Wiener, N. 1961. Cybernetics. Second Edition: or the Control and Communication in the Animal and the Machine. New York: MIT Press.

(34) Lyotard, J.-F. [1979] 2005. Das postmoderne Wissen. Wien: Passagen. 35.

(35) Vgl. Merton, R. K. 1985. Entwicklung und Wandel von Forschungsinteressen. Aufsätze zur Wissenschaftssoziologie. Frankfurt am Main: Suhrkamp Verlag.

(36) Weinberg, B.H. 1997. The earliest Hebrew citation indexes. In: Journal of the American Society for Information Science, Vol. 48, 318–330.

(37) Lotka, A. J. 1926. The frequency distribution of scientific productivity. In: Journal of the Washington Academy of Sciences, Vol. 16, 317–323.

(38) Garfield an Adair 1954, siehe: Wouters, P. 1999. The citation culture. Unpublished doctoral dissertation, University of Amsterdam, Amsterdam. 26.

(39) Garfield, E. 2000. Eugene Garfield celebrates a Birthday and a Career. In: Information Today, Vol. 17, No. 10, November 2000. http://www.garfield.library.upenn.edu/papers/ informationtoday11172000.html (1.12.2008)

(40) Garfield, E. 1965. Über den Science Citation Index (SCI) und Verwandte Entwicklungen der Jüngsten Zeit. In: Nachrichten für Dokumentation, Vol. 16. – Nr. 3, 130–140. 31. 41 Garfield 1965: 136.

(42) Garfield on Lederberg 1962, siehe Wouters 1999: 72.

(43) Vgl. Wouters 1999.

(44) Vgl. Crane, D. 1972. Invisible Colleges: Diffusion of knowledge in scientific communities. Chicago: University of Chicago Press; Kadushin, C. (1968): Power, Influence and Social Circles: A New Methodology for Studying Opinion-Makers. In: American Sociological Review, Vol. 33, 685–699.

(45) Vgl. Kessler, M. M. 1963. Bibliographic coupling between scientific papers. American Documentation, 14: 10–25; Martyn, J. (1964). Bibliographic coupling. Journal of Documentation, 20(4): 236.

(46) Vgl. Marshakova, I. V. 1973. A system of document connection based on references. Scientific and Technical Information Serial of VINITI, 6(2): 3–8; Small, H. 1973. Co-citation in the scientific literature: A new measurement of the relationship between two documents. Journal of the American Society of Information Science, 24(4): 265–269.

(47) Price, D. J. de Solla.1965. Networks of Scientific Papers. In: Science, Vol. 149, No. 3683, 510–515. 512.

(48) Vgl. "cumulative advantage" Modell in Price, D. J. de Solla. 1976. A general theory of bibliometric and other cumulative advantage processes. In: Journal of the American Society for Information Science, Vol. 32, 280–286; oder "preferential attachment" Modell in Barabási, A.-L. and Albert R. 1999. Emergence of scaling in random networks. In: Science Vol. 286: 509–512. http://arxiv.org/abs/cond-mat/9910332. (1.12.2008)

(49) Vgl. Merton, R. K. 1968. The Matthew effect in science. In: Science Vol. 159, 56–63.

(50) Merton 1985: 155.

(51) Merton, R.K. 2000. On the Garfield Input to the Sociology of Science: A Retrospective Collage. In: Cronin, B., Barski-Atkins, H. (eds.) 2000: The Web of Knowledge. A Festschrift in honor of Eugene Garfield. ASIST. 438.

(52) Vgl. Eprints: http://opcit.eprints.org/oacitation-biblio.html (1.12.2008)

(53) Vgl. Kleinberg 1998.

(54) Vgl. Boltanski, L. und Chiapello, E. 2006. Der neue Geist des Kapitalismus. Konstanz: UVK

(55) Schüttpelz 2007: 25.

(56) Power, M. 1999. The Audit Society. Oxford: University Press.

(57) Callon, M. 1986. Elements of a sociology of translation: Domestication of the Scallops and the Fishermen of St Brieuc Bay. In John Law (Ed.), Power, Action and Belief: A New Sociology of Knowledge? London, Routledge: 196–233; Röhle, T. in diesem Band; Mager, A. forthcoming. Mediated Health: Socio-technical practices of providing and using online health information. in: New Media & Society.

(58) Google Flutrends. 2008. http://www.google.org/flutrends/ (1.12.2008)

(59) Vgl. Elmer, G. 2003. A diagram of panoptic surveillance. In: New Media and Society, Vol. 5, 231–247.

(60) Vgl. "blocking action" in White, H. C. 1992. Identity and Control: A Structural Theory of Action. Princeton, NJ: Princeton UP.

Fussnoten

Weitere Inhalte

Weitere Inhalte

Artikel

Periphere Kräfte

Das Forschungs- und Designstudio Metahaven wendet sich der Soziometrik und dem vorherrschenden Paradigma zu, auf dem PageRank beruht. Es geht der Frage nach, "wie eine andere Sicht auf die…

Überwachung, Tracking, Datenschutz

Algorithmen sind keine Messer

Algorithmen bestimmen, was eine Google-Suche als Ergebnisse auswirft, welche Werbung wir angezeigt bekommen oder ob unser Verhalten im Netz den Sicherheitsbehörden auffällt. Doch kaum jemand weiß,…

Artikel

Zur Frage der Vergoogelung

Richard Rogers stellt eine schleichende "Vergoogelung" der ganzen Medienlandschaft fest, wonach die Methoden, die Google zur Vorherrschaft verholfen haben, nun auch anderswo eingesetzt werden. Diese…

Artikel

Die Demontage der Gatekeeper

Suchmaschinen wurden einst als ermächtigende Werkzeuge für die Navigation des Online-Raumes angekündigt, mittlerweile gelten sie als "böse" Manipulatoren und Datensammler. Anhand von Begriffen…

Artikel

Der zweite Index

Felix Stalder und Christine Mayer fragen, ob Suchmaschinen die Autonomie der Nutzer stärken oder schwächen. Ihr Zugang konzentriert sich auf das Thema Personalisierung. Liegt darin eine…

Katja Mayer studierte Soziologie, Physik und Philosophie an der Universität Wien. Vorher war sie bei Public Netbase einige Jahre für Entwicklung, Recherche und Produktion von Vortragsserien und Ausstellungen verantwortlich; zurzeit unterrichtet sie am Institut für Wissenschaftsforschung der Universität Wien und schreibt an ihrer Dissertation über die ästhetische Dimension der Sozialen Netzwerkanalyse mit dem Titel: Imag(in)ing Networks.c