Ein Besucher blickt auf das Rechenzentrum des CERN.
1|2|3|4|5 Auf einer Seite lesen

8.4.2011 | Von:
Richard Rogers

Zur Frage der Vergoogelung

Hin zu einer unkritisierbaren Maschine?

Richard Rogers stellt eine schleichende "Vergoogelung" der ganzen Medienlandschaft fest, wonach die Methoden, die Google zur Vorherrschaft verholfen haben, nun auch anderswo eingesetzt werden. Diese Methoden seien nie rein technisch, sondern immer auch politisch – wenn nicht der Absicht nach, so doch in ihrer Wirkung.
Computerraum der U.S. Navy in Mare Island 1958. In der Bildmitte befindet sich der eigentliche Großrechner, im Hintergrund rechts befinden sich die Bandlaufwerke mit Hilfe derer die Daten auf Magnetbändern gespeichert wurden.Computerraum der U.S. Navy in Mare Island 1958. In der Bildmitte befindet sich der eigentliche Großrechner, im Hintergrund rechts befinden sich die Bandlaufwerke mit Hilfe derer die Daten auf Magnetbändern gespeichert wurden. (© AP)

Die Vergoogelung und das Dienst-gegen-Profil-Modell

Die Illustration Googles von Jude Buffum kann als stenografischer Hinweis auf die "Vergoogelung" gelesen werden, ein Terminus, der 2003 eingeführt wurde, um das Einsickern der Suchtechnologien und Ästhetik dieses Medienunternehmens in immer mehr Web-Applikationen und Kontexte, sogar in traditionsreiche Einrichtungen wie Bibliotheken zu bezeichnen (siehe Abbildung 1).(2) Der Medienwissenschaftler Siva Vaidhyanathan schreibt in einem Blog-Eintrag über sein Buch The Googlization of Everything, dass Google die "Spielregeln für mindestens sechs Wirtschaftsbranchen geändert hat: Werbung, Software, geographische Dienste, E-Mail, das Verlagswesen und den Online-Handel selbst".(3)

Die Vergoogelung verweist auf eine Medienkonzentration und damit auf eine wichtige volkswirtschaftliche Kritik an Googles Übernahme von einem Onlinedienst nach dem anderen. Aus medienwissenschaftlicher Sicht könnte die Vergoogelung auch als eine Analyse von Google als Massenmedium betrachtet werden, die sich am Denken der Kritik der klassischen Rundfunkmedien orientiert. Gibt es zum Beispiel eine strenge Trennung zwischen dem Produzenten bzw. Verteiler einerseits und Medienkonsumenten andererseits? Die Nutzer von Suchmaschinen geben normalerweise kein Feedback über die Ergebnisse ab. Sind die finanziellen und technischen Hürden für den Markteintritt so hoch, dass Newcomer keine Chance haben? Neue Suchmaschinen entstehen, doch die Branche ist reifer geworden. Und jede größere Suchmaschine verwendet einen Algorithmus, der Googles PageRank zu imitieren versucht. Es gibt also so etwas wie eine algorithmische Konzentration. Versucht der angebotene Inhalt, einem größtmöglichen Publikum zu gefallen? Wie ich weiter unten zeigen will, sind Suchergebnisse nicht notwendigerweise ein Abbild einer Vielfalt von Stimmen. Vielmehr sind die Quellen oft recht bekannt und etabliert. Aufgrund dieser und anderer Eigenschaften könnte man beginnen, über die Relevanz einer Kritik der Massenmedien für Google nachzudenken.(4)

Was ist die Vergoogelung noch? Vaidhyanathan unterstreicht, dass die Dienste dem Anschein nach kostenlos sind. Wenn aber die "Web-Suche, E-Mail, Blog-Plattformen und YouTube-Videos benutzt werden, dann registriert Google unsere Gewohnheiten und Vorlieben, damit Werbung zielgenauer an uns gerichtet werden kann".(5) Für Wissenschaftler, die sich mit der Vergoogelung und mit Google überhaupt auseinandersetzen, besonders mit den Überwachungsaspekten, ist Google ein Handelsunternehmen für personenbezogene Information, wobei der Tauschakt meist Dienst gegen Profil lautet.(6) Als Prozess impliziert die Vergoogelung die Ausweitung des "Dienst-gegen-Profil"-Modells in andere Geschäftsbereiche bei Google selbst, aber auch bei jenen Firmen, die sich an Google orientieren. Die Frage, die sich Google-Wissenschaftler stellen, betrifft sowohl Ausmaß als auch Folgen dieser schleichenden Verbreitung.

Um die Vergoogelung und ihre Verbreitung zu untersuchen, müsste man also fragen, ob das Dienst-gegen-Profil-Modell andere Medien verändert, also auch die "älteren" Medien und die Offline-Wirtschaft. Anhand der Arbeiten des Kommunikationswissenschaftlers Joseph Turow und des Überwachungswissenschaftlers David Lyon habe ich die Notwendigkeit, bekannt zu sein, um als Käufer in Frage zu kommen, als eine der Phänomene der personenbezogenen Informationswirtschaft beschrieben.(7) Die Fragen, die die zunehmende Mediatisierung des Einzelhandels betreffen, zum Beispiel Kundenbeziehungsmanagement und Kundenkarten, laufen darauf hinaus, dass Nachlässe nur im Austausch mit gewinnträchtiger Information gewährt werden. Einkaufsgutscheine bekommt man, wenn man die Plastikkarte durch das Lesegerät zieht. In Kaufhäusern werden geografische Angaben wie z.B. Postleitzahlen an der Kassa registriert.

In seiner Studie der Nischenökonomien vertritt Turow die Auffassung, dass die Werbung durch den Einfluss des Internet sich schrittweise aus dem massenorientierten Modell des TV-Zeitalters zurückzieht und immer mehr zum Direktmarketing wird, einer Verkaufsform, die historisch am Tür-zu-Tür-Verkauf oder am Vertreterbesuch anknüpft.(8) Ohne den direkten menschlichen Kontakt kann eine Kundenbeziehung jedoch nur durch eine Technologie entstehen, die Nutzerdaten sammelt und in der Folge Begrüßungen, Angebote, Empfehlungen und Anzeigen personalisiert. Der Personalisierungscode, von dem hier die Rede ist, ist etwas anderes, als das alltägliche eigene Anpassen von Desktops, Avataren oder mobilen Kommunikationsumgebungen, das Auswählen von Skins oder Vorlagen, oder das Zuordnen eines Klingeltons zu einer bestimmten Person. Das "Direkte" an Google ist ein algorithmischer, relationaler Entwurf, der relevante Informationen an teure Orte platziert. In gewissem Sinne stellt auch die Software eine direkte persönliche Kommunikation zwischen Nutzer und Datenbank her. "Personenbezogen" sollte hier nicht im herkömmlichen, offiziellen Sinn verstanden werden, so wie das Eintragen von Geburtsdatum, Geburtsort, Geschlecht usw. in ein Formular. Die Datenbank enthält vielmehr "Informationstupfen" – Inhalte über Interessen und Vorlieben (z.B. aus Suchanfragen), die herangezogen werden, um ein Nutzerprofil auf der Grundlage einer kleinen Sammlung von Informationen zu erstellen.(9) Dabei ist wesentlich, dass die Zusammenführung dieser Informationen den Nutzer nur teilweise entanonymisiert. Es gibt also keine Armee von Verkaufspersonal, welche die Kunden kennen lernt, so wie das moderne Direktmarketing-Firmen wie Amway machen, wenn sie Nutrilite verkaufen. Vielmehr erfolgt die Profilerstellung auf Grund der eigenen Stichwörter (im Suchverlauf) und der geographischen Lage (IP-Adresse). Die Frage für die Vergoogelungs-Wissenschaft betrifft also den Import solcher Kenngrößen in immer mehr Dienste.

Wie kann man genauer untersuchen, was geschieht, wenn eine Branche "vergoogelt" wird? Begrifflich könnte dies als Modus-Änderung beschrieben werden – von der Befragungs-orientierten zur Registrierungs-orientierten Interaktivität.(10) In der befragungsorientierten Interaktivität wählen die Nutzer aus einem vorgegebenen Informationsangebot aus bzw. durchsuchen dieses ähnlich wie einen Bibliothekskatalog. Man sieht sich etwas an, was bereits da ist, und die Frage der Anonymität der Nutzer stellt sich nicht (außer man entlehnt Bücher und die Anonymität wird durch Datenspeicherungsgesetze geregelt). Es gibt keine dynamischen Empfehlungen. Bei der Registrierungs-orientierten Interaktivität hängt die bereitgestellte Information von den persönlichen Einstellungen ab, etwa Sprache, sicheres Suchen und Ergebniszahl (in einer leichten Version), oder von Sitzungsgeschichte, Sucheingaben und Einkäufen (in einer umfangreicheren Version). Wenn die persönlichen Einstellungen und der Verlauf zusammengeführt werden, kann die Suchmaschine letztlich den Nutzer "unheimlich" genau kennen lernen, und es ist, als hätte sie immer schon gewusst, was er gesucht oder sich gewünscht hat. Die Wirkung der Personalisierung auf die Suche lässt sich demonstrieren, indem man sich bei Google anmeldet und die Maschine dazu trainiert, nur Quellen zu listen, die man sich wünscht, etwa die Seiten von Pelzgegnern anstatt von Pelzlieferanten bei einer Suchanfrage nach Pelz.

Vergoogelung am Backend

Die Erforschung dieser Unheimlichkeit der Suchmaschinenergebnisse, die auf die eigenen Vorlieben und Wünsche abgestimmt sind, hat sich in durchaus bekannte Formen gefügt, allerdings anders als erwartet. Die frühe Forschung, an die die Suchmaschinen-kritische Designer-Gruppe Metahaven anknüpft, untersucht die Ergebnisse nicht allein in Hinblick auf ihre Einschlüsse und Ausschlüsse, wie es der klassischen informationspolitischen Kritik entspricht.(11) Jenseits der Untersuchung von Quellenpluralismus und Vielfalt in einem Medium, das einst für seinen egalitären Geist gerühmt wurde, befasst sich die info-politische Kritik auch mit den Geschichten, die die Suchergebnisse selbst erzählen. Die Idee, aus Suchergebnissen eine Geschichte zu basteln, knüpft an die Arbeit von literarischen Hypertext-Theoretikern sowie an eine Kurzgeschichte aus dem Jahr 1941 von Jorge Luis Borges an, und betrachtet den Pfad eines Surfers als Mittel der Autorenschaft.(12) In unserem Fall ist jedoch die Suchmaschine das Autorenmittel, denn sie stellt die Ressourcen bereit, die zur Zeit als relevant und aktuell betrachtet werden. Das Wort "aktuell" wird hier anders als in seinem journalistischen Sinn verstanden, demzufolge die Nachrichten mit den Ereignissen Schritt halten sollen. Im Zusammenhang mit dem Web bezieht sich "aktuell" auf eine akzeptable Erneuerungs- oder Posting-Frequenz. Was bedeuten all diese aktuellen Seiten mit ihren Link-Zählungen? Wenn man die spezifischen Quellen, die in den Suchergebnissen erscheinen, untersucht, welche Geschichten erzählen sie?

Ich habe Google kritisiert, indem ich die Ergebnisse einer Suchanfrage für "Terrorismus" mit den Quellen verglichen habe, die für gewöhnlich in den Fernsehnachrichten erwähnt werden.(13) Anstatt einen Kollisionsraum für alternative Wirklichkeitswahrnehmungen anzubieten, gab Google das bereits Bekannte wieder. Genau wie im Fernsehen wurden auch hier die Videoclips aus dem Weißen Haus wiederholt. Whitehouse.gov war 2003 ein Spitzenresultat für die Anfrage "Terrorismus", neben cia.gov, fbi.gov und anderen etablierten Quellen, einschließlich CNN und Al Jazeera. Der Bekanntheitsgrad dieser Treffer war das Ende der Vorstellung eines für alle offenen Web. Google war journalistisch geworden und wählte seine Quellen nicht anders als die elitären und tonangebenden Medien aus. Die Ergebnisse wurden durch Metahavens Experiment noch deutlicher. Im Juli 2008 führte eine Suchanfrage nach "Karadžić" der Reihe nach zu folgenden Ergebnissen: Wikipedia, BBC News, Google News, Yahoo News, The Guardian, Reuters, MSNBC, Interpol, YouTube und Google Blog Search.(14) Mit der Ausnahme von Interpol sind alle Quellen Medien und neigen zur Selbstreferentialität.

Der springende Punkt ist also, welche Quellenarten für eine bestimmte Anfrage empfohlen werden. Anders gefragt: Wie kann man sich in die Empfehlungsmaschine, die Google ist, hineindenken? Man kann ins Treffen führen, dass Google, anders als für seine Anzeigenkunden, für die meisten seiner Nutzertypen (Suchende und Webmaster) immer den Status der Quellendominanz pro Anfragebereich angezeigt hat. Google ist ein Mechanismus, der Status autorisiert. Aus all den Seiten, die ein bestimmtes Suchwort referenzieren, liefert die Suchmaschine jene, die es "verdienen", als beste Quelle gelistet zu werden. Man kann also nicht nur die Quellen als Geschichte lesen, sondern in den Suchergebnissen noch eine weitere Geschichte finden: man kann den aktuellen Status eines Themas oder einer Frage anhand der Organisationen ablesen, die sie in den Suchergebnissen repräsentieren und dabei aufgezeichnet werden. Vergleichen Sie Anfragen, die mit Google 2004 für das Stichwort "Klimawandel" und für RFID gemacht wurden, nach den Akteuren, die in den Top-Ergebnissen erscheinen. Für "Klimawandel" sind dies UN-Wissenschaftler, Regierungsbehörden und andere Akteure des Establishments. Für RFID (radio frequency identification tag) bestehen die Akteure aus der Fachpresse, Großunternehmen, einsamen Aktivisten und Elektronik-Bastlern. Ein Vergleich der Zusammensetzung der Akteure liefert einen Hinweis auf die Reife des Themas, wobei RFID einem neu entstehenden, mehr polarisierten Diskursraum angehört (Hoffnungen und Ängste), Klimawandel dagegen schon weitgehend stabilisiert ist (politischer Prozess). 2008 enthielten die Ergebnisse für RFID eine recht unterschiedliche Population von Akteuren, wobei Nicht-Regierungsorganisationen (epic.org und eff.org), Mainstream-Medien und eine Regierungsbehörde neu dazu kamen. Die Zusammensetzung der Akteure bei Ergebnisseiten für die gleiche Anfrage weist nach den an der Spitze gelisteten Quellen auf veränderte Spielregeln bei einem Thema hin.

Was die Vergoogelungs-Wissenschaft daraus im Allgemeinen lernt, ist die Resonanz dieser Status-Herstellung über die Grenzen der jeweiligen Plattform hinaus. Hat der Algorithmus am Backend das Herstellen von Status von herkömmlichen Akteuren wie Verlagen, Herausgebern oder anderen klassischen Urteilsquellen übernommen? Eine Fallstudie lässt sich anhand von Webverzeichnissen durchführen, etwa jenen von Yahoo oder Open Directory, die den Versuch unternahmen, das Web nach Themen zu strukturieren. Das Web-Directory von Yahoo ist ein prototypisches Beispiel und wurde schon mit Shiyali Ramamrita Ranganathans Colon-Klassifzierung aus dem Jahr 1933 verglichen.(15) In dem viel zitierten, 1998 erschienenen Artikel vertritt die "Internet-Katalogistin" Aimee Glassel die Auffassung, dass Yahoo Ranganathan folgt, weil es nicht endlos neue, einmalige Themenbereiche erzeugt und eine flache ontologische Liste schafft – wie im Dezimalsystem von Dewey (oder in Enzyklopädien ganz allgemein), sondern vielmehr breite Kategorien auf oberster Ebene hat, die aus Facetten zusammen gesetzt sind. Von der Mitte der 1990er Jahre bis zum Ende des 20. Jahrhunderts, vor dem Erscheinen von Wikipedia im Web im Jahr 2001, galt dies als nachahmenswertes Modell, nicht nur im Web selbst, sondern auch auf nationaler Ebene, etwa in Form von Projekten wie Startpagina in den Niederlanden.

Trotz all der Innovation und Imitation, zu der es Anlass gab, wurde das Schicksal des Yahoo-Verzeichnisses im Oktober 2002 besiegelt, als Google-Ergebnisse ihren Platz als Default-Maschine übernahmen. Im Februar 2004 eröffnete Yahoo seine erste eigene algorithmische Suchmaschine, die von den eigenen Technikern entwickelt worden war, und deren Ergebnisse sich nicht allzu sehr von den Google-Ergebnissen unterscheiden. Yahoo gab gegenüber den vertrauten "organischen" Ergebnissen der vorherrschenden Suchmaschine nach und stellte das eigene, handredigierte Verzeichnis nach hinten. Wurde Yahoo also in gewissem Sinne auch "vergoogelt"?

Vergoogelung am Frontend

Am Frontend blieb der Portal-Zugang Yahoos bestehen, samt seiner Fülle an Angeboten, Texten und Bildern, oder, wenn die eigene Wahrnehmung durch Google geformt worden war, Müll. Was hatte sich bei Yahoo verändert? Nimmt man sich anstatt der Startseite die Suchergebnisse der Yahoo-Suchmaschine vor, dann kommt Search Engine Watch zu folgendem Schluss:
    Wie unterscheidet sich die neue Yahoo-Suchmaschine von Google? Die Präsentation der Ergebnisse ist sehr ähnlich. Yahoo hat klugerweise beschlossen, dass das meiste so aussehen sollte wie vorher, von ein paar Ausnahmen abgesehen. Es gibt einen Link zu einer Cache-Kopie jeder Seite im Index, der jetzt von Yahoo bereitgestellt wird, nicht von Google. Sonst aber sieht auf der Ergebnisliste so gut wie alles so aus wie vorher.(16)
Wie Google auszusehen, erschien wünschenswert, zumindest was die prominent in der Mitte platzierte Suchbox anging. In seiner Klage über das Verschwinden des Butlers auf Ask Jeeves, und über die Neigung von Suchmaschinen überhaupt, eine Ästhetik der "Logos, Formen und Buttons" anzunehmen, führt Derek Powezek, ein Designer von Technorati-Interfaces, ins Treffen, dass sich zu viele Maschinen die Frage stellten: "Was würde Google machen"?(17) Sein Argument könnte als Sorge über die Vergoogelung von Interfaces verstanden werden. John Battelle, Autor eines bekannten Buchs über Google, stellt fest, dass die zunehmende Homogenität von Homepages Aufmerksamkeit verdiene. Die Reduzierung auf eine einzelne Suchbox könnte als Höhepunkt von Nutzerfreundlichkeit und Funktionalität gedeutet werden.
    Alle verwenden Google gerne. Wieso sollten also nicht alle das einfache Design auf jeder Seite, die sie besuchen, vorfinden wollen? [...] Dabei spricht man von Homepage-Vergoogelung.(18)
Gegenstand der Faszination ist Googles einfache Suchbox und ihre zwei Buttons, "Web-Suche" und "Auf gut Glück!", Googles Hommage an den Hyperspace. Der zweite Button ist im Rahmen der Vergoogelungs-Kritik eine Anomalie, denn er ist nicht von anderen Anbietern übernommen worden und auch nicht mit der Einkommensquelle verknüpft, der Werbung. "Auf gut Glück!" überspringt die Ergebnisseite.

Was das zweite Interface, die Ergebnisseite, betrifft, sollte eine kritische Studie sich auch mit einem Phänomen befassen, das man Ergebnisseiten-Vergoogelung nennen könnte. Trotz des Erscheinens von Kartoo im Jahr 2002 und anderer Suchmaschinen, die ihre Ergebnisse "visualisieren", herrschen Ergebnisse in Listenform vor, wobei zehn Ergebnisse pro Seite voreingestellt sind, und jeder Eintrag Titel, Beschreibung oder Teaser-Text und Hyperlink enthält.

Die Auseinandersetzung mit dem Input-Feld (Suchbox) und dem Output (die Liste) hat jedoch die Aufmerksamkeit von den Tabs abgezogen. In den ersten zehn Jahren seines Bestehens, deren Vollendung Google vor kurzem feierte, hat Google feine Anpassungen im Gemüsegarten seiner Titelseite vorgenommen.

Es gab Upgrades und Downgrades von Suchdiensten wie Froogle und Groups, als Google-Labs und andere neu erworbene Projekte das Tageslicht erblickten, nur um später wieder in den Hintergrund bewegt zu werden. Den Tabs Aufmerksamkeit zu schenken und dazu eine langfristige Studie anzulegen, ist eine Möglichkeit, hinter die Kulissen zu blicken und Donald Normans Google-Kritik zu verstehen: "Ist Google einfach? Nein. Google täuscht. Es verbirgt seine Komplexität, indem es bloß eine einzige Suchbox auf der ersten Seite zeigt".(19) Norman, ein Design- und Usability-Forscher, bezieht sich auf die Abwesenheit von Transparenz in zweierlei Hinsicht – das Interface bietet keine Übersicht über die angebotenen Dienste, und, was noch wichtiger sein mag, es verbirgt die Organisationsstruktur. Google wird so zu einem neuen Fall einer "sozialen Hieroglyphe".(20) In einer Variation der marxistischen Begrifflichkeit könnte man sagen, es macht die sozialen Beziehungen hinter der Ware unsichtbar und gleichzeitig zu etwas scheinbar Natürlichem.(21) Suchmaschinen-Ergebnisse, zumindest jene, die nicht gesponsert werden, sind "organisch". An diesem Punkt sind die Arbeiten von Henk van Ess, dem Enthüllungsreporter und Suchmaschinen-Beobachter, von besonderem Interesse. Die 2005 entdeckte URL http://eval.google.com stellte eine cause célèbre der online geposteten Auseinandersetzungen mit Unternehmensvertretern dar, denn van Ess fand heraus, dass Google Studenten dafür bezahlt, die Verlässlichkeit von Suchergebnissen zu überprüfen.(22) Die Feststellung, dass die Ergebnisse von Hand bearbeitet werden, ist etwas Aufregendes, nicht nur wegen der Assoziation mit dem "mechanischen Türken", oder dem Höhepunkt von Wizard of Oz, wo der Vorhang zurückgezogen wird und dahinter ein Mensch erscheint. Es macht auch die einfache Suchbox komplexer und widerspricht ihrem vorgeblichen Reduktionismus. So, wie sich die reine algorithmische Logik zurückzieht, wird Googles Backend unordentlicher.

Im Zusammenhang mit einer weiteren bedeutenden Beziehung zu Menschen hat sich Google in einem Projekt, das für Bibliothekare und Verlage von entscheidender Bedeutung ist, im Gleichschritt mit Yahoo bewegt. Google folgte Yahoos Beispiel und hat sein Verzeichnis zurückgestuft. Im März 2004 entfernte Google sein Verzeichnis (die auf dem Open Directory-Projekt aufbauende Maschine) von der Startseite und machte es nur mehr über den "More"-Button zugänglich. 2006 wurde das Verzeichnis unter "even more" eingeordnet. Ende 2007, als das Menü bei Google.com in die linke obere Bildschirmecke platziert wurde, verschwand der "even more"-Tab, obschon er 2008 (wiederum ohne Verzeichnis) zurückkehrte.

Vergoogelungs-Studien beschäftigen sich daher damit, wie kleine Veränderungen im Interface eine Politik des Wissens darstellen, insbesondere die Mechanismen der Entprivilegierung, durch die redaktionelle Dienste in die tieferen Ebenen einer Webseite versenkt werden. Das Begraben des Verzeichnisses sowohl bei Yahoo als auch bei Google weist auf eine viel größere Transformation hin – nämlich das Verschwinden von fachlich geschulten Redakteuren im Web (bezahlte Stellen für "Internet-Katalogisierung" verschwinden ebenso). Für Bibliothekswissenschaftler ebenso viel sagend ist eine weitere Konsequenz des Vordringens von Backend-Algorithmen in der Verzeichnis-Innovation, ganz anders als im alphabetischen, egalitären Geist und auch anders als Ranganathanians Top-Kategorien, deren Bestandteile ein Ganzes bilden. 2007 hatte Yahoo den Default-Output seines Verzeichnisses geändert. Die alphabetische Liste wurde durch ein Ranking der Quellen nach deren "Beliebtheit" ersetzt.
    Die Auflistung der Verzeichniseinträge ist so voreingestellt, dass sie nach Beliebtheit und Relevanz sortiert werden. Seiten, die bei den Nutzern am beliebtesten sind, und die in der Kategorie am relevantesten sind, erscheinen an der Spitze der Liste. Die Ordnung der Webseiten und Web-Dokumente beruht auf der Yahoo-Suchtechnologie.(23)
Dass das Suchen das Blättern (und Surfen) ersetzt hat, ist ein im ganzen Web verbreitetes Phänomen, das häufig seiner Nützlichkeit und nicht der Vergoogelung zugeschrieben wird. Die Bottom-up-Suchenden haben Bedürfnisse, die über jene der Top-down-Katalogredakteure hinausgehen.(24) In einer weiteren der vielen Umkehrungen, die durch neue Medien ausgelöst wurden, hat das Publikum die Rolle des Reiseführers übernommen. Den roten Regenschirm hält jetzt jeder in der Hand. Doch für das Projekt der Vergoogelung hat die nächste Frage damit zu tun, worin der Unterschied in den Auswirkungen der Autonomisierung der Nutzer gegenüber jenen des redaktionellen Fachwissens oder der algorithmischen Reinheit besteht.(25) Das Suchen wird personalisiert, die Ergebnisse werden an den jeweiligen Geschmack, den Suchverlauf oder die angeklickten Ergebnisse angepasst. Um das zu ermöglichen, werden die Suchmaschinen-Nutzer "aufgezeichnet", auch in Hinblick auf die Wörter, die Google für seine Einstellung ausgewählt hat. Man unterbricht den Suchverlauf und nimmt ihn wieder auf. Die eigene Geschichte zurückzuverfolgen, ist als Feed-Option enthalten. Wie der langjährige Suchmaschinen-Beobachter Danny Sullivan schreibt, ist eine der wichtigeren Implikationen der personalisierten Suche, dass "die Tage, an denen jeder die gleichen Ergebnisse für eine bestimmte Suchanfrage sieht, gezählt sind".(26) Die Geschichte, die von den Suchergebnissen geschrieben wird, stammt nun zum Teil aus der eigenen Feder, denn bestimmte Seiten, die man häufig besucht, werden nach vorne gereiht. Sullivan erzählt von seiner Befriedigung, als er feststellte, dass seine eigenen Schriften bei bestimmten häufigen Suchanfragen ziemlich weit vorne gereiht wurden, und fragt sich, ob dies bei anderen Nutzern auch so sei.

Die unkritisierbare Maschine

Für Medienwissenschaftler war eine der Fragen, wie der Begriff des Gatekeepers, des mächtigen Redakteurs, der die Geschichten für den Druck aussucht, im Lichte von Link-Netzen, die Rankings bestimmen, neu zu interpretieren sei, oder auch im Lichte der Suchverläufe, welche die eigenen Lieblingsseiten in personalisierten Suchen nach vorne reihen. Ohne algorithmische Kniffe und größere Neuerungen zu berücksichtigen, könnte eine geradlinige Diskussion über die neuen Formen des Gatekeepings an die Fälle von Seiten anknüpfen, die aus dem Index genommen werden. Der "Google-Guy", Matt Cutts, schreibt Blogs über sie und erzählt den Lesern von den "Webmaster best practices", dem Google-Leitfaden, der davor warnt, Webcrawler mit "Suchmaschinen-Spam" zu ködern, etwa in Form von Backdoor-Seiten. Von vielleicht größerer Wichtigkeit sind die spezifischen Einblicke in die Arbeit der Google-Roboter, die Cutts gibt. In Zusammenhang mit einem mother crawl aus dem Jahr 2006, dem so genannten bigdaddy, schreibt er, dass es Seiten gab, "wo unsere Algorithmen sehr wenig Vertrauen in die eingehenden und ausgehenden Links dieser Seite hatten. Dies war zum Beispiel bei übermäßigem gegenseitigen Verlinken der Fall, oder bei Links in Spam-verdächtige Umgebungen im Web [...]".(27) Die Rechnung, wonach ein Hyperlink eine Stimme ist, gilt nicht mehr, denn nicht alle Links sind von gleichem Wert. Das ist ein nützliches Korrektiv.

Die Erklärung, die sich auf übermäßiges gegenseitiges Verlinken bezieht, mag im folgenden Fall hilfreich sein. Als Beispiel für den wechselnden Wert von Links begannen eine Gruppe von Forschern und ich 2007 mit der Aufzeichnung von Google-Ergebnissen für die Suchanfrage "9/11", mit einem Fokus auf 911truth.org, einer Quelle, die in verschiedenen Zusammenhängen als Verschwörungstheorien-Seite bezeichnet wurde, auch nach den Tags, welche die Seite auf Delicio.us erhielt. Neben 911truth.org konzentriert sich die Arbeit auf die Rankings von zwei weiteren Seiten, die New York Times (nytimes.com), und die New Yorker Stadtregierung (nyc.gov). Von März 2007 bis zum Jahrestag von 9/11 ist 911truth.org kontinuierlich in den Top-10 der Ergebnisse.
Abbildung 2: Delicious tags für 911truth.org. Analyse von Michael Stevenson. Grafik von Digital Methods Initiative, Amsterdam 2008.Abbildung 2: Delicious tags für 911truth.org. Analyse von Michael Stevenson. Grafik von Digital Methods Initiative, Amsterdam 2008.



Die New York Times und die New Yorker Stadtregierung rangieren deutlich dahinter, auf Rang 50 bzw. 100. Eine der Absichten dieser Arbeit war es, die Rankings einer bestimmten Organisation für eine Anfrage aufzuzeigen und damit die Sichtweise auf Google-Ergebnisse zu verändern, aber auch über die kognitiven Veränderungen nachzudenken, die Google nach sich gezogen hat (Vergoogelungs-Studien haben daher auch ein Interesse an der Entwicklung der eigenen Vorstellungen darüber, was eine relevante Quelle ausmacht). Normalerweise sind die Top-10-Ergebnisse (oder Top 20, 30, 50, 100, je nach Präferenz) jene Ergebnisse, die man sich auch ansieht. Man denkt sich normalerweise nicht: Warum ist die New York Times in den Ergebnissen nicht vertreten? Wo ist die New Yorker Stadtregierung in den Ergebnissen für meine 9/11-Suche? Und sollte nicht auch die New Yorker Feuerwehr, die damals eine so wichtige Rolle spielte, vorkommen? Solche Fragen werden ausgeschlossen, denn stattdessen bilden die Google-Ergebnisse selbst den Rahmen des Relevanten.

Vor allem aber hat das Forschungsprojekt das plötzliche Verschwinden von 911truth.org aus den Ergebnissen dokumentiert. Etwa zehn Tage nach dem 11. September 2007 fiel 911truth.org von der Position unter den ersten fünf auf den zweihundertsten Platz, um danach völlig zu verschwinden und zwei Wochen später erneut in der üblichen Top-Position aufzutauchen.

Eine mögliche Erklärung dafür besteht darin, dass 911truth.org eine Franchise-Seite ist, deren Tochterseiten wie ny911truth.org, sf911truth.org und vancouver911truth.org routinemäßig mit ihr verlinken, und um den Jahrestag von 9/11 besonders viel verlinkt wurde, sodass es zu dem übermäßigen gegenseitigen Verlinken kam, von dem Matt Cutts spricht.
Abbildung 3: Eine Webseite verschwindet. Eine Webseite kommt zurück. Das Drama von 911truth.org in der Suchmaschine. Grafik von Issue Dramaturg, Govcom.org Foundation, Amsterdam 2007.Abbildung 3: Eine Webseite verschwindet. Eine Webseite kommt zurück. Das Drama von 911truth.org in der Suchmaschine. Grafik von Issue Dramaturg, Govcom.org Foundation, Amsterdam 2007.



Für meine Forscherkollegen und mich stellt sich die Frage, wie stabil die Quellenauswahl ist, die für Suchmaschinenergebnisse vorgenommen wird. Sind die Ergebnisse labil, also ist das, was man heute bekommt, anders, als die Ergebnisse von morgen? (Dass Ergebnisse sich im Laufe der Zeit ändern, ist für jene von Interesse, die den jeweils derzeitigen Stand einer Angelegenheit erforschen, nach Quellen und Akteuren, wie oben ausgeführt.)

Ich möchte mit einer besonders wichtigen Folge der Personalisierung schließen. Danny Sullivans Argument, dass personalisiertes Suchen jene Ergebnisse ausschließt, die allen Nutzern gemeinsam sind, möchte ich hinzufügen, dass die Personalisierung die Suchmaschine aus der Verantwortung befreit, denn "Schuld" oder Verantwortung für die Ergebnisse liegen dann zum Teil bei einem selbst. Die kritische Untersuchung von Suchergebnissen im Hinblick auf ihre informationspolitische Bedeutung wendet sich nach innen. Und für jene, die Google als Massenmedium sehen, wurde das früher fehlende Nutzerfeedback eingebaut.

Anmerkungen

(1) Der Autor möchte den Mitgliedern der Digital Methods Initiative Amsterdam (http://www.digitalmethods.net/) und den Organisatoren der Deep Search-Konferenz Wien (November 2008) danken.

(2) Alex Salkever, "Google Here, There, and Everywhere", BusinessWeek Online. 16. Dezember 2003. http://www.businessweek.com/technology/content/ dec2003/tc20031216_9018_tc047.htm (Zugriff 22. Dezember 2008); John Battelle. "The 'Creeping Googlization Meme'", John Battelle's Searchblog, 16. Dezember 2003 http://battellemedia.com/archives/000145.php (Zugriff 22. Dezember 2008).

(3) Siva Vaidhyanathan, "Where is this book going?," The Googlization of Everything Blog, 25. September 2007. http://www.googlizationofeverything.com/2007/09/ where_is_this_book_going.php (Zugriff 22. Dezember 2008).

(4) Laura van der Vlies, "Googlization: A New Form of Mass Media Critique," M.A. Thesis, Media Studies, University of Amsterdam (2008).

(5) Siva Vaidhyanathan (2007).

(6) Greg Elmer, Profiling Machines, Cambridge, MA: MIT Press (2004); David Lyon. Surveillance Studies, London: Polity (2007).

(7) Richard Rogers, "Consumer technology after surveillance theory", in: Mind the Screen: Media Concepts according to Thomas Elsaesser, hg. von Kooijman, Jaap, Pisters, Patricia und Strauven, Wanda. /Amsterdam: Amsterdam University Press, 2008), 288–296.

(8) Joseph Turow, Niche Envy, Cambridge, MA: MIT Press (2006).

(9) David Weinberger, Small Pieces Loosely Joined: A Unified Theory of the Web, Cambridge, MA: Perseus (2002); Matthew Fuller. Media Ecologies, Cambridge, MA: MIT Press (2005). (10) Jens F. Jensen, "Interactivity: Tracking a New Concept in Media and Communication Studies", in: Computer Media and Communication, hg. von Mayer, Paul (Oxford: OUP, 1999), 160–188.

(11) Lucas Introna und Helen Nissenbaum, "Shaping the Web: Why the Politics of Search Engines Matters," The Information Society, 16,3 (2000): 1–17; van Elizabeth Couvering, "New Media? The Political Economy of Internet Search Engines", Beitrag zur Annual Conference of the International Association of Media & Communications Researchers, Porto Alegre, Brasilien (25. – 30. Juli 2004); Metahaven, Multipolar Search – EXODVS, veröffentlicht anlässlich der Pancevo Republic!, 13. Kunstbiennale, Pancevo, Serbien (2008).

(12) Jorge Luis Borges, "The Garden of Forking Paths", in: The New Media Reader, hg. von Wardrip-Fruin, Noah und Montfort, Nick, Cambridge, MA: MIT Press (2003), 29–34.

(13) Richard Rogers, Information Politics on the Web, Cambridge, MA: MIT Press (2004).

(14) Metahaven (2008).

(15) Aimee Glassel, "Was Ranganathan a Yahoo!?", InterNIC News, (März, 1998) http://scout.wisc.edu/Projects/PastProjects/toolkit/ enduser/archive/1998/euc-9803.html (Zugriff 22. Dezember 2008).

(16) Chris, Sherman, "Yahoo! Birth of a New Machine" (18. Februar 2004).

(17) Derek Powezek, "What Would Google Do?", Vitamin (14. Mai 2006). http://www.thinkvitamin.com/features/design/what-would-google-do (Zugriff 22. Dezember 2008).

(18) Jarod Spool, "Homepage Googlization", User Interface Engineering (5. April 2006) http://www.uie.com/brainsparks/2006/04/05/home-page-googlization/ (Zugriff 22. Dezember 2008).

(19) Donald Norman, "The truth about Google's so-called 'simplicity'", Donald Norman's jnd Website (2004), http://www.jnd.org/dn.mss/the_truth_about.html (Zugriff 22. Dezember 2008).

(20) James Berger, After the End, Minneapolis: University of Minnesota Press (1999)

(21) Alexander Galloway, Protocol. How Control Exists After Decentralization, Cambridge, MA: MIT Press (2004).

(22) Henk van Ess, "Google Secret Lab, Prelude", Henk van Ess's Search Engine Bistro (1. Juni 2005) http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html (Zugriff 22. Dezember 2008).

(23) Yahoo, "What is the 'By Popularity | Alphabetical' feature shown above site listings?", Directory Basics FAQ (2008) http://help.yahoo.com/l/us/yahoo/directory/basics/basics-21.html (Zugriff 22. Dezember 2008).

(24) Clay Shirky, "Ontology is Overrated", Clay Shirky's Writings About the Internet, (2005) http://www.shirky.com/writings/ontology_overrated.html (Zugriff 22. Dezember 2008).

(25) Andrew Keen, The Cult of the Amateur, New York: Currency Doubleday (2007).

(26) Danny Sullivan, "Google Ramps Up Personal Search", Search Engine Land (2. Februar 2007) http://searchengineland.com/google-ramps-up-personalized-search-10430 (Zugriff 22. Dezember 2008).

(27) Matt Cutts, "Indexing Timeline", Matt Cutts: Gadgets, Google, and SEO (16. Mai 2006) http://www.mattcutts.com/blog/indexing-timeline/ (Zugriff 22. Dezember 2008).
1|2|3|4|5 Auf einer Seite lesen

Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de