Ein Besucher blickt auf das Rechenzentrum des CERN.

8.4.2011 | Von:

Zur Frage der Vergoogelung

Hin zu einer unkritisierbaren Maschine?

Vergoogelung am Backend

Die Erforschung dieser Unheimlichkeit der Suchmaschinenergebnisse, die auf die eigenen Vorlieben und Wünsche abgestimmt sind, hat sich in durchaus bekannte Formen gefügt, allerdings anders als erwartet. Die frühe Forschung, an die die Suchmaschinen-kritische Designer-Gruppe Metahaven anknüpft, untersucht die Ergebnisse nicht allein in Hinblick auf ihre Einschlüsse und Ausschlüsse, wie es der klassischen informationspolitischen Kritik entspricht.(11) Jenseits der Untersuchung von Quellenpluralismus und Vielfalt in einem Medium, das einst für seinen egalitären Geist gerühmt wurde, befasst sich die info-politische Kritik auch mit den Geschichten, die die Suchergebnisse selbst erzählen. Die Idee, aus Suchergebnissen eine Geschichte zu basteln, knüpft an die Arbeit von literarischen Hypertext-Theoretikern sowie an eine Kurzgeschichte aus dem Jahr 1941 von Jorge Luis Borges an, und betrachtet den Pfad eines Surfers als Mittel der Autorenschaft.(12) In unserem Fall ist jedoch die Suchmaschine das Autorenmittel, denn sie stellt die Ressourcen bereit, die zur Zeit als relevant und aktuell betrachtet werden. Das Wort "aktuell" wird hier anders als in seinem journalistischen Sinn verstanden, demzufolge die Nachrichten mit den Ereignissen Schritt halten sollen. Im Zusammenhang mit dem Web bezieht sich "aktuell" auf eine akzeptable Erneuerungs- oder Posting-Frequenz. Was bedeuten all diese aktuellen Seiten mit ihren Link-Zählungen? Wenn man die spezifischen Quellen, die in den Suchergebnissen erscheinen, untersucht, welche Geschichten erzählen sie?

Ich habe Google kritisiert, indem ich die Ergebnisse einer Suchanfrage für "Terrorismus" mit den Quellen verglichen habe, die für gewöhnlich in den Fernsehnachrichten erwähnt werden.(13) Anstatt einen Kollisionsraum für alternative Wirklichkeitswahrnehmungen anzubieten, gab Google das bereits Bekannte wieder. Genau wie im Fernsehen wurden auch hier die Videoclips aus dem Weißen Haus wiederholt. Whitehouse.gov war 2003 ein Spitzenresultat für die Anfrage "Terrorismus", neben cia.gov, fbi.gov und anderen etablierten Quellen, einschließlich CNN und Al Jazeera. Der Bekanntheitsgrad dieser Treffer war das Ende der Vorstellung eines für alle offenen Web. Google war journalistisch geworden und wählte seine Quellen nicht anders als die elitären und tonangebenden Medien aus. Die Ergebnisse wurden durch Metahavens Experiment noch deutlicher. Im Juli 2008 führte eine Suchanfrage nach "Karadžić" der Reihe nach zu folgenden Ergebnissen: Wikipedia, BBC News, Google News, Yahoo News, The Guardian, Reuters, MSNBC, Interpol, YouTube und Google Blog Search.(14) Mit der Ausnahme von Interpol sind alle Quellen Medien und neigen zur Selbstreferentialität.

Der springende Punkt ist also, welche Quellenarten für eine bestimmte Anfrage empfohlen werden. Anders gefragt: Wie kann man sich in die Empfehlungsmaschine, die Google ist, hineindenken? Man kann ins Treffen führen, dass Google, anders als für seine Anzeigenkunden, für die meisten seiner Nutzertypen (Suchende und Webmaster) immer den Status der Quellendominanz pro Anfragebereich angezeigt hat. Google ist ein Mechanismus, der Status autorisiert. Aus all den Seiten, die ein bestimmtes Suchwort referenzieren, liefert die Suchmaschine jene, die es "verdienen", als beste Quelle gelistet zu werden. Man kann also nicht nur die Quellen als Geschichte lesen, sondern in den Suchergebnissen noch eine weitere Geschichte finden: man kann den aktuellen Status eines Themas oder einer Frage anhand der Organisationen ablesen, die sie in den Suchergebnissen repräsentieren und dabei aufgezeichnet werden. Vergleichen Sie Anfragen, die mit Google 2004 für das Stichwort "Klimawandel" und für RFID gemacht wurden, nach den Akteuren, die in den Top-Ergebnissen erscheinen. Für "Klimawandel" sind dies UN-Wissenschaftler, Regierungsbehörden und andere Akteure des Establishments. Für RFID (radio frequency identification tag) bestehen die Akteure aus der Fachpresse, Großunternehmen, einsamen Aktivisten und Elektronik-Bastlern. Ein Vergleich der Zusammensetzung der Akteure liefert einen Hinweis auf die Reife des Themas, wobei RFID einem neu entstehenden, mehr polarisierten Diskursraum angehört (Hoffnungen und Ängste), Klimawandel dagegen schon weitgehend stabilisiert ist (politischer Prozess). 2008 enthielten die Ergebnisse für RFID eine recht unterschiedliche Population von Akteuren, wobei Nicht-Regierungsorganisationen (epic.org und eff.org), Mainstream-Medien und eine Regierungsbehörde neu dazu kamen. Die Zusammensetzung der Akteure bei Ergebnisseiten für die gleiche Anfrage weist nach den an der Spitze gelisteten Quellen auf veränderte Spielregeln bei einem Thema hin.

Was die Vergoogelungs-Wissenschaft daraus im Allgemeinen lernt, ist die Resonanz dieser Status-Herstellung über die Grenzen der jeweiligen Plattform hinaus. Hat der Algorithmus am Backend das Herstellen von Status von herkömmlichen Akteuren wie Verlagen, Herausgebern oder anderen klassischen Urteilsquellen übernommen? Eine Fallstudie lässt sich anhand von Webverzeichnissen durchführen, etwa jenen von Yahoo oder Open Directory, die den Versuch unternahmen, das Web nach Themen zu strukturieren. Das Web-Directory von Yahoo ist ein prototypisches Beispiel und wurde schon mit Shiyali Ramamrita Ranganathans Colon-Klassifzierung aus dem Jahr 1933 verglichen.(15) In dem viel zitierten, 1998 erschienenen Artikel vertritt die "Internet-Katalogistin" Aimee Glassel die Auffassung, dass Yahoo Ranganathan folgt, weil es nicht endlos neue, einmalige Themenbereiche erzeugt und eine flache ontologische Liste schafft – wie im Dezimalsystem von Dewey (oder in Enzyklopädien ganz allgemein), sondern vielmehr breite Kategorien auf oberster Ebene hat, die aus Facetten zusammen gesetzt sind. Von der Mitte der 1990er Jahre bis zum Ende des 20. Jahrhunderts, vor dem Erscheinen von Wikipedia im Web im Jahr 2001, galt dies als nachahmenswertes Modell, nicht nur im Web selbst, sondern auch auf nationaler Ebene, etwa in Form von Projekten wie Startpagina in den Niederlanden.

Trotz all der Innovation und Imitation, zu der es Anlass gab, wurde das Schicksal des Yahoo-Verzeichnisses im Oktober 2002 besiegelt, als Google-Ergebnisse ihren Platz als Default-Maschine übernahmen. Im Februar 2004 eröffnete Yahoo seine erste eigene algorithmische Suchmaschine, die von den eigenen Technikern entwickelt worden war, und deren Ergebnisse sich nicht allzu sehr von den Google-Ergebnissen unterscheiden. Yahoo gab gegenüber den vertrauten "organischen" Ergebnissen der vorherrschenden Suchmaschine nach und stellte das eigene, handredigierte Verzeichnis nach hinten. Wurde Yahoo also in gewissem Sinne auch "vergoogelt"?


Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de