Ein Besucher blickt auf das Rechenzentrum des CERN.
1 | 2 | 3 | 4 | 5 | 6 Pfeil rechts

Der zweite Index

Suchmaschinen, Personalisierung und Überwachung


8.4.2011
Felix Stalder und Christine Mayer fragen, ob Suchmaschinen die Autonomie der Nutzer stärken oder schwächen. Ihr Zugang konzentriert sich auf das Thema Personalisierung. Liegt darin eine Möglichkeit, Informationen verfügbar zu machen, die nicht so populär sind – oder wird die Autonomie der Nutzer reduziert, indem Überwachung und Manipulation durch soziales Sortieren vorangetrieben werden?

Wo hört bei Suchmaschinen die Personalisierung auf und wo fängt die Überwachung an? - Überwachungskameras an einer Ampel in Florida.Wo hört bei Suchmaschinen die Personalisierung auf und wo fängt die Überwachung an? - Überwachungskameras an einer Ampel in Florida. (© AP)

Einleitung(1)



Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten.(2) Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen.




Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.




Diese Art der Objektivität hat jedoch ihre inhärenten Schwächen. Der so erstellte Index weiß viel über die Information aus der Sicht der Produzenten, die durch das Setzen von Links die Topologie des Netzwerks schaffen, aber nichts über den Weg eines Suchenden durch die Informationslandschaft. Was auf der aggregierten Ebene der Topologie relevant erscheint, kann auf der Ebene der individuellen Suchinteressen belanglos sein. Dieses Problem wird durch den Umstand verschärft, dass die eigentlichen Kunden der Suchmaschinen, also die Werbetreibenden, ebenfalls wenig Interesse an der Topologie des Netzes haben, sondern vielmehr an den Wegen der Suchenden durch das Netz. Diese zwei Probleme, das eine inhärent in der Aufgabe der Suchmaschinen selbst, das andere die Folge des gewählten Geschäftsmodells, nämlich der Werbung, sind die treibenden Kräfte der Schaffung des zweiten Index. Dieser zweite Index organisiert nicht die Informationen der Welt, sondern die Informationen über die Nutzer. Während der erste Index auf öffentlich verfügbaren Informationen unabhängiger Anbieter beruht, besteht der zweite aus proprietären Informationen, die von den Suchmaschinen selbst erzeugt werden und niemandem sonst zugänglich sind. Durch das Zusammenfügen der beiden Indexe hoffen die Betreiber der Suchmaschinen, ihre Kernaufgaben besser erfüllen zu können: Den Nutzern relevante Ergebnisse zu liefern, und den Werbekunden relevante Nutzer. Im Zuge dieses Bestrebens entwickeln Suchmaschinen ein neues Modell, wie die Information der Welt organisiert wird. Dieses besteht aus zwei Formen der Selbstreferentialität:
Einer, die auf der kollektiven Ebene operiert – daraus entsteht ein für alle gleiches Bild der Welt, das (zumindest in seiner Idealversion) aus der Interaktion aller entsteht. Die zweite operiert auf der individuellen Ebene. Daraus entsteht eine einzigartige, persönliche Welt, die aus der eigenen Geschichte gebildet wird. Beide Ebenen sind hochdynamisch und Suchmaschinen versuchen, sie miteinander zu verbinden, um so dem Problem des Informationsüberschusses (zu viele irrelevante Informationen) zu begegnen, mit dem sowohl die Nutzer als auch die Werbekunden ständig konfrontiert sind – erstere, wenn ihnen hunderte von "Treffern" präsentiert werden, obwohl sie nur an einer Hand voll (oder gar nur einem einzigen) interessiert sind, letztere, wenn sie mit Massen von uninteressierten Menschen zu tun haben, anstatt mit ausgewählten potenziellen Kunden. Zum Problem der Nutzer schreibt Peter Fleischer, der Datenschutzbeauftragte von Google:
    Die Entwicklung von personalisierten Suchergebnissen ist unverzichtbar, wenn man in Betracht zieht, wie viel neue Daten täglich online gestellt werden. Die University of California, Berkley, schätzt, dass die Menschheit im Jahr 2002 fünf Exabytes Information erzeugt hat – die doppelte Menge von 1999. Ein Exabyte ist eine Eins mit achtzehn Nullen. In einer Welt der unbegrenzten Information und der begrenzten Zeit können gezielte und persönlichere Ergebnisse durchaus die Lebensqualität der Menschen verbessern.(3)
Fleischer und andere präsentieren dies meist als einfache Frage der Optimierung – bessere Suchergebnisse und bessere Werbung. Das ist ein Teil der Geschichte, aber nicht die ganze. Diese Entwicklung wirft nämlich eine Reihe schwieriger Fragen auf, die von der allgegenwärtigen Überwachung bis zu einem potenziell weitgehenden Verlust der Autonomie reichen. Wie ist es zu bewerten, wenn ein Nutzer ein Bild der Welt vorgelegt bekommt, das jemand anderer auf der Grundlage von proprietärem Wissen als für ihn geeignet einstuft?

Im Folgenden versuchen wir zuerst eine ungefähre Vorstellung des Umfangs dieses zweiten Index zu erlangen, wie er gerade von Google, dem eifrigsten Sammler solcher Daten, erstellt wird. In Anbetracht der sensiblen und proprietären Art dieses Index liegen dazu keine direkten Angaben vor. Wir können aber die öffentlich sichtbaren Mittel anführen, die eingesetzt werden, um diese Informationen zu sammeln, und damit einen Blick auf die Art dieser Informationen werfen. Auf diesem Überblick aufbauend werden wir einige Aspekte der Überwachung und der Personalisierung diskutieren. Es handelt sich hier nicht um Probleme, die wir einfach durch individuelles Handeln vermeiden können. Der Druck, diesen zweiten Index zu schaffen und zu nutzen, ist real und entspricht auch legitimen Bedürfnissen der Nutzer. Am Ende dieses Beitrags stellen wir daher die Frage, wie diesen Herausforderungen adäquat und angemessen begegnet werden kann.

Daten sammeln



Seit seinen Anfängen hat Google ungeheure Mengen von Daten über seine Nutzer gesammelt. Umfragen haben jedoch gezeigt, dass die meisten Nutzer sich des Umfangs der angehäuften Daten nicht bewusst sind. Manche verstehen Google immer noch als Suchmaschine anstatt als millionenschweres Unternehmen, das mit personalisierter Werbung hohe Profite erwirtschaftet.(4) Wir konzentrieren uns hier zwar auf Google, wollen jedoch festhalten, dass es sich im Prinzip nicht von seinen Konkurrenten unterscheidet. Andere Suchmaschinen, etwa Yahoo! und Live verwenden ebenfalls Cookies, um Suchverläufe zu verfolgen, Online-Läden wie Amazon speichern Informationen über die Einkaufsgewohnheiten ihrer Kunden und deren Kreditkartennummern, und soziale Netzwerkplattformen wie Facebook hatten bereits ihre eigenen Datenschutz-Probleme, etwa als die Nutzer bemerkten, dass sie ihre Konten nicht endgültig löschen konnten.(5) Cloud-Computing wird auch von Firmen wie Microsoft oder Dell betrieben. Was den Fall Google jedoch zu einem besonderen macht, ist nicht nur die Menge der gesammelten Daten, sondern auch die ungeheure Breite und die hohe Qualität dieser Informationen, sowie die Marktvorherrschaft in den Bereichen Websuche, Werbung und in immer größerem Maße Cloud Computing.



 

Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen. Weiter...