Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Die Demontage der Gatekeeper | Die Politik des Suchens | bpb.de

Suchmaschinen Einleitung Geschichte Die Suche vor grep 6000 Jahre Schrift Fragen oder Googeln Soziometrik der Suchmaschinen Grundrechte Spurenauswertung Suchmaschinen-Gesetzgebung Der zweite Index Macht Die Macht der Suchmaschinen Demokratisierung der Suche? Googles PageRank Die Macht der Klassifizierung Sichtbarkeit Zur Frage der Vergoogelung Marginalität in Netzwerken Digitale Kulturen Redaktion

Die Demontage der Gatekeeper Relationale Perspektiven zur Macht der Suchmaschinen

Theo Röhle

/ 24 Minuten zu lesen

Suchmaschinen wurden einst als ermächtigende Werkzeuge für die Navigation des Online-Raumes angekündigt, mittlerweile gelten sie als "böse" Manipulatoren und Datensammler. Anhand von Begriffen Foucaults und der Actor-Network-Theorie untersucht Theo Röhle die Kombination aus Belohnung und Bestrafung, die Google einsetzt, um Webmaster unter Kontrolle zu halten.

Suchmaschinen stehen zwischen Nutzern und Contentproduzenten und deren sich manchmal widersprechenden Interessen. - Der französische Kulturminister Donnedieu beantwortet Fragen über die Regierungspläne zu Bestrafung von Copyrightverletzung im Internet. (© AP)

Das Aufkommen neuer Medientechnologien ist fast zwangsläufig mit Diskursen verbunden, die zwischen technischem und sozialem Determinismus oszillieren. Nach der utopischen Version dieser Sichtweisen wirkt sich die Technik positiv auf die soziale Dynamik aus, nach der dystopischen Version ist sie eine kolonisierende Macht, die das Verhalten von Individuen und Gruppen vorstrukturiert. Suchmaschinen bilden keine Ausnahme von dieser Regel: einst als ermächtigende Werkzeuge für die Navigation des Online-Raumes angekündigt, gelten sie mittlerweile als "böse" Manipulatoren und Datensammler.

Angesichts der wichtigen Rolle, die Suchmaschinen in der Online-Umgebung spielen, sind die zunehmenden Bedenken über ihre Macht gewiss gerechtfertigt. Fraglich ist indessen, ob ein dystopischer Technik-Determinismus die richtigen Antworten auf diese Bedenken bereithält. Aufgrund ihrer Position zwischen den konfligierenden Interessen von Nutzern, Werbeunternehmen und Content-Produzenten stellen Suchmaschinen ein Gebiet von besonders dynamischen und ambivalenten Machtbeziehungen dar. Das deterministische Bild von Suchmaschinen als extrem mächtige Entitäten stellt eine drastische Reduktion der Komplexität dieser Beziehungen auf eine Reihe unidirektionaler Wirkungen dar.

Um solche reduktionistischen Darstellungen zu vermeiden, sind tiefer gehende Überlegungen zur Macht selbst erforderlich. In diesem Beitrag wird eine relationale Perspektive der Macht vorgeschlagen, die von Schriften Michel Foucaults von jüngeren, auf die Akteur-Netzwerk-Theorie aufbauenden Ansätzen in den Wissenschafts- und Technikstudien ausgeht. Anstatt Suchmaschinen als stabile technische Artefakte zu behandeln, wird in dieser Analyse versucht darzustellen, welche Rolle die verschiedenen Akteure in der Verhandlung der Entwicklung von Suchmaschinen spielen.

Nach einer Darstellung des theoretischen Rahmens widmet sich der Beitrag einer detaillierten Diskussion der Suchmaschine Google, wobei deren Beziehungen zu Webmastern und Nutzern im Mittelpunkt stehen. Aufgrund seiner Vorherrschaft auf dem Suchmarkt spielt Google eine besondere Rolle, wenn es darum geht, die Aufmerksamkeit der Nutzer auf den Content der Webmaster zu lenken. Auf Versuche von Webmastern, das Ranking-System zu manipulieren, um die Position der eigenen Webseite zu verbessern, reagiert Google mit einem fein nuancierten System von Belohnung und Strafe. Nach der in diesem Beitrag vertretenen Auffassung kommt diese Strategie einem disziplinären Regime gleich, welches eine bestimmte Norm für Web-Veröffentlichungen durchsetzt.

Die Beziehungen Googles zu den Nutzern sind indessen von weniger invasiven Formen der Macht geprägt. Google dringt tief in die Informationsumgebung eines Nutzers ein und kann so ungeheure Datenmengen sammeln und analysieren. Ich vertrete im Folgenden die Auffassung, dass das Modellieren von segmentiertem Konsumverhalten, das diesen Verfahren zugrunde liegt, auf einer gouvernementalen Form der Macht aufbaut. Dies ist eine Art der Macht, die bestrebt ist, verschiedene Verhaltensmuster zu kontrollieren, indem persönliche, statistisch auswertbare Informationen der Bevölkerung gesammelt werden und das so entstehende Wissen als Mittel eines prädiktiven Risikomanagements eingesetzt wird.

"Köpft den König" – Eine Perspektivenumkehr

Nach Michel Foucault muss Macht als relationaler Begriff behandelt werden. Seine Forderung, wonach die politische Theorie den "König köpfen" muss, beinhaltet eine Kritik von mechanistischen, zentralistischen und linearen Vorstellungen von Macht.(1) Analysen, die auf solchen Vorstellungen aufbauen, versuchen meist darzustellen, wie bestimmte machtvolle Akteure ihre Absichten anderen gegen deren Willen aufzwingen. Ziel dieser Analysen ist es, die Quellen der Macht und deren Folgewirkungen zu erkennen.(2) Eine relationale Perspektive der Macht kehrt diese Perspektive um – anstatt feststehende Orte der Souveränität zu bestimmen, versucht sie, die Beziehungen darzustellen, welche die Macht dieser Akteure überhaupt möglich machen.

Die Akteur-Netzwerk-Theorie (ANT) ist eine der wichtigsten Methoden, die relationale Machtbegriffe in die Wissenschafts- und Technikforschung eingeführt haben. Sie geht auf Bruno Latour zurück und sieht die Soziologie als "machttrunken", da es Wissenschaftler gibt, die "die Verbreitung machtvoller Erklärungen mit der Zusammensetzung des Kollektivs verwechseln."(3) Nach Latour sollte Macht nicht erklärt werden, indem machtvolle Akteure herausgegriffen werden, sondern indem die Handlungen erklärt werden, die Akteure als machtvoll konstituieren.(4)

Die Abkehr von mechanistischen, zentralistischen und linearen Begriffen der Macht macht es möglich, sozio-technische Umgebungen einer sensibleren Analyse ihrer inneren Dynamik zu unterziehen. Anstatt einfach nur die Auswirkungen der Technik auf die Gesellschaft (oder umgekehrt) zu behandeln, "kann man sagen, dass Technik und Akteure sich zusammen entwickeln."(5) Diese veränderte Perspektive führt zu einer topologischen Sicht der Beziehungen zwischen den Akteuren. Der jeweilige Stand der Dinge wird als vorläufige Stabilisierung dieser Akteurs-Netzwerke verstanden. Stabilität wird nicht als gegeben begriffen, sondern als Phänomen, das einer Erklärung bedarf.

Bowker/Star sprechen sich in ihrer Analyse der technischen Infrastruktur für eine derartige "Gestalt-Wende" aus: "Infrastrukturelle Umkehrung bedeutet, die Tiefe der Interdependenz von technischen Netzwerken und Standards einerseits, und die wirklichen Auswirkungen der Politik und der Wissensproduktion andererseits anzuerkennen."(6) Der ANT wurde vorgeworfen, sie erzähle nur die Erfolgsgeschichten der Technikanwendung nach, wobei ihr der Blick auf die Machtbeziehungen abhanden komme.(7) Wie Bowker/Star jedoch zeigen, müssen ANT-Analysen nicht auf diese Art von Konsens-orientierten Zugang beschränkt werden. Stattdessen können Begriffe wie "Stabilisierung" und "Irreversibilität" analytisch eingesetzt werden, um die mikro-politischen Verhandlungen zwischen den Akteuren sichtbar zu machen. Lucas D. Intronas Forderung, die "reversibility of foldings"(8) zu erhalten, fügt dieser Diskussion einen normativen Standpunkt hinzu. Er denkt dabei an eine Technikanalyse, deren Aufgabe es ist,

nicht nur dieses oder jene Artefakt zu untersuchen, sondern die moralischen Implikationen (des Abschlusses) dieser scheinbar pragmatischen oder technischen Entscheidungen zu verfolgen – auf der Ebene des Codes, der Algorithmen usw., aber auch der sozialen Praktiken und letztlich der Herstellung bestimmter sozialer Ordnungen.(9) Die "ethische Archäologie" Intronas untersucht die Akteure, die an Punkten, wo es zu (technischen) Abschlüssen kommt, aktiv sind, und die Entwicklungen, die aus diesen Konstellationen hervorgehen. Das normative Ziel ist es, eine Situation zu schaffen, wo diese Abschlusspunkte untersucht und erneut geöffnet werden können, um andere Entwicklungen zu ermöglichen.

Obwohl die Stabilisierung eines Akteur-Netzwerks bedeutet, dass alternative Richtungen aufgegeben werden,(10) bedeutet dies nicht, dass Macht nur in der Form der Unterdrückung dieser alternativen Richtungen zum Ausdruck kommt. Nach Foucault sollte Macht nicht allein als hemmende Kraft verstanden werden, als etwas, das die freie Entfaltung von Beziehungen und Diskursen hemmt, sondern als Produktivkraft, die bestimmte Beziehungen fördert und andere nicht. In der Terminologie der ANT ist dieser produktive Aspekt der Macht im Begriff der "Übersetzung" enthalten. Akteure sind ständig bestrebt, andere Akteure in ihr Netzwerk aufzunehmen, und sie im Rahmen ihres eigenen "Handlungsprogramms" produktiv zu machen.(11)

Suchmaschinen als Orte der Ko-Konstitution von Handlungen

Vor dem Hintergrund dieser theoretischen Perspektive wird im Folgenden ein näherer Blick auf die Suchmaschine Google als "Ort der Ko-Konstitution sozio-technischer Handlungen" (Introna 2007) geworfen. Zunächst werden einige der wichtigsten Akteure dieses Verhandlungsprozesses und deren jeweiliges "Handlungsprogramm" ausfindig gemacht.

Das World Wide Web hat die Zugangsbarrieren zur Produktion und Verbreitung von Content erheblich gesenkt, was zu einer bedeutenden Verbreitung der verfügbaren Information geführt hat. Wie Herbert Simon gezeigt hat, macht eine derartige Verbreitung von Information Aufmerksamkeit zu einem knappen Gut.(12) Content-Produzenten erfinden daher verschiedene Strategien, um die Sichtbarkeit ihres Content zu erhöhen. Je nach Art des Content – z.B. privat, wissenschaftlich oder kommerziell – kann diese Aufmerksamkeit in verschiedene Währungen verwandelt werden – in soziale, wissenschaftliche oder reale Währung.

Der Kampf um Aufmerksamkeit führt zu einem Übermaß an Information und bedroht die Kontrolle der Nutzer über ihre Informationsumgebung. Der Drang, diese "narzisstische Kränkung" zu vermeiden, schafft eine Nachfrage nach technischen Interfaces, die den Nutzer wieder in eine Position der Kontrolle bringt (oder zumindest diese Illusion erzeugen).(13) Suchmaschinen treten in den Interessenkonflikt zwischen Webmastern und Nutzern ein, indem sie beide Akteursgruppen durch das eigene Netzwerk schleusen. Google war in diesem Verfahren am erfolgreichsten, nicht zuletzt deswegen, weil sein übersichtliches Interface und die vergleichsweise Spam-freien Ergebnisse den Nutzern eine wirkungsvolle Illusion der Kontrolle vermittelten. In der Sprache der ANT hat sich Google als "notwendiger Durchgangspunkt" etabliert – sowohl Webmaster als auch Nutzer müssen diesen Punkt passieren, um ihr Handlungsprogramm weiter zu führen. Eine solche Reise durch das Netzwerk eines anderen Akteurs beinhaltet jedoch eine Übersetzung – eine Veränderung der Bedingungen, die einen Akteur konstituieren.

Die Position von Suchmaschinen zwischen Content und Nutzer hat zu Vergleichen mit Gatekeeper-Prozessen in früheren medialen Kontexten geführt.(14) In Anbetracht der obigen Diskussion zur Frage der Macht erscheint das Bild des Gatekeepers als verkörperte menschliche oder technische Entität jedenfalls simplifiziert. Wenn man einen Blick auf die Art und Weise wirft, in der Akteure ihren gegenseitigen Rekrutierungsprozess verhandeln, dann zeigt sich ein fein nuanciertes Bild der hier relevanten Machtbeziehungen. Die folgenden Abschnitte konzentrieren sich auf die Verhandlungsprozesse zwischen Webmastern einerseits und Nutzern andererseits.

Die Disziplinierung der Webmaster

In den vergangenen Jahren hat Google seine Bemühungen intensiviert, Kommunikationskanäle mit den Webmastern herzustellen. Im August 2006 wurde Webmaster Central eingeführt, eine Sammlung von Diensten und Informationen, die sich speziell an Webmaster wenden.(15) Die Seite bietet auch einen "Webmaster Central Blog" und Foren, wo Webmaster ihre Fragen posten und verschiedene Content-bezogene Themen diskutieren können. Webmaster Tools ist ein Dienstangebot, das in Webmaster Central enthalten ist. Hier stellt Google einen Teil der Informationen, die es über Webseiten hat, den jeweiligen Webmastern zur Verfügung. Diese können Statistiken über Crawling-Frequenzen und potenzielle Fehler während des Crawling-Prozesses einsehen und Informationen abrufen, wie sie ihren Content so anpassen können, dass er von den Google-Crawlern leichter erfasst werden kann.

Eine solche Anpassung, die im Rahmen der Webmaster Tools vorgeschlagen wird, ist die Schaffung einer Sitemap, eine XML-Datei, die die URLs einer Domain auflistet. Sitemaps geben der Suchmaschine Informationen über URLs, von denen sie sonst nichts erfahren würden, weil entweder kein Link zu ihnen existiert, oder weil sie dynamisch aus einer Datenbank generiert werden. Indem diese Information in einem maschinell lesbaren Format zur Verfügung gestellt wird, kompensieren die Webmaster zum Teil die Mängel der Crawler-Technologie.

Ein weiterer Dienst, der zu den Webmaster Tools gehört, ist "How Googlebot sees your site". Er ermöglicht es den Webmastern, die Sichtbarkeit von Stichwörtern innerhalb ihres Contents zu überprüfen. Die Webmaster Tools stellen auch eine Liste mit In-Links zur Verfügung, anhand derer Webmaster überprüfen können, wer auf ihre Seite einen Link gelegt hat.

Themen wie Stichwortsichtbarkeit und Verlinkung gehören zur Praxis der Suchmaschinenoptimierung (search engine optimisation, SEO). Seit es Suchmaschinen gibt, haben sich Webmaster Techniken einfallen lassen, um die Position ihres Content in den Suchergebnissen zu verbessern. SEO-Techniken reichen von simplen Textanpassungen bis zu ausgeklügelten Verlinkungssystemen und Methoden, Crawler und menschliche Besucher in bestimmte Richtungen zu lenken.(16) Für die Suchmaschinen sind derartige Praktiken Anlass zur Sorge, da sie die Relevanzmodelle ihrer Ranking-Algorithmen untergraben.

Anstatt SEO-Praktiken insgesamt zu verdammen, hat Google mit zunehmendem Geschick eine bestimmte Version der Content-Optimierung befürwortet, die zu seiner eigenen Agenda passt. Der SEO-Guide des Unternehmens, der im November 2008 veröffentlicht wurde, konzentriert sich auf Formen, den Content so anzupassen, dass die Crawling-, Indizierungs- und Wiedergabekapazitäten Googles davon profitieren.(17) Zwischen diesen "Google-freundlichen" und offen manipulativen SEO-Techniken wird streng unterschieden. In Googles Qualitäts-Richtlinien ist eine Reihe von Regeln für Webmaster enthalten, die den Einsatz von SEO-Techniken wie Doorway-Seiten, Weiterleitungen, versteckten Text und Keyword-Stuffing verbieten.(18) Eine Verletzung dieser Richtlinien wird mit einer vorübergehenden Entfernung aus dem Index bestraft. Wenn der Content nicht innerhalb eines bestimmten Zeitraums geändert wird, erfolgt die Entfernung auf Dauer.

Die Webmaster Tools können als Teil einer Strategie gesehen werden, Webmaster zu assoziieren und ihr Verhalten zu normalisieren. Die Crawling-Statistiken werden dabei als Anreiz verwendet, um einen Kommunikationskanal zwischen Google und den Webmastern herzustellen. Über diesen Kanal werden die Webmaster dazu ermutigt, ihren Content so anzupassen, dass es für Google vorteilhaft ist. Darüber hinaus werden die Webmaster aufgefordert, Seiten anzuzeigen, die sich nicht an die Google-Regeln halten. Zu diesem Zweck stellt Webmaster Tools Formulare zur Verfügung, mit denen Webmaster Spam und Link-Verkäufe anzeigen können.

Google kommentiert den Erfolg dieses Anzeige-Modells im Webmaster Central Blog wie folgt:

Wir sind stolz auf unsere Nutzer, die uns im Interesse der gesamten Internet-Gemeinde auf potenzielle Missbräuche aufmerksam machen. Wir schätzen dies umso mehr, als PageRank™ (und damit die Google-Suche) auf einem demokratischen Prinzip beruht, wonach ein Webmaster für eine andere Seite stimmt, indem er/sie auf sie verlinkt. Im Jahr 2007 wollen wir dieses demokratische Prinzip erweitern und ergänzen, indem wir die Praktiken von Webmastern, die sich nicht an die Google-Standards halten, in das Bewusstsein unserer Nutzer bringen. Gut informierte Nutzer sind dann in der Lage, gegen Webspam vorzugehen, indem sie Spam-Anzeigen erstatten.(19) Aufgrund seiner vorherrschenden Stellung im Zugang zu Online-Information ist Google in der Lage, eine Norm für Web-Veröffentlichungen festzusetzen. Die spezifische Mischung aus Zusammenarbeit und Strafe, die den Webmaster Tools innewohnt, ähnelt der Errichtung eines Disziplinarregimes. Indem die Webmaster selbst in die Identifikation von Spam einbezogen werden, werden sie an die Gefahr erinnert, "erwischt" zu werden, sollten sie die falschen SEO-Techniken anwenden. Damit wird Googles Trennlinie zwischen "legitimer" Optimierung und "illegitimer" Manipulation weiter gestärkt.

Die Überschreitung dieser Trennlinie wird überwacht und automatisch bestraft, wobei formale Spam-Definitionen angewandt werden, die von Googles Web-Spam-Team entwickelt werden. Aktuelle Forschungen zeigen, dass derartige automatische Verfahren wahrscheinlich falsche Positivergebnisse hervorbringen, sodass Webseiten aus dem Index genommen werden, obwohl sie sich in Wirklichkeit an die Google-Richtlinien halten.20 Aufgrund des hohen Marktanteils von Google werden derartige Webseiten für die meisten Internet-Nutzer unsichtbar bleiben, solange das Verbot wirksam ist.

Wenn man die Verweise auf demokratische Prinzipien im Webmaster Central Blog wörtlich nimmt, dann wäre das Erstatten einer Spam-Anzeige als Mandat für Google zu interpretieren, Qualitäts-Standards im Web durchzusetzen. Da aber die Verarbeitung dieser Anzeigen und ihre Übersetzung in algorithmische Sortierkriterien völlig intransparent sind, lässt sich dieses Argument wohl kaum vertreten. Man kann sehr wohl den Standpunkt einnehmen, dass das Web einen Spamerkennungs-Mechanismus benötigt, um navigierbar zu bleiben – es ist aber durchaus fraglich, ob diese Aufgabe einer kommerziellen Organisation wie Google übertragen werden soll.

Die Kontrolle der Nutzer

Wie Zimmer ausführlich gezeigt hat, ist Google in der Lage, über seine verschiedenen Dienste sehr große Datenbestände zu generieren.(21) In Anbetracht der Nutzerdatenbank der Suchmaschine selbst, der Reichweite des Werbenetzwerks DoubleClick und des Statistik-Dienstes Google Analytics, aber auch der Tiefe der Nutzerdaten, die aus Diensten wie Gmail und orkut generiert werden, scheint es heute klar zu sein, dass keine andere Internet-Firma in der Lage ist, die Nutzer online so wirksam zu tracken wie Google.

Möglicherweise als Reaktion auf die zunehmende Aufmerksamkeit von Datenschützern(22) hat sich Google in jüngster Zeit deutlicher zu seinen Gründen für die Sammlung von Nutzerdaten geäußert. Einer der dabei angegebenen Gründe ist, dass Nutzerdaten eingesetzt werden können, um die Ranking-Algorithmen zu verbessern.(23) Suchmaschinenanbieter versuchen zunehmend herauszufinden, was die Nutzer "wirklich" wollen, um die subjektive Relevanz der Resultate zu verbessern.(24) Da viele Suchanfragen schlecht formuliert sind, werden immer mehr Daten aus dem Kontext der Suchanfrage generiert, womit eine Vielzahl verschiedener "Signale" in den Suchalgorithmus aufgenommen werden können.

Von Ereignis-basierten zu abgeleiteten Daten

Vollständig personalisierte Ranking-Modelle wie jene, die im Google-Webprotokoll(25) enthalten sind, arbeiten mit äußerst anspruchsvollen Abgleichverfahren. In personalisierten Suchen wird ein Profil für einen individuellen Nutzer angelegt, und das Ranking erfolgt in Abstimmung mit diesem Profil.(26) Ein Patentantrag für die personalisierten Dienste Googles (27) gibt Aufschluss über die Daten, die in diesen Profilen enthalten sind. Die individuellen Log-Informationen, die während der Nutzung der Google-Suchmaschine gesammelt werden, werden als "Ereignis-basierte Daten" bezeichnet und enthalten:

  • Suchanfragen

  • IP-Adressen

  • Anklicken von Ergebnissen (also jene Ergebnisse in der Ergebnisliste, die vom Nutzer aufgerufen wurden)

  • Anklicken von Werbeeinschaltungen (also jene dem Nutzer präsentierten Einschaltungen, die von diesem aufgerufen wurden)

  • Verlaufsdaten (z.B. welche Seiten ein Nutzer besucht; Bilder, die angesehen werden)

  • Produktereignisse

Darüber hinaus können auch andere Aktivitäten, die nicht zur Suche selbst gehören, getrackt werden. Zu diesen gehören:

  • Anzeigen, die während einer E-Mail-Sitzung angezeigt und angeklickt werden

  • Sofortnachrichten

  • Teilnahme an Chats

  • Ausführen von Software-Applikationen

  • Internet-Telefonie

Diese individuellen Daten werden in verschiedenen Formen miteinander verbunden, um ein Modell der Präferenzen eines individuellen Nutzers anzulegen, das eingesetzt werden kann, um Ergebnisse zu reihen. Als Beispiel für jene Daten, die Google als "abgeleitete Daten" bezeichnet, wird im Patentantrag beschrieben, wie Suchanfragen mit den Themen des Open Directory-Projekts abgeglichen werden können. Indem die Anfragen über einen Zeitraum hinweg aggregiert werden, können sie zu einem gewichteten Satz von Themen-Deskriptoren verarbeitet werden. Dieser Satz dient als Modell für Themen-spezifische Nutzerpräferenzen, und die Resultate werden entsprechend gewichtet.

Vom Individuum zum Kollektiv

Wie im Fall der 2006 veröffentlichten AOL-Suchanfragen deutlich wurde, können die von Suchmaschinen gesammelten Daten persönliche Detailinformationen über das reale Leben eines Menschen beinhalten.(28) Es gibt daher zahlreiche Missbrauchsszenarien, die nicht nur Google betreffen, sondern auch andere Akteure wie Regierungen, Verbrecher, Hacker, usw. Derartige Missbrauchsszenarien sind wichtige Argumentationshilfen bei der Bewertung der Auswirkungen von Überwachungspraktiken, aber auch im Bemühen, angemessene politische Antworten darauf zu finden. Andererseits sind diese Szenarien oft auf ein individualistisches Verständnis der Privatsphäre beschränkt. Sie werden von Bedenken genährt, dass die Überwachung es möglich macht, Dossiers über Menschen anzulegen und diese Informationen diskriminierend zu verwenden.

Datensammlungen in dem von Google betriebenen Umfang sind jedoch auch dann problematisch, wenn sie nicht dazu eingesetzt werden, Einzelpersonen nachzuspüren. Die von Google gesammelten Daten ermöglichen umfangreiche statistische Evaluationen, anhand derer sich das Verhalten und die Präferenzen von Nutzern modellieren lassen. Gandy stellt eine historische Analogie zwischen dieser Art von Data-Mining-Techniken, die durch leistungsfähige Computerinfrastruktur möglich werden, und der Erfindung des Mikroskops in den Naturwissenschaften her.(29) In beiden Fällen führt die technische Infrastruktur zu einer Veränderung der Perspektive, die neue Klassifizierungssysteme und Typologien möglich macht.

In seinem Unternehmens-Blog betont Google die Vorteile, die das Modellieren von Nutzerverhalten für das Ranking bringt.(30) Ein einfaches, seit langem im Einsatz befindliches Modell des Nutzerverhaltens geht von der Annahme aus, dass die Nutzer Ergebnisse in der eigenen Sprache bevorzugen. Die Ergebnisse werden daher unter Berücksichtigung der IP-Adresse des Nutzers und der Sprache der Suchanfrage gereiht. Andere Modelle betrachten Zeit als Faktor. Wenn die gesammelten Daten zum Beispiel zeigen, dass die meisten Nutzer neuere Ergebnisse für eine bestimmte Anfrage bevorzugen, dann werden diese Ergebnisse bei nachfolgenden Anfragen weiter vorne gereiht.(31)

Information Retrieval und Werbe-Targeting

Google hat sich zwar um eine Erklärung bemüht, weshalb Nutzerdaten für die Entwicklung der Ranking-Algorithmen erforderlich sind, war aber sehr schweigsam bezüglich der kommerziellen Verwendung der gesammelten Daten. In einer ihrer frühesten wissenschaftlichen Unterlagen lehnten die Google-Gründer eine solche Verwendung ab und vertraten die Auffassung, dass "das Thema Werbung zahlreiche gemischte Anreize schafft, weshalb es wichtig ist, eine leistungsfähige und transparente Suchmaschine im akademischen Umfeld anzusiedeln."(32) Im Verlauf von Googles Wandlung vom akademischen Experiment zum weltweit führenden Online-Suchunternehmen hat sich diese Haltung auf bemerkenswerte Weise verändert. Heute wünscht sich Google-CEO Eric Schmidt, dass man sich Google "vor allem als Werbesystem" vorstellt.(33)

Die Grundlage von Googles wirtschaftlichem Erfolg ist die kontextabhängige Werbung. Diese Technik, ursprünglich von der Konsumgüter-Suchmaschine Goto.com entwickelt, ermöglicht es Werbekunden, auf bestimmte Stichwörter zu setzen. Wenn jemand eine Suchanfrage eingibt, die dieses Stichwort enthält, wird der Werbebanner des Kunden angezeigt.(34) Als Google die Technik der kontextabhängigen Werbung einführte, wurden die gesponserten Ergebnisse getrennt von den so genannten "organischen", algorithmisch ermittelten Ergebnissen angezeigt. Es ist allerdings fraglich, ob damit das Problem der "gemischten Anreize" verschwunden ist. Eine Studie über Suchmaschinennutzer im Jahr 2005 kam zu dem Schluss, dass sich 62 Prozent der Nutzer des Unterschieds zwischen bezahlten und unbezahlten Ergebnissen gar nicht bewusst waren.(35)

Die kontextabhängige Werbung positioniert sich im Fluss des Online-Informationsverhaltens und übersetzt Informationsbedürfnisse in Echtzeit in Konsumbedürfnisse. Diese Übersetzung ist möglich, weil Suchanfragen einigermaßen brauchbare Ausdrucksformen von Informationsbedürfnissen sind. Wenn die Anzeige gut an die Anfrage angepasst ist, so die Hoffnung, dann wird der Nutzer die kommerzielle Botschaft als passende Antwort auf sein Informationsbedürfnis wahrnehmen. Schlecht formulierte Suchanfragen stellen allerdings für die Funktionalität dieses Systems ein Problem dar. Selbst wenn Anzeigen sehr genau an die Suchanfrage angepasst werden, können sie möglicherweise nicht dem tatsächlichen Informationsbedürfnis des Nutzers entsprechen. Die Antwort der Suchmaschinenbetreiber auf dieses Problem war einmal mehr der Rückgriff auf aggregierte Nutzerdaten.

Verhaltensmodellierung und Vorhersage

Wie schon im Fall des Ranking werden auch hier Modelle aus aggregierten Nutzerdaten angefertigt, um festzustellen, was ein Nutzer "wirklich" will. Individuelle "Ereignis-basierte" Log-Informationen werden nach bestimmten Modellen des individuellen und kollektiven Verhaltens gebündelt. Wie Picard zeigt, öffnen diese segmentierten Modelle Werbekunden neuartige Wege, bestimmte Zielgruppen zu erreichen: "Das Tracken des Suchverlaufs und des Surfverhaltens eines Nutzers erzeugt eine anonymes Profil der Interessen dieser Person. Diese Interessen können isoliert und in der Folge mit den Zielen der Werbekunden verglichen werden. Dann können die Anzeigen den richtigen Personen in allen Medien präsentiert werden."(36)

Die Technik, zuerst segmentierte Modelle der Nutzerinteressen und des Nutzerverhaltens herzustellen und dann die getrackten Nutzerdaten mit ihnen abzugleichen, wird als behavioral targeting (verhaltensspezifische Zielgruppenauswahl) bezeichnet. Diese Technik wurde von Yahoo schon seit 2000 eingesetzt, Google dagegen holte erst 2007 mit der Übernahme von DoubleClick auf. In seiner Datenschutzinformation betont Google, dass diese Techniken für das Unternehmen "Neuland" seien.(37) Es gibt jedoch zwei Patentanträge, die deutlich machen, dass dieses Neuland in der Zukunft eingehend erkundet werden soll.

Erstens möchte Google seinen Werbekunden die Möglichkeit geben, aus einer Reihe von "Targeting-Kriterien" für die Anzeige ihrer Werbeeinschaltungen auszuwählen. Zu diesen Kriterien gehören u.a. "die geographische Lage, die Sprache des Nutzers, der benutzte Browser, die Verlaufsgeschichte, früheres Surfverhalten, der User-Account, vom System verwendete Web-Cookies, Eigenschaften des vom Nutzer verwendeten Geräts, usw."(38) Obwohl es technisch möglich ist, die Werbekunden aus all diesen Kriterien auswählen zu lassen, werden im behavioral targeting meist bestimmte Kombinationen gewählt. Diese Segmente, z.B. Themenbündel oder Verhaltensmuster, können dann mit gezielten Einschaltungen erreicht werden.

Ein Patentantrag, der das network node targeting (Targeting von Netzwerksknoten) beschreibt, enthält nähere Einzelheiten zum operationellen Layout solcher Systeme. Diese Targeting-Methode beruht auf den Daten sozialer Netzwerke und hat den Zweck, Gemeinschaften von Nutzern mit gleichen Interessen zu identifizieren und festzustellen, wer die einflussreichsten Mitglieder dieser Gemeinschaften sind. Indem man den Werbekunden erlaubt, ihre Anzeigen auf den Profilseiten dieser einflussreichen Mitglieder zu platzieren, will man es ermöglichen, "die ganze Gemeinschaft über die Schaltung einer einzigen Anzeige im Profil von Mitglied 1 zu erreichen". Es kann auch zusätzliche Anreize für diese einflussreichen Mitglieder geben, ihre Position im Netzwerk zu erhalten: "Ein Einflussgeber kann im Gegenzug zur Erlaubnis, Anzeigen auf seiner Profilseite zu schalten, finanzielle Anreize von den Werbekunden erhalten."(39)

Dieses Beispiel macht mehrere zentrale Aspekte des behavioral targeting sichtbar. Erstens zeigt es, dass das Targeting eine spezifische topologische Ordnung eines kontinuierlichen Informationsraums erfordert. Network node targeting bedeutet, dass die Nutzerdaten nach einem bestimmten Modell der Beschaffenheit einer Gemeinschaft und der Einflussverteilung innerhalb dieser analysiert werden. Die Wahl dieses Analysemodells bedeutet daher, dass bestimmte Beziehungen zwischen Dateneinheiten in den Mittelpunkt gerückt und andere übergangen werden. Zweitens impliziert diese Art des Ordnens, dass bestimmten Kombinationen von Dateneinheiten eine bestimmte Bedeutung zugeschrieben wird. Die einflussreichen Mitglieder werden primär als wirksame Verteiler von kommerziellen Botschaften aufgefasst. Solche Rollenzuschreibungen haben eine gesellschaftliche Relevanz, denn sie sind Komponenten von individuellen und kollektiven Subjektivierungsprozessen. Drittens zeigt dieses Beispiel, wie das Modell sich selbst stärkt. Indem einflussreiche Nutzer dazu ermutigt werden, ihre Position im Netz zu konsolidieren, bestätigt das network node targeting langfristig genau jene gesellschaftlichen Annahmen, auf denen es von Anfang an aufbaute.

"Kontinuität mit Differenz"

Das behavioral targeting beinhaltet also das Tracking von Nutzern, die Konstruktion von Segment-Modellen aufgrund von aggregierten Daten und die Rückleitung dieser Modelle an die Nutzer. Diese Art der Segmentierung zu Marketingzwecken wurde in den surveillance studies aus verschiedenen Perspektiven untersucht.(40) Anstatt die Überwachung als ausschließlich disziplinierendes Verfahren darzustellen, haben die Wissenschaftler den Schwerpunkt ihrer Untersuchungen auf die verteilten und vernetzten Eigenschaften der aktuellen Überwachungspraktiken gelegt.

Die Machtbeziehungen, um die es in der Segmentierung geht, können am besten mit Bezug auf Foucaults späte Schriften zur Gouvernementalität verstanden werden. In diesen beschreibt Foucault Macht als "conduct of conduct". Anstatt einfach eine Norm durchzusetzen, geht es bei diesem indirekten Modus der Macht darum, ein Feld der Möglichkeiten zu strukturieren. Er strebt eine genaue statistische Kenntnis einer Bevölkerung an, um Verhalten voraussagen und Kontrollstrategien entsprechend abstimmen zu können.(41)

Simon führt daher ins Treffen, dass die Schaffung von "Daten-basierten" Subjekten einen Umstieg von der Disziplin zur Kontrolle nach sich zieht. Mit Bezug auf Deleuze (42) merkt er an:

Disziplin als Modus der Macht beruht hauptsächlich auf Einschlüssen, seien diese nun materiell, kulturell oder psychisch. Kontrolle dagegen fördert die Mobilität, um ein größeres Territorium verwalten zu können, nicht bloß den sozialen Raum der Einschlüsse.(43) Verglichen mit der Disziplin ermöglicht die Kontrolle daher eine viel größere Flexibilität gegenüber der Differenz. Bei der Kontrolle von Konsumenten geht es weniger darum, diesen bestimmte Verhaltensweisen aufzuzwingen, sondern ihre Verhaltensweisen innerhalb eines kontrollierbaren Rahmens zu erfassen.

Die Flexibilität gegenüber der Differenz ermöglicht das, was Hespos als "Nicht-Massen-Marketing" bezeichnet.(44) Wo der Verlust des sozialen Zusammenhangs und die Differenzierung von Konsumverhalten eine Bedrohung der kapitalistischen Akkumulation darstellen könnten, stellen der ständige Fluss von Nutzerdaten in die Suchmaschinen und die entsprechenden segmentierten Targeting-Techniken ein Interface dar, das die Berechenbarkeit der Konsumenten sichert. Es ist Teil einer Risiko-Management-Strategie, in der die Subjekte "vollständig in eine lebende Maschine integriert sind, die nicht gegen ihren Willen, ihre Gedanken, ihre Wünsche, ihre Körper usw. arbeitet, sondern durch diese."(45)

Schluss

Die Analyse von Google als Ort der Ko-Konstitution sozio-technischen Handelns hat das Erscheinen zweier verschiedener Arten von Machtbeziehungen sichtbar gemacht. Einerseits werden Webmaster in die Pflicht eines disziplinären Regimes genommen, wo Normenübertretungen durch den Ausschluss aus der Nutzeraufmerksamkeit bestraft werden. Die Förderung konformen Verhaltens und die Einbindung der Webmaster in die Verfolgung von Abweichungen stellen Strategien dar, welche die Internalisierung dieser Norm bezwecken. Andererseits stellt das laufende Monitoring des Nutzerverhaltens als Grundlage segmentierter Zieltechniken eine Form der gouvernementalen Macht dar. Die aus den gesammelten Daten abgeleiteten Verhaltensmodelle lokalisieren Nutzer, die bestimmte Konsummuster aufweisen. Die Rückführung dieser Modelle an die Nutzer macht diese "statistische Neigung" produktiv.(46) Sie schafft ein leichter vorhersagbares und steuerbares Aktionsfeld, wodurch Kontinuität gewährleistet wird, während gleichzeitig Differenzen akzeptiert werden.

Wenn wir zur ursprünglichen Frage der Stabilisierung und der Irreversibilität zurückkehren, dann muss die Frage gestellt werden, ob die verschiedenen Akteure die Rollenzuschreibungen, die ihnen angeboten wurden, akzeptiert haben, oder ob es ihnen gelingt, den Verhandlungsprozess fortzuführen. Während Webmaster kaum eine andere Wahl haben, als Google zu benutzen, um ihr Publikum zu erreichen, so zeigen ihre fortgesetzten Versuche, das Ranking durch SEO-Techniken zu hintergehen doch, dass Googles Norm der Veröffentlichung eine umstrittene Norm ist. Anstatt in der Lage zu sein, einen technischen Abschluss herbei zu führen, muss Google flexible Strategien entwickeln, um auf diese Herausforderungen zu reagieren und sich auf sie einzustellen.

In Anbetracht ihrer Mitwirkung bei der Spam-Bekämpfung müssen sich Webmaster fragen, ob sie wollen, dass Google jene Institution ist, die für die Durchsetzung von Qualitätsstandards im Web verantwortlich ist. Dies beinhaltet auch die Frage, ob es andere Lösungen für dieses Problem geben könnte, und wie diese mit der Entwicklung von nicht-kommerziellen Suchalternativen zusammen passen würden.

Die Sammlung von Nutzerdaten kann andererseits im Kontext einer breiteren Neuverhandlung der Grenzen zwischen privat und öffentlich, aber auch zwischen kommerziell und nicht-kommerziell im Internet gesehen werden. Wenn man diesen Prozess wiederum als Frage der Stabilisierung von Rollenzuschreibungen fasst, dann stellt sich zuerst die Frage, auf welcher Grundlage Verhandlungen überhaupt stattfinden können. Die Nutzer werden meist im Unklaren darüber gelassen, wie aus ihren Daten Wert generiert wird. Ohne die technischen Möglichkeiten, auf ihre Daten zuzugreifen, sie zu bearbeiten oder zu löschen, sind sie nicht in der Lage, sich dem Datensammeln teilweise oder ganz zu entziehen.

Aus technischer Sicht besteht ein Bedarf an einem Interface, das die Nutzer mit einem größeren Maß an Interaktionsmöglichkeiten mit ihren Daten neuen Terminologie der Privatsphäre begleitet werden, um Fragen der Privatsphäre in größerer Auflösung behandeln zu können.(47) Für Nutzer, die das Tracking überhaupt ablehnen, sollte die Entwicklung von Techniken gefördert werden, die z.B. Datenspuren verwischen oder auf andere Weise dazu beitragen, Tracking ganz zu unterbinden.

Eine Kombination von solchen technischen und diskursiven Maßnahmen könnte einen Ausgangspunkt zur Stärkung der Verhandlungsposition von Nutzer gegenüber den Suchmaschinen und den Werbeunternehmen bilden. Bei entsprechender Qualität könnten diese Maßnahmen auch in der Lage sein, Wege aus den kontrollierten Räumen der Nutzersegmentierung und des Targeting zu weisen.

Anmerkungen

(1) Michel Foucault, Power/Knowledge. Selected Interviews and Other Writings 1972–1977 (Brighton: Harvester Wheatsheaf, 1980), 121.

(2) Stewart R. Clegg, Frameworks of Power (London: Sage, 1989), 153–159.

(3) Bruno Latour, Reassembling the Social. An Introduction to Actor-Network-Theory (Oxford; New York: Oxford University Press, 2005), 261. Nach Jens Schröter gilt diese Gefahr von übermäßig "machtlastigen" Erklärungen auch für Teile der deutschen Medientheorie, wenn sie zuerst das menschliche Subjekt entkernt und dann die Medientechnologie selbst als neues "technisches Subjekt" einführen will. (Vgl. Jens Schröter, "Der König ist tot, es lebe der König. Zum Phantasma eines technologischen Subjekts der Geschichte", in Reale Fiktionen, fiktive Realitäten: Medien, Diskurse, Texte, hg. von Johannes Angermüller, Katharina Bunzmann und Christina Rauch (Hamburg: LIT, 2000), 13–24.)

(4) Bruno Latour, "The Powers of Association," in Power, Action, and Belief: A New Sociology of Knowledge?, hg. von John Law (London: Routledge & Kegan Paul, 1986), 264–80.

(5) Michel Callon, "Variety and Irreversibility in Networks of Technique Conception and Adoption", in Technology and The Wealth of Nations. The Dynamics of Constructed Advantage, hg. von Dominique Foray und Christopher Freeman (London, New York: Pinter Publishers, 1993), 250.

(6) Geoffrey C. Bowker und Susan Leigh Star, Sorting Things Out: Classification and its Consequences (Cambridge, MA: MIT Press, 1999), 34.

(7) Thomas Berker, "The Politics of 'Actor-Network Theory'. What can 'Actor-Network Theory' Do to Make Buildings More Energy Efficient?", Science, Technology and Innovation Studies 1 (2006): 61–79, http://www.sti-studies.de/fileadmin/articles/berker-politicsofant-2006.pdf (Zugriff 20. Dezember 2008).

(8) Lucas D. Introna, "Maintaining the Reversibility of Foldings: Making the Ethics (Politics) of Information Technology Visible", Ethics and Information Technology 9 (2007): 11–25.

(9) Introna (2007): 16.

(10) Callon (1993)

(11) Bruno Latour, "Technology is Society Made Durable", in A Sociology of Monsters. Essays on Power, Technology and Domination, hg. von John Law (London: Routledge, 1991), 103–131.

(12) Herbert Simon, "Designing Organizations for an Information-Rich World," in Computers, Communications, and the Public Interest, hg. von Martin Greenberger (Baltimore, London: Johns Hopkins Press, 1971), 39–72.

(13) Hartmut Winkler, "Search Engines: Meta-Media on the Internet?" in Readme! Filtered by Nettime: ASCII Culture and the Revenge of Knowledge, hg. von Josephine Bosma (New York: Autonomedia, 1999), 29–37.

(14) Zum Beispiel: Jens Wolling, "Suchmaschinen – Gatekeeper im Internet" Medienwissenschaft Schweiz 2 (2002): 15–23.

(15) Google. "Google Webmaster Central." http://www.google.com/webmasters (Zugriff 20. Dezember 2008).

(16) Elizabeth van Couvering, "The Economy of Navigation: Search Engines, Search Optimisation and Search Results," in Die Macht der Suchmaschinen. The Power of Search Engines, hg. von Marcel Machill und Markus Beiler (Köln: Herbert von Halem Verlag, 2007), 115–119.

(17) Google. "Search Engine Optimization Starter Guide." http://www.google.com/webmasters/docs/search-engine-optimization-starter-guide.pdf (Zugriff 20. Dezember 2008).

(18) Google. "Webmaster Guidelines – Webmaster Help Center" http://www.google.com/support/webmasters/bin/answer.py?answer=35769&topic=15260 (Zugriff 20. Dezember 2008).

(19) Google, "An update on spam reporting", Official Google Webmaster Central Blog, gepostet am 28. März 2007 http://googlewebmastercentral.blogspot.com/2007/03/update-on-spam-reporting.html (Zugriff 20. Dezember 2008).

(20) Siehe dazu Richard Rogers in diesem Band.

(21) Michael Zimmer, "The Gaze of the Perfect Search Engine. Google as an Infrastructure of Dataveillance", in Web search. Multidisciplinary Perspectives, hg. von Amanda Spink und Michael Zimmer (Berlin; Heidelberg: Springer, 2008), 77–99.

(22) Zum Beispiel: Center for Democracy and Technology. "Search Privacy Practices: A Work In Progress. CDT Report – August 2007" http://www.cdt.org/privacy/20070808searchprivacy.pdf (Zugriff 20. Dezember 2008).

(23) Hal Varian, "Why Data Matters", Official Google Blog, gepostet am 3. April 2008 http://googleblog.blogspot.com/2008/03/why-data-matters.html (Zugriff 20. Dezember 2008).

(24) In einer Studie über Qualitätsbegriffe bei Suchmaschinenproduzenten hält Elizabeth van Couvering fest: "Die Relevanz hat sich verändert, und zwar weg von einer Art thematischen Relevanz, die ihre Basis in einer angewandten Klassifizierung hatte, hin zu etwas Subjektiverem." (Elizabeth Van Couvering, "Is Relevance Relevant? Market, Science, and War: Discourses of Search Engine Quality", Journal of Computer-Mediated Communication 12 (2007), http://jcmc.indiana.edu/vol12/issue3/vancouvering.html (December 20, 2008). Siehe auch Zimmer (2008) zum Thema eines weiteren Kontexts der von ihm so benannten "Suche nach der perfekten Suchmaschine"

(25) Google, "Web History" www.google.com/psearch (Zugriff 20. Dezember 2008).

(26) Kevin Keenoy and Mark Levene, "Personalisation of Web Search," in Intelligent Techniques for Web Personalization, hg. von Sarabjot Singh Anand und Bamshad Mobasher (Berlin, Heidelberg, New York: Springer, 2005), 201–28.

(27) Andrew Fikes et al., Systems and methods for analyzing a user´s web history, US Patent Application: 11097883 (2005).

(28) Michael Barbaro und Tom Zeller jr., "A Face is Exposed for AOL Searcher No. 4417749", New York Times, 9. August 2006.

(29) Oscar H. Gandy, The Panoptic Sort. A Political Economy of Personal Information (Boulder, Colorado: Westview, 1993), 83.

(30) Google, "Introduction to Google Search Quality", Official Google Blog, gepostet am 20. Mai 2008 http://googleblog.blogspot.com/2008/05/introduction-to-google-search-quality.html (Zugriff 20. Dezember 2008).

(31) Anurag Acharya et al., Information retrieval based on historical data, US Patent No 7346839 (2003)

(32) Sergey Brin und Lawrence Page, "The Anatomy of a Large-Scale Hypertextual Web Search Engine", http://infolab.stanford.edu/~backrub/google.html (Zugriff 20. Dezember 2008).

(33) Fred Vogelstein, "As Google Challenges Viacom and Microsoft, Its CEO Feels Lucky," Wired, (2007), http://www.wired.com/print/techbiz/people/news/2007/04/ mag_schmidt_qa (Zugriff 20. Dezember 2008).

(34) Das Verfahren zur Bestimmung der Position bestimmter Anzeigen ist komplizierter, da es zum Teil von einer Analyse der Landing-Page und der Durchklick-Raten abhängt. (Vgl. Google, "How are ads ranked?" http://adwords.google.com/support/bin/answer.py?hl=en&answer=6111 (Zugriff 20. Dezember 2008).)

(35) Deborah Fallows, "Search Engine Users. Internet searchers are confident, satisfied and trusting – but they are also unaware and naïve", http://www.pewinternet.org/pdfs/PIP_Searchengine_users.pdf (Zugriff 20. Dezember 2008)

(36) Eric Picard, "Hyperlinking and Advertising Strategy", in The Hyperlinked Society: Questioning Connections in the Digital Age, hg. von Joseph Turow und Lokman Tsui (Ann Arbor: The University of Michigan Press, 2008), 163.

(37) Google, "Privacy at Google", https://services.google.com/blog_resources/ google_privacy_booklet.pdf (Zugriff 20. Dezember 2008).

(38) Jayesh Sharma, Using search query information to determine relevant ads for a landing page, US Patent Application: 11323303 (2005)

(39) Terrence Rohan et al., Network Node Ad Targeting, US Patent Application: 0080162260 (2006)

(40) Kevin D. Haggerty und Richard V. Ericson, "The surveillant assemblage", The British Journal of Sociology 51 (2000): 605–22; Greg Elmer, Profiling Machines. Mapping the Personal Information Economy (Cambridge, Mass.: MIT Press, 2004)

(41) Nikolas Rose und Peter Miller, "Political Power Beyond the State: Problematics of Government", British Journal of Sociology 43 (1992): 173–205.

(42) Gilles Deleuze, "Postscript on the Societies of Control," Oktober 59 (1992): 3–7.

(43) Bart Simon, "The Return of Panopticism: Supervision, Subjection and the New Surveillance," Surveillance & Society 3 (2005): 15 http://www.surveillance-and-society.org/Articles3(1)/return.pdf (Zugriff 20. Dezember 2008). In ähnlicher Weise spricht Arvidsson (2004) von einem Paradigmenwechsel von "Einschränkung" zu "Kontrolle" in der Entwicklung des Marketings in den 1950er-Jahren. Nach diesem Wechsel wurde die Rolle des Marketings nicht mehr "primär als Disziplinierung der Verbrauchernachfrage" verstanden, sondern "als Beobachtung und Verwertung der Ideen, welche von den Konsumenten selbst hervorgebracht wurden." (Adam Arvidsson, "On the ‘Pre-history of the Panoptic Sort´: Mobility in Market Research," Surveillance and Society 1 (2003): 456–74 http://www.surveillance-and-society.org/articles1(4)/prehistory.pdf (Zugriff 20. Dezember 2008).)

(44) Tom Hespos, "How Hyperlinks Ought to Change the Advertising Business", in The Hyperlinked Society: Questioning Connections in the Digital Age, hg. von Joseph Turow und Lokman Tsui (Ann Arbor: The University of Michigan Press, 2008), 149.

(45) Frédéric Vandenberghe, "Deleuzian Capitalism," Philosophy & Social Criticism 34 (2008): 877.

(46) Jordan Crandall, "Between Tracking and Formulating", Vector 21 (2008), http://www.virose.pt/vector/b_21/crandall.html (Zugriff 20. Dezember 2008).

(47) Helen Nissenbaum, "Privacy as Contextual Integrity", Washington Law Review 79 (2004): 119–57.

Fussnoten

Weitere Inhalte

Weitere Inhalte

Überwachung, Tracking, Datenschutz

Algorithmen sind keine Messer

Algorithmen bestimmen, was eine Google-Suche als Ergebnisse auswirft, welche Werbung wir angezeigt bekommen oder ob unser Verhalten im Netz den Sicherheitsbehörden auffällt. Doch kaum jemand weiß,…

Artikel

Periphere Kräfte

Das Forschungs- und Designstudio Metahaven wendet sich der Soziometrik und dem vorherrschenden Paradigma zu, auf dem PageRank beruht. Es geht der Frage nach, "wie eine andere Sicht auf die…

Artikel

Zur Frage der Vergoogelung

Richard Rogers stellt eine schleichende "Vergoogelung" der ganzen Medienlandschaft fest, wonach die Methoden, die Google zur Vorherrschaft verholfen haben, nun auch anderswo eingesetzt werden. Diese…

Artikel

Der zweite Index

Felix Stalder und Christine Mayer fragen, ob Suchmaschinen die Autonomie der Nutzer stärken oder schwächen. Ihr Zugang konzentriert sich auf das Thema Personalisierung. Liegt darin eine…

Artikel

Zur Soziometrik der Suchmaschinen

Katja Mayer zeichnet die Geschichte einer Methode nach, die heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Bedeutung von Veröffentlichungen durch Soziometrik. Sie zeigt auf, dass diese…

Doktoratsstudent am Institut für Medien und Kommunikation der Universität Hamburg und Lehrbeauftragter an den Universitäten Stockholm und Hamburg; seine Forschungsinteressen konzentrieren sich auf die Schnittmenge von Medientheorie, Überwachungsstudien, und Politik des Code; mehr Information auf www.netzmedium.de