30 Jahre Deutsche Einheit Mehr erfahren
Ein Besucher blickt auf das Rechenzentrum des CERN.

8.4.2011 | Von:

Der zweite Index

Suchmaschinen, Personalisierung und Überwachung

Was den zweiten Index indessen auszeichnet, ist die letzte der angeführten Dimensionen der Überwachung, nämlich das soziale Sortieren. David Lyon entwickelt diesen Begriff wie folgt:
    Codes, meist von Computern verarbeitet, sortieren Transaktionen, Interaktionen, Besuche, Anrufe und andere Aktivitäten. Sie sind unsichtbare Türen, die den Zugang zu einer Myriade verschiedener Ereignisse, Erfahrungen und Vorgängen ermöglichen, oder diesen verschließen. Die so entstehenden Klassifizierungen haben den Zweck, Bevölkerungsgruppen und Einzelpersonen zu beeinflussen und zu verwalten, wodurch sie direkt und indirekt in die Wahlmöglichkeiten und Lebenschancen der Datensubjekte eingreifen.(26)
Anstatt alle gleich zu behandeln, ermöglicht das soziale Sortieren die Zuordnung von Menschen zu Gruppen, welche jeweils anders behandelt werden, um deren Verhaltensweisen zu unterstützen, zu behindern oder zu verändern. Im Fall der Suchmaschinen zeigt sich dies als Personalisierung. Wie David Lyon betont, darf dabei nicht übersehen werden, dass "Überwachung nicht von sich aus böse ist, genau so wenig wie Diskriminierung an sich schädlich ist."(27) Der Grundgedanke der Personalisierung ist schließlich, die Suchergebnisse zu verbessern. Die Personalisierung ermöglicht eine Reihung der Ergebnisse nach individuellen Präferenzen anstatt nach der Topologie des Netzwerks. Die Personalisierung der Suche ist Teil eines größeren Trends in der Informationsökonomie zur "Massenindividualisierung", bei der jeder Nutzer den – berechtigten oder unberechtigten – Eindruck erhält, als einzigartige Person innerhalb von Produktionssystemen behandelt zu werden, die immer noch auf Massenproduktion aufbauen.

Technisch handelt es sich um eine sehr schwierige Aufgabe, für die ungeheure Mengen persönlicher Daten benötigt werden, welche, wie wir gesehen haben, in umfassender und systematischer Weise gesammelt werden. In Bezug auf diese Daten wird häufig eine Unterscheidung vorgenommen zwischen jenen, die eine einzelne Person beschreiben, und jenen, die "anonymisiert" und auf der Grundlage irgendwelcher Kriterien in Gruppen zusammengefasst werden. Diese Unterscheidung spielt in der öffentlichen Debatte eine wichtige Rolle. Im September 2008 etwa kündigte Google an, Daten der Nutzer besser zu schützen, indem sie nach neun anstatt 18 Monaten "gelöscht" (d.h. anonymisiert) würden. Dies führte zur Frage, wie leicht es für Google oder Drittparteien wäre, diese Anonymisierung rückgängig zu machen.28 Die den Nutzern zur Verfügung stehenden Optionen sind hier wenig hilfreich. In manchen Fällen bietet Google die Option, Cookies zu deaktivieren, oder den "Incognito"-Modus von Chrome zu benutzen (umgangssprachlich als "Porno-Modus" bezeichnet). Die entsprechenden Anleitungen sind jedoch gut versteckt, schwierig anzuwenden, und in der Praxis nur für technisch versierte Nutzer relevant. Der US-Konsumentenschutzverein Consumer Watchdog hat außerdem darauf hingewiesen, dass "der Incognito-Modus von Chrome nicht den Schutz der Privatsphäre bietet, auf den der Name schließen ließe", da die Identität des Nutzers nicht wirklich ausgeblendet wird.(29)

Dabei darf nicht übersehen werden, dass selbst dann, wenn Google wirksame Verfahren zur Anonymisierung einsetzt, dies nur auf die Überwachung im Sinne des personalisierten Trackings Auswirkungen hat. Für den Schutz vor sozialem Sortieren ist dies so gut wie belanglos. Die Möglichkeit, eine praktisch unbegrenzte Zahl "anonymisierter" Gruppen zu erzeugen und Einzelpersonen mit diesen Gruppen zu verbinden, integriert in der Praxis die anonymisierten und persönlichen Daten. Wenn die Gruppen feinkörnig konstruiert sind, dann ist nicht mehr als die Zuordnung einer Person zu einer Gruppe vonnöten, um wirksames soziales Sortieren zu betreiben. Sean P. Hier weist deshalb darauf hin, dass nicht die "persönliche Identität des verkörperten Individuums das vorrangige Thema ist, sondern vielmehr das statistische oder kategoriale Profil des Kollektivs".(30) Aus dieser Sicht ist die Behauptung Googles, den Datenschutz durch Anonymisierung zu verbessern, zutiefst irreführend.

Wie praktisch alle Aspekte der zunehmenden Macht der Suchmaschinen ist auch die Personalisierung zutiefst ambivalent in ihren sozialen Auswirkungen. Sie verspricht eine verbesserte Qualität der Suche und eine größere Autonomie der Nutzer durch die Bereitstellung jener Informationen, die tatsächlich benötigt werden. Falls das funktioniert, wäre das keine geringe Leistung. Indem die Abhängigkeit von der Netzwerkstopologie vermindert wird, kann die Personalisierung auch dazu beitragen, einen Kritikpunkt zu entkräften, der häufig gegen die aktuellen Ranking-Verfahren vorgebracht wird, nämlich dass sie populäre Inhalte begünstigen und damit bereits dominante Meinungen auf Kosten marginaler Positionen noch weiter stärken.(31) Anstatt sich darauf abzustützen, was die Mehrheit für wichtig hält, können Suchmaschinen die spezifischen Interessen jedes Nutzers berücksichtigen und damit Quellen erschließen, die für ein breiteres Publikum womöglich wenig relevant, für die jeweils spezifische Nutzergruppe aber wichtig sind. Das Ergebnis wäre ein besserer Zugang zu marginalen Quellen für Menschen, von denen ein vertieftes Interesse am jeweiligen Themenbereich angenommen wird.

So weit, so gut. Aber wo verläuft die Grenze zwischen der Unterstützung spezifischer Interessen und der systematischen Beeinflussung des Verhaltens einer Person, wenn ihr eine Sichtweise angetragen wird, die das Ergebnis fremder Kriterien ist? Wie beim sozialen Sortieren im Allgemeinen stellt sich auch hier die Frage, ob Personalisierung die persönliche Autonomie stärkt oder vermindert. Der Rechtswissenschaftler Frank Pasquale stellt das Problem wie folgt dar:
    Autonomie, die etwas bedeutet, erfordert mehr als die bloße Abwesenheit von externen Einschränkungen, wenn ein Mensch eine Wahl getroffen hat und entsprechend handelt. Autonomie benötigt zumindest eine sinnvolle Vielfalt von Wahlmöglichkeiten, Information über den relevanten Stand der Welt und diese Alternativen. Sie setzt auch die Möglichkeit, diese Information zu bewerten, und die Fähigkeit, eine Wahl zu treffen, voraus. Wenn A das Fenster kontrolliert, durch welches B die Welt sieht – wenn er systematisch Macht über die relevanten Informationen über die Welt und die verfügbaren Alternativen, die B erreichen, ausübt – dann wird die Autonomie von B dadurch eingeschränkt. Informationsflüsse in einer Art und Weise zu kontrollieren, welche die Wahlmöglichkeiten einschränkt, bedeutet, die Autonomie dieser Person zu begrenzen, ob diese Person nun getäuscht wird oder nicht.(32)
Sogar im günstigsten Fall wäre die Personalisierung also eine gleichzeitige Stärkung und Schwächung der Autonomie der Nutzer. Sie stärkt die Autonomie, weil sie Information verfügbar macht, die sonst schwer zu finden wäre. Sie verbessert, so die Behauptung, die Qualität der Suche. Sie schwächt aber die Autonomie auch, weil sie die Nutzer sanft in eine Abhängigkeit vom eigenen Suchverlauf bringt, der niemals der persönlichen Lebensgeschichte adäquat entsprechen kann, sondern vielmehr jene Aspekte stärkt, die von einer Suchmaschine erfasst und anhand von Annahmen, die dem Personalisierungs-Algorithmus eingeschrieben sind, interpretiert werden können. Die Differenzen zwischen der personalisierten und der nicht-personalisierten Version der Suchergebnisse sind, wie Google immer wieder betont, am Anfang kaum wahrnehmbar, aber nehmen mit der Zeit zu. Eine zweite Schicht der Intransparenz, jene des Personalisierungs-Algorithmus, wird über die Intransparenz des allgemeinen Suchalgorithmus gelegt. Natürlich soll es jederzeit möglich sein, sich von der Personalisierung abzumelden, indem man sich einfach von seinem Konto abmeldet. Doch die ständig zunehmende Vielfalt an Diensten, die mit einem einheitlichen Log-in zugänglich sind, arbeitet aktiv gegen diese Möglichkeit. Wie in anderen Bereichen wird der Schutz der eigenen Privatsphäre und der informationellen Selbstbestimmung eine mühsame Angelegenheit, die nur wenige auf sich nehmen werden, besonders in Anbetracht der ausbleibenden direkten negativen Konsequenzen, falls man es nicht tut.

Wir leben wohl kaum in der besten aller Welten. Die vorrangige Loyalität der Suchmaschinen, das muss noch einmal festgehalten werden, gilt nicht den Nutzern, sondern den Werbekunden. Gewiss, Suchmaschinen müssen Nutzer anziehen und halten, um für Werbekunden interessant zu werden, doch das Beispiel des kommerziellen Fernsehens zeigt, dass dies nicht bedeutet, dass die Interessen der Nutzer immer im Vordergrund stehen.


Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de