30 Jahre Deutsche Einheit Mehr erfahren
Ein Besucher blickt auf das Rechenzentrum des CERN.

8.4.2011 | Von:

Der zweite Index

Suchmaschinen, Personalisierung und Überwachung

Die Grenze zwischen einer aktiven Unterstützung von individuellen Nutzern in ihrer Suche auf der einen Seite, und der Manipulation der Nutzer durch bewusst einseitige Ergebnisse ist undeutlich, nicht zuletzt deshalb, weil wir von Suchmaschinen ja erwarten, dass sie einseitig sind und klar zwischen relevanter und irrelevanter Information unterscheiden. In diesem Zusammenhang gibt es mit der Personalisierung zwei Hauptprobleme. Einerseits haben Personalisierungs-Algorithmen eine beschränkte Vorstellung von unserem Leben. Nur ausgewählte Aspekte unseres Verhaltens werden registriert (nämlich jene, die an zugänglichen Orten Spuren hinterlassen), und die Algorithmen wenden auf diese Daten ihre eigenen Interpretationen an, die auf der vorherrschenden Weltsicht, den technischen Möglichkeiten und den jeweiligen Zielen der Firmen beruhen, welche sie einsetzen. Andererseits macht die Personalisierung Suchmaschinen praktisch immun gegen eine systematische, kritische Bewertung, weil unklar wird, ob das Erscheinen (oder Verschwinden) einer Quelle ein Feature ist (eine richtig durchgeführte Personalisierung) oder ein Bug (Zensur oder Manipulation).

Der Vergleich von Ergebnissen zwischen Nutzern über einen Zeitraum hinweg wird wenig darüber aussagen, wie Suchmaschinen ihre Ranking-Technologien einstellen, da jeder Nutzer verschiedene Ergebnisse haben wird. Dies wird ein bereits bestehendes Problem weiter verschärfen: Dass es unmöglich ist, festzustellen, ob das Ranking von Ergebnissen sich aufgrund von aggregierten Veränderungen in der Netztopologie ändert, oder aufgrund von Veränderungen der Ranking-Algorithmen; im letzteren Fall, ob diese Veränderungen einfach der Qualitätsverbesserungen dienen sollen, oder Versuche sind, ungehöriges Verhalten zu bestrafen.(33) Letztlich wird alles zu einer Frage des Vertrauens und der Nützlichkeit. Das Problem mit dem Vertrauen liegt angesichts der Undurchdringlichkeit der Ranking- und Personalisierungsalgorithmen darin, dass es kaum eine Grundlage gibt, ein solches Vertrauen zu bewerten. Zumindest aber ist es etwas, was kollektiv hergestellt wird. Ein Bruch dieses Vertrauens wird, auch wenn er nur eine kleine Gruppe von Nutzern betrifft, das Vertrauen aller in den jeweiligen Dienst vermindern. Nützlichkeit ist andererseits ein praktischer Maßstab. Alle können selbst entscheiden, ob Suchergebnisse relevant sind oder nicht. In einer mit Information übersättigten Umgebung wird allerdings selbst eine stark zensurierte Suche viel mehr Ergebnisse liefern, als irgendjemand verarbeiten könnte. Wenn also ein Nutzer keine Vorkenntnisse des betreffenden Themenbereichs hat, kann er nicht wissen, was nicht enthalten ist. Daher sehen Suchergebnisse immer unglaublich relevant aus, selbst wenn sie viel relevantes Material auslassen.(34)

Mit der Personalisierung betreten wir Neuland, sowohl im Sinne sich neu eröffnender Möglichkeiten, als auch im Sinne von neuen Einschränkungen. Wir wissen einfach nicht, ob sie zu einer größeren Vielfalt von Informationsanbietern führen wird, die sichtbar werden, oder ob sie kaum wahrnehmbare, aber tiefe Veränderungen in der Welt, die wir sehen können, bewirkt, wenn Suchmaschinen einen Filter anwenden, der nicht unserem eigenen entspricht. Angesichts des extremen Machtgefälles zwischen einzelnen Nutzern und den Suchmaschinen ist es allerdings keine Frage, wer in der Lage ist, die eigenen Ziele durchzusetzen.

Die Reaktionen auf die Debatten um diese drei verschiedenen Formen der Überwachung durch Suchmaschinen dürften sehr verschieden ausfallen. Dazu David Lyon:
    Paradoxerweise kann das harte Ende des panoptischen Spektrums Momente der Verweigerung und des Widerstands hervorrufen, die gegen die Produktion gehorsamer Körper gerichtet sind, während das weiche Ende die Betroffenen offenbar zu einem unglaublich angepassten Verhalten verführt, dessen sie sich kaum bewusst sind.(35)
In unserem Kontext gehört die durch Suchmaschinen erleichterte staatliche Überwachung zum harten Ende und die Personalisierung zum weichen, wo Überwachung und Fürsorge, die ent- und die ermächtigende Funktion des sozialen Sortierens schwer auseinander zu halten sind und daher der Manipulation Tür und Tor öffnen.

Schluss

Suchmaschinen haben sich das äußert ehrgeizige Ziel gesetzt, die Information der Welt zu organisieren. Je tiefer wir uns in dynamische, informationsintensive Umgebungen hinein bewegen, desto mehr nimmt ihre Wichtigkeit zu. Um die Begrenzungen einer allgemeinen topologischen Organisation der Information zu überwinden und einen personalisierten Zugang zu schaffen, wird ein neues Modell der Welt erzeugt, demzufolge nicht nur jedes Individuum einzigartig ist, sondern auch jedes in einer einzigartigen Welt lebt. Um dies umzusetzen, benötigen Suchmaschinen eine praktisch unbegrenzte Menge an Informationen über ihre Nutzer. Wie wir gezeigt haben, werden Daten systematisch gesammelt, um Profile über Nutzer auf drei verschiedenen Ebenen anzulegen: als Wissensperson, als soziale Person, und als verkörperte Person. Neue Dienste werden entwickelt, um noch mehr Daten zu gewinnen und damit die verbleibenden Lücken in diesen Profilen zu schließen. In ihrer Gesamtheit erzeugt all diese Information das, was wir den zweiten Index nennen – einen geschlossenen, proprietären Datenbestand über die Nutzer der "auf der Welt vorhandenen Informationen".

Während wir das Potenzial personalisierter Dienste anerkennen – in Anbetracht der goldenen Zukunft der perfekten Suche, die von den Anbietern lautstark verkündet wird, wäre dies auch schwer zu übersehen – halten wir es dennoch für nötig, die problematischen Dimensionen dieses zweiten Index hervorzuheben. Erstens erzeugt alleine die Speicherung derartig riesiger Datenmengen eine Nachfrage nach Zugang, sowohl innerhalb als auch außerhalb der sammelnden Institution. Manche dieser Forderungen werden öffentlich über das Gerichtssystem erhoben, andere außerhalb der Öffentlichkeit. Dies ist gewiss keine Problematik, die auf Suchmaschinen beschränkt wäre, sondern sie betrifft alle Organisationen, die große Mengen von persönlicher Information speichern, und die bruchstückhaften Datenschutzbestimmungen, denen sie unterliegen. Diese Expansion von Überwachungstechnologie erfordert eine Stärkung der Datenschutzgesetze, aber auch eine Stärkung der parlamentarischen Kontrolle der Exekutivorgane des Staates.

Zweitens beruht die Personalisierung unweigerlich auf einem verzerrten Bild der individuellen Nutzer. Eine Suchmaschine kann einen Menschen niemals im sozialen Sinn "kennen". Sie kann nur Daten zusammenstellen, die mit ihren spezifischen Methoden erfasst werden können. Das von der Suchmaschine hergestellte Bild ist nicht umfassend, sondern extrem detailliert in manchen Bereichen und äußerst lückenhaft in anderen. Dies ist besonders problematisch angesichts der Tatsache, dass dieser zweite Index erstellt wird, um den Interessen der Anzeigenkunden zumindest in dem Maße zu dienen wie jenen der Nutzer. Jeder Schluss, der aus diesem unvollständigen Bild gezogen wird, wird immer teilweise unrichtig sein und daher jenen Verhaltensweisen Vorschub leisten, die der Datenerfassung entgegenkommen, während andere Verhaltensweisen unterdrückt werden. Drittens wird das Problem der Einseitigkeit der Daten durch die Einseitigkeit in der Interpretation noch weiter verschärft. Die Fehler können dabei schwerer oder leichter erkennbar sein. Google Reader führte zum Beispiel im Dezember 2007 eine neue Funktion ein, die automatisch alle Inhalte des Readers mit der eigenen Kontaktliste in Google Talk und Gmail verlinkte. Wie der User banzaimonkey in einem Posting erklärte: "Ich glaube der Grundfehler ist hier [...], dass die Menschen auf meiner Kontaktliste nicht notwendigerweise meine ‚Freunde´ sind. Ich habe Geschäftskontakte, Schulkontakte, Familienkontakte, usw., und ich habe nicht nur keinerlei Interesse daran, all ihre Feed-Informationen zu sehen, ich möchte auch nicht, dass sie meine sehen."(36) Die vereinfachende Interpretation der Daten – alle Kontakte sind Freunde und alle Freunde sind gleich – erwies sich also als grundfalsch. Allein die Annahme, Daten seien leicht zu interpretieren, kann zutiefst irreführend sein, und das gilt auch für die simple Annahme, dass Nutzer nur nach Informationen suchen, an denen sie selbst (und nicht jemand anderer) interessiert sind. Wir tun häufig etwas für andere Menschen. Die sozialen Grenzen zwischen den einzelnen Personen sind nicht so klar gezogen.

Schließlich verschärft die Personalisierung das bestehende Kräfteungleichgewicht zwischen Suchmaschinen und individuellen Nutzern noch weiter. Wenn die Suchmaschinen der Zukunft von der Annahme ausgehen, jedermanns Welt sei anders, wird sich das nachteilig auf die Kollektivität unserer Welterfahrung, insbesondere in Bezug auf Suchmaschinen selbst, auswirken. Wir werden alle gezwungen sein, einem System zu trauen, das sich unserem Verständnis immer weiter entzieht, und wir werden dies auf der Grundlage der Zweckmäßigkeit der Suchergebnisse tun müssen, was im Kontext des Informationsüberschusses kein verlässliches Kriterium darstellt.

Es wäre sicherlich ebenso kurzsichtig wie unrealistisch, das Potenzial der Personalisierung gänzlich ungenutzt zu lassen. Doch die Grundlage, auf der wir diesen Diensten trauen können, muss verbreitert werden. Personalisierte, individualisierte Erfahrung ist nicht genug. Wir brauchen kollektive Mittel der Aufsicht. Manche dieser Mittel werden neue Regulierung benötigen. In der Vergangenheit war rechtlicher und gesellschaftlicher Druck nötig, um Firmen dazu zu zwingen, den Verbrauchern Rechte zuzugestehen. Google ist keine Ausnahme. Derzeit ist seine Datenschutzpolitik intransparent und bedeutet für Google selbst keine besonderen Einschränkungen. Der Umstand, dass die verschiedenen Datenschutzerklärungen des Unternehmens schwer zu finden sind, und dass es sehr schwer ist, ihre Entwicklung historisch nachzuverfolgen, dürfte kein Versehen sein – besonders da Googles selbsterklärtes Ziel ja darin besteht, die Information der Welt zu organisieren und den Nutzern leichter zugänglich zu machen.

Doch Regulierung ist oftmals langsam und öffentliche Kritik kann nur auf das reagieren, was bereits geschehen ist. Beides ist angesichts der Dynamik dieses Bereichs unzureichend. Wir brauchen also auch Mittel, die sich an Open-Source-Verfahren orientieren, wo Akteure mit heterogenen Wertesystemen die Mittel haben, die Funktionsgrundlagen eines Systems vollständig zu analysieren. Blindes Vertrauen und der gefällige Slogan Don´t be evil reichen nicht aus, um unsere Freiheit und Autonomie zu gewährleisten.


Publikation zum Thema

Deep Search

Deep Search

Beherrschen Suchmaschinen nicht nur Märkte, sondern auch unser Denken? Am Beispiel von Google untersucht das Buch deren Bedeutung und innere Systematik. Es diskutiert angemessene Reaktionen in Gesellschaft, Gesetzgebung und Politik sowie von Verbraucherseite. Weiter...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de