Passanten lesen während der Fahrt in der Londoner U-Bahn

15.3.2019 | Von:
Schlecky Silberstein

Lesen und gelesen werden. Wie Social Media die öffentliche Debatte steuert - Essay

Algorithmen ohne Moral

Der Interaktionsalgorithmus von Facebook analysiert die Interaktionsmuster jedes einzelnen seiner zwei Milliarden Nutzer in Echtzeit. Er sucht dabei vollautomatisch nach Wegen, unsere Interaktionsbereitschaft zu erhöhen. Er lernt, auf welche Inhalte wir am intensivsten reagieren, und priorisiert sie zu Ungunsten von Inhalten, mit denen wir mit hoher Wahrscheinlichkeit weniger oder gar nicht interagieren. Aus diesem Wirkprinzip macht Facebook auch gar kein Geheimnis. Das führt allerdings zu folgendem besorgniserregenden Schluss:

Wenn die Zielfunktion dieses Algorithmus lautet: Gestalte den Input so, dass die Interaktion auf ein Maximum steigt, dann muss der Algorithmus mit höchster Priorität das Gefühl bedienen, das uns am schnellsten und intensivsten reagieren lässt: Angst. Wie dieser Algorithmus, der den Nachrichtenkonsum von 2,3 Milliarden Erdenbürgern beeinflusst, konkret funktioniert, schützt Facebook als Betriebsgeheimnis, ebenso wie Google seinen Suchalgorithmus geheim hält, der seinerseits massiven Einfluss darauf hat, wie wir die Welt wahrnehmen. Nicht wenige fordern die Offenlegung dieser Algorithmen und argumentieren, man könne Facebook und Google nicht mehr als Unternehmen im klassischen Sinne betrachten. Im Falle von Facebook verfügt das Unternehmen über die meistgenutzte Kommunikations- und Informationsinfrastruktur der Welt, mit deren Hilfe mittlerweile Wahlen entschieden werden. Die Tatsache, dass nur Facebook selbst weiß, wie die eigenen Nachrichtenfilter funktionieren, darf jeden Wähler beunruhigen. Das Patentrecht schützt Facebook vor der Offenlegung seiner Interaktionsalgorithmen. Was fehlt, ist eine Regelung, wie wir Unternehmen bewerten, die über komplexeste Personenprofile von einem Viertel der Weltbevölkerung verfügen und deren Kommunikation steuern.

Wissenschaftler der Universität Beihang haben 2001 70 Millionen Social-Media-Beiträge von 200.000 Nutzern und Nutzerinnen analysiert und den emotionalen Grundton der Beiträge ins Verhältnis zu ihrer Verbreitungsgeschwindigkeit gesetzt.[4] Man wollte herausfinden: Ist Emotion A viraler als Emotion B? Das Ergebnis deckt sich mit den Einschätzungen von Kahneman zur Negativitätsdominanz. Die viralste Emotion ist dieser Studie zufolge Wut, dicht gefolgt von Trauer, danach kommt Ekel; positive Emotionen sind in Sachen Verbreitungsgeschwindigkeit deutlich unterrepräsentiert. Das heißt: Wer eine Botschaft in sozialen Medien möglichst effektiv verbreiten möchte, ist gut beraten, negative Gefühle wie Wut oder Angst zu bedienen. Vor diesem Hintergrund wundert es wenig, dass (Rechts-)Populisten wie Javier Bolsonaro (Brasilien), Rodrigo Duterte (Philippinen) oder Donald Trump (USA) im Vergleich zu ihren gemäßigteren Konkurrenten die höchsten Interaktionskennzahlen auf Facebook im Vergleich vorweisen.

Eine Studie der University of California kommt zu einem differenzierteren Ergebnis.[5] Demnach hätten auch positive Emotionen eine virale Komponente, entscheidend sei der Grad der Intensität beziehungsweise die Lautstärke. Einigkeit herrscht in der Wissenschaft über den Verbreitungsgrad von Zwischentönen. Gemäßigte, differenzierte Stellungnahmen gelten als Gift für die Reichweite, während Extrempositionen – ob positive oder negative – die mit Abstand höchste Interaktionswahrscheinlichkeit versprechen und damit die höchste Gewinnwahrscheinlichkeit für die Betreiber der entsprechenden Kommunikationsplattform.

Für ein Nachrichtenmedium, aber auch für Privatpersonen bedeutet das: Will ich gehört oder gelesen werden, muss ich Ambiguität vermeiden. Das ist nichts, was wir uns als Grundsatz immer wieder vor Augen führen müssen, vielmehr lernen wir den Hang zur Extremposition beiläufig, fast schon spielerisch. Ganz tief in der DNA der aktuellen Architektur des Internets steckt ein Belohnungs- und Anreizsystem, das sich über nahezu jede digitale Erfahrung erstreckt. Über Likes, Retweets, Kommentare und Aufrufzahlen bekommen wir über eine Vielzahl unserer Online-Interaktionen Feedback, in der Regel über soziale Resonanz. Mal wird man belohnt, mal wird man bestraft, beziehungsweise: Viele Likes zu bekommen fühlt sich gut an, wenige Likes zu bekommen fühlt sich schlecht an. Diesem Belohnungssystem, das ich lieber Erziehungssystem nennen möchte, kann man sich nur schwer entziehen. Es sorgt dafür, dass wir unbewusst zu Reflexen neigen, hinter denen die Erwartung einer Belohnung steht. Ein erfahrener Social-Media-Nutzer antizipiert automatisch die Performance seiner Selfies, Kommentare und Meinungen, weil er im besten behavioristischen Sinne dazu konditioniert wurde.

Der Behaviorismus erlebt durch Social Media eine Renaissance, weil wir durch vernetzte Menschen, die sich freiwillig bis ins Detail vermessen lassen, exzellente Bedingungen zur Verhaltensmanipulation vorfinden. Facebook hat es über ein einfaches Anreizsystem geschafft, die Kommunikation innerhalb der gesamten vernetzten Welt zu verändern. Das Unternehmen hat uns dazu erzogen, die Extremposition der gemäßigten Aussage vorzuziehen, weil dann die Wahrscheinlichkeit auf Feedback, also Belohnung, steigt. So fühlt es sich beim Verfassen einer Botschaft nicht immer an, aber das Gehirn beziehungsweise der Nucleus accumbens im präfrontalen Kortex lernt leidenschaftlich gern über Impulse der Belohnung. Nur haben wir gelernt, dass Facebook Extrempositionen aktiv fördert und sogar Algorithmen entwickelt, die moderate Töne herausfiltern, und zwar aus ökonomischem Interesse. Hier ergibt sich ein Konflikt zwischen den Gewinninteressen von Social-Media-Services und den Ansprüchen der Demokratie. Denn den wichtigsten Kanälen unserer Kommunikation und Informationsbeschaffung geht es nicht um die Qualität der Kommunikation, sondern um die Förderung von Daten durch möglichst hohe Interaktionszahlen. Das heißt: Wir führen weite Teile der öffentlichen Debatte auf einem Kanal, der aus ökonomischen Interesse Extrempositionen priorisiert – also einem Kanal, der für Debatten ungeeigneter nicht sein könnte. Wenn wir davon ausgehen, dass es einen Zusammenhang gibt zwischen der Stabilität einer Demokratie und der Qualität der Debatte, die in ihr geführt wird, dann beeinflussen die Gewinninteressen von Social-Media-Services die Politik direkt. Dabei ist das Prinzip eines sozialen Netzwerks bei Lichte betrachtet eigentlich fantastisch für die öffentliche Debatte, weil es die Teilhabe an ihr buchstäblich demokratisiert.

Immer wieder wandern Gedankenspiele eines sozialen Netzwerks in öffentlicher Hand durch die Debatten. Hier würde die Vernetzung ohne Profitinteressen zumindest die algorithmisch verstärkte Verhaltensmodifikation ausschließen. In so einem Netzwerk müssten Nachrichtenanbieter nicht fürchten, von einem Algorithmus gefiltert zu werden, und könnten sich wieder exklusiv dem Inhalt widmen. Polarisierende Nachrichten und Meinungen werden dann immer noch die höchsten Reichweiten haben; so waren Boulevard-Medien auch vor dem Internet stets erfolgreicher als ihre differenzierenden Pendants. Das mediale und damit gesellschaftliche Klima würde sich dennoch spürbar abkühlen, weil das Öl fehlte, das die mächtigsten Unternehmen der Welt aktuell ins Feuer der öffentlichen Debatte gießen. Und doch wird das öffentlich-rechtliche soziale Netzwerk ein Gedankenspiel bleiben, denn ohne Nutzer kein Netzwerk. Facebook, Whatsapp und Instagram sind längst ein Standard, der seine zig Millionen Arme ganz tief in die Architektur des Internets und in die Köpfe seiner User gegraben hat. Eine Non-Profit-Alternative wird sich dagegen nicht durchsetzen können. Nicht einmal Google hat es geschafft, sich 2011 mit dem Angebot Google Plus als Facebook-Alternative durchzusetzen. Die Gelder, die es bräuchte, um ein ernsthaftes Konkurrenz-Angebot zu entwickeln, würde man dem Steuerzahler kaum erklären können.

Regeln für Internet-Giganten

Der Staat muss keine Alternative zu Facebook anbieten, um dem Problem überhitzter Debatten und gesellschaftlicher Gräben Herr zu werden. Es reicht völlig aus, über verbindliche Regeln nachzudenken, die das Original einhalten muss. Momentan sind soziale Netzwerke frei in der Gestaltung ihrer Interaktionsalgorithmen. Es spricht nichts gegen intelligente Auflagen, die etwa die Methode regulieren könnten, wie ein Content-Filter arbeiten darf und wie nicht. Der Soziologe Ulrich Dolata fordert eine neue Aufsichtsbehörde, die Plattformen wie Facebook und Konzerne wie Google im allgemeinen Interesse kontrollieren soll.[6] So eine Behörde könnte Richtlinien entwickeln und Untersuchungskommissionen beauftragen. Ebenso wäre eine Regelung wünschenswert, die bestimmt, welche Daten ein Unternehmen auslesen darf und welche nicht. Viele Apps verlangen beispielsweise vor der Installation einen Zugriff auf das Adressbuch, die Fotos und die Bewegungsdaten, selbst, wenn diese Daten augenscheinlich nichts mit der Funktion der jeweiligen App zu tun haben. Oft berufen sich Unternehmen darauf, dass die Freigabe freiwillig erfolgt und es jedem Nutzer offen steht, sich dagegen zu entscheiden. Aber auch hier spricht nichts gegen eine Auflage, die Unternehmen nur eine zweckgebundene Datenanalyse erlaubt. Die Frage muss erlaubt sein, wozu eine Wetter-App Zugriff auf das Fotoalbum eines Nutzers benötigt. Mit hoher Wahrscheinlichkeit soll der Beifang einem Datenbroker verkauft werden, der die Fotos biometrisch ausliest und für die Werbe- oder Meinungskampagne eines Kunden aufbereitet.

Wie Sie merken, komme ich vom Hundertsten ins Tausendste, was es für den Autor, noch mehr aber für den Leser sehr herausfordernd macht, sich mit den verborgenen Zusammenhängen der vernetzten Welt auseinanderzusetzen. Bitte glauben Sie mir: Es geht leider nicht einfacher. Das Internet fördert immer kürzere Konzentrationsspannen und fordert uns gleichzeitig alles ab, wenn wir hinter seine Mechanismen und Dynamiken blicken wollen.

Fußnoten

4.
Vgl. James Vincent, Anger is Viral: New Research Shows Angry Messages Influence People Online More Than Any Other Emotion, 18.9.2013, http://www.independent.co.uk/life-style/gadgets-and-tech/news/-8824443.html«.
5.
Vgl. Lorenzo Coviello et al., Detecting Emotional Contagion in Massive Social Networks, University of California 2014.
6.
Vgl. Hannes Koch, Man kann Facebook nicht zerschlagen, 23.1.2018, http://www.fr.de/politik/man-kann-facebook-nicht-zerschlagen-10976068.html«.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Schlecky Silberstein für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.