Alle Youtuber der Kampagne 25 Jahre Mauerfall

9.9.2020 | Von:
Gerret von Nordheim

Folge 08: Bubble Bubble Filterbubble

Die Filterblase – alles nur im Kopf?

Welchen Einfluss haben Soziale Netzwerke auf meine Meinungsbildung? Und was haben Fake News mit sogenannten Filterblasen zu tun?In 10 Folgen beschäftigt sich der Youtuber Mr. Trashpack mit sogenannten Fake News und verwandten Phänomenen und präsentiert praktische Tipps und Tools im Netz. (© bpb)

Je nachdem, was Ihr in sozialen Netzwerken geklickt habt, was Ihr lest und likt, wem Ihr folgt oder auch wie schnell Ihr über bestimmte Posts scrollt, werden Euch – und nur Euch ganz persönlich – ausgewählte Inhalte angezeigt. Hier sind programmierte Filter am Werk und die Logik dahinter ist klar: Plattformen wie Facebook oder YouTube wollen Euch vor allem Inhalte zeigen, die Euch gefallen, die Ihr klickt und teilt. Um diese "Empfehlungsfilter“ zu perfektionieren, analysieren sie Euch ganz genau. So können sie wiederum anderen Unternehmen dabei helfen, gezielt für ihre Produkte zu werben.

Filterblasen: Social Media (© bpb)
Abgesehen davon, dass Ihr Eure Nutzerdaten preisgebt, sind diese Filter erstmal nichts Schlechtes – sie zeigen Euch, was Euch gefällt und geben Euch Orientierung. Es wäre ja sonst auch schwierig, bei all den neuen Posts, Videos und Fotos den Überblick zu behalten. Problematisch ist nur, dass Ihr als User nicht wisst, wie die Filter funktionieren und sie auch nicht kontrollieren könnt. Ohne dass Ihr es merkt, besteht so die Gefahr, dass Ihr Euch in einer "Filterblase“ bewegt. Eli Pariser, der den Begriff erfunden hat, definiert die Blase dementsprechend als Euer "persönliches Informationsuniversum, das Ihr online bewohnt – einzigartig und nur für Euch aufgebaut von den personalisierten Filtern, die das Web jetzt antreiben.“

Die Fehlfunktion der Filter

Die Nachteile der Filter kommen zum Vorschein, wenn Ihr Euch über die beschriebenen Kanäle informieren wollt. Denn dafür eignen sich die Filter nicht – das ist ihre "Fehlfunktion“: Stellt Euch vor, niemand würde Euch jemals widersprechen – wie soll man so dazulernen? Oder stellt Euch vor, Ihr müsstet Euch mit jemandem auf einen Kompromiss einigen, aber erfahrt nie, was der andere denkt – wie soll man so eine Lösung finden, mit der beide Seiten leben können? Wie diese "Fehlfunktion“ der Empfehlungsfilter so eine zweite Realität erschafft, konnte man beispielsweise nach dem Amoklauf von München im Juli 2016 beobachten. Hier hat eine Twitter-Analyse ergeben, dass sich die Leute, die sich über die Ereignisse auf Twitter unterhalten haben, schnell in zwei Gruppen aufgeteilt haben: eine größere Gruppe um den Account der Polizei München, in der auch Nachrichtenmedien wie Spiegel Online, die Tagesschau, Bild, Zeit Online gepostet haben. Und eine kleinere Gruppe, in der schnell fremdenfeindliche Erklärungen für die Tat gefunden wurden – es wurde hier zum Beispiel die Fake News verbreitet, der Amokläufer sei ein muslimischer Terrorist gewesen. Dabei handelte der Amokläufer selbst aus fremdenfeindlichen Gründen. Dass sich diese Fake News so lange in dieser Gruppe halten konnte, obwohl die Medien längst etwas Anderes berichteten, liegt auch am Filterblaseneffekt. Und dieser hat eben auch eine technische Komponente, je nachdem, in welcher Empfehlungs- oder Informationsblase ich mich im Netz befinde.

Die stärksten Filter sind wir selbst

Framing (© bpb)
Wenn jetzt aber so viel von Filterblasen die Rede ist, lenkt das auch davon ab, dass Menschen vor allem selbst dafür Verantwortung tragen, wie ausgewogen sie sich informieren. Und hier ist das Internet weniger Fluch als Segen; denn für diejenigen, die nach verschiedenen Informationen suchen, war es nie so einfach wie heute, Informationen zu finden. Denn es hat nicht nur mit dem Informationsangebot zu tun, sondern auch mit der Nachfrage des Einzelnen, wenn sich Filterblasen bilden. Die stärksten "Filter“ sind nämlich im Denken des Menschen verankert. Zum Beispiel neigen Menschen dazu, Informationen zu überhören, die ihre Meinungen in Frage stellen. In Bezug auf das Beispiel München: Fremdenfeindliche Twitter-Userinnen haben die Fake News über eine islamistische Terrortat größere Aufmerksamkeit geschenkt als den Berichten über den Amoklauf – sie haben sie gelikt, mit ihren Followern geteilt. Und da wir uns gerne mit Menschen umgeben, die uns ähnlich sind und uns bestätigen, wurde der Fake News in diesen Kreisen auch selten widersprochen – so konnte sie sich umso schneller verbreiten.

Mr. Trashpack und Bubbles (© bpb)
Heißt das nun, dass wir hilflos in der Blase aus eigenen Denkweisen und technischen Filtern gefangen sind? Glücklicherweise nein – der erste Schritt ist seine eigenen Urteile kritisch zu hinterfragen, sich auch mal gezielt mit anderen Meinungen zu konfrontieren und so die eigene Blase zum Platzen zu bringen.

Filter-Tipps:

  • Plattformen zeigen nur eine Auswahl von allen Posts. Sie treffen für Euch eine Vorentscheidung anhand der Daten, die sie über Euch sammeln. Das kann zur Folge haben, dass Ihr weniger mit Informationen konfrontiert werdet, die Eure Meinung herausfordern.
  • Unser Denken und die Art und Weise, wie wir Informationen aufnehmen, wird von psychischen Effekten beeinflusst. Einfach gesagt: Menschen neigen zur Faulheit – sie überlesen beispielsweise gerne Informationen, die ihnen nicht passen oder gehen Diskussionen aus dem Weg, wenn sie Widerspruch erwarten
  • Menschen, die diese Filter kennen – sowohl die im Internet als auch die des eigenen Denkens – sind im Vorteil, denn sie können sich bewusst dazu entscheiden, die Blase zum Platzen zu bringen.

Quellen:

Simon Hurtz, Hakan Tanriverdi: Filterblase? Selbst schuld! http://www.sueddeutsche.de/digital/facebook-filterblase-selbst-schuld-1.3479639

Gerret von Nordheim: Poppers Alptraum. http://de.ejo-online.eu/digitales/poppers-alptraum

Markus Reuter: Treue Gefolgschaft – so twittert die AfD. https://netzpolitik.org/2017/treue-gefolgschaft-so-twittert-die-afd/

Alle Links wurden zuletzt abgerufen am 27.6.2017.

Zum Zwecke der Gleichstellung wird in unseren Texten frei zwischen Genderformen gewechselt.