Ein Finger vor schwarzem Hintergrund klickt auf das blaue Logo einer Social-Media-App.

counter
2.5.2019 | Von:
Philipp Müller

Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren?

Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.

Eine Frau läuft in Manchester an einer Werbeanzeige von Facebook vorbei. Auf dem Bildschirm ist auf englisch zu lesen: Fake news is not our friend (Fake News ist nicht unser Freund).Mit einer Werbekampagne will Facebook im Sommer 2018 darauf aufmerksam machen, dass das Netzwerk verstärkt gegen Fake News vorgehen will. (© picture alliance/ZUMA Press)

Soziale Netzwerkseiten (SNS) im Internet ziehen (neben vielen wünschenswerten) eine ganze Reihe problematischer Inhalte an: Es finden sich auf den Seiten Beleidigungen, Diskriminierungen, Verschwörungstheorien, politische Propaganda und Falschmeldungen. Doch welche Maßnahmen erscheinen dagegen angebracht und sinnvoll? Vor allem Facebook hat in den vergangenen Jahren verschiedene Versuche unternommen, einer wachsenden öffentlichen Debatte zu dieser Frage zu begegnen und gleichzeitig die prinzipielle Zugangsoffenheit für jede Art von Inhalten zu erhalten. Die Ideen reichen dabei von der Zusammenarbeit mit sogenannten "Fact-Checking"-Partnern, die inhaltlich zweifelhafte Botschaften nachrecherchieren, bis hin zu einer Anpassung der Algorithmen, die darüber entscheiden, welche Inhalte Nutzern angezeigt werden. Doch der Grundton der öffentlichen Debatte bleibt kritisch und scheint sich vor allem Löschungen problematischer Inhalte zu wünschen. Damit soziale Netzwerkseiten dies konsequenter angehen, hat die Bundesregierung im Jahr 2017 eigens ein Gesetz erlassen, das Netzwerkdurchsetzungsgesetz (NetzDG).

Bei Beleidigungen, Verleumdungen oder Volksverhetzung scheint der Fall eindeutig. Derartige Äußerungen verstoßen gegen geltendes Recht und müssen schon allein deshalb von den Plattformen genommen werden. Streiten lässt sich hier lediglich darüber, ob die Entscheidung, wann ein solcher Straftatbestand erfüllt ist, von den Plattform-Betreibern autark getroffen werden kann und sollte, oder ob dies nicht in jedem Einzelfall ein Gericht zu entscheiden hätte.

Wenn es hingegen um bewusst verbreitete Falschmeldungen geht, die derzeit unter dem Begriff "Fake News" durch die öffentliche Debatte geistern, ist die Lösung weniger klar. Denn im Rahmen der Meinungsfreiheit steht es in demokratischen Staaten, aus gutem Grund, jedem frei auch Unwahrheiten zu behaupten, sofern diese Behauptungen keinem anderen direkt schaden. Dies ist unter anderem deshalb so geregelt, weil es im Einzelfall gar nicht so einfach ist, eindeutig festzulegen, ob eine Aussage wahr oder unwahr ist. Würde nun das Verbreiten der Unwahrheit per se unterbunden, könnte dies zur Unterdrückung gesellschaftlich randständiger, aber nicht unbedingt unwahrer Auffassungen und Behauptungen beitragen.

Problemfall "Overblocking"

Forschungsergebnisse legen nahe, dass Falschmeldungen eher geglaubt werden, wenn sie das bereits vorhandene Weltbild ihrer Leser bestätigen, als wenn sie ihm widersprechen.[1] Jedoch bedeutet dies dennoch, dass von jeder zusätzlichen Verbreitung ein schädliches Wirkpotential ausgehen kann, wenn nur die richtige Leserin oder der richtige Leser erreicht wird. Insofern erscheint es wünschenswert, dass eindeutig als falsch identifizierbare Meldungen so wenige Nutzer erreichen wie möglich. Das Löschen von Falschmeldungen ist dennoch mit Vorsicht zu genießen ist. Denn oft ist nicht eindeutig nachweisbar, ob eine Aussage wahr ist. Die Wissenssoziologie legt zudem nahe, dass es immer auch vom kulturellen und historischen Kontext abhängt, ob eine Aussage in der Gesellschaft für wahr gehalten wird.[2] Bei einer rigiden Löschung vermeintlicher Unwahrheiten auf sozialen Netzwerkseiten könnten daher auch eigentlich wahre Inhalte gelöscht werden. Man spricht hier von "Overblocking".

Das Problem verschärft sich, wenn die Entscheidung darüber, welche Inhalte gelöscht werden, in der Hand von Unternehmen mit wirtschaftlichen Eigeninteressen liegt. Das 2017 in Kraft getretene NetzDG verpflichtet SNS-Betreiber unter Androhung hoher Geldstrafen dazu, Inhalte, die von Nutzern oder Beschwerdestellen als problematisch gemeldet werden, zeitnah zu überprüfen und gegebenenfalls zu löschen. Um drohenden Strafen zu entgehen, könnten die Betreiber daher in größerem Umfang Inhalte löschen, als eigentlich sinnvoll wäre.[3] Die Schaffung einer öffentlichen Ombudsinstanz, der verschiedene Akteure der Zivilgesellschaft angehören und die von den Betreibern vorgenommene Löschungen kontrolliert, erscheint empfehlenswert.

Das wird man doch wohl noch sagen dürfen!

Ein zweites Problem besteht in dem durch Löschungen womöglich entstehenden Eindruck, dass besonders politisch missliebige Inhalte entfernt werden sollen. Die gesamte Debatte um Falschmeldungen im Internet muss vor dem Hintergrund gegenwärtiger politischer Entwicklungen betrachtet werden. Weltweit erleben wir einen Aufschwung rechtspopulistischer Bewegungen, die von einer Verschwörung der gesellschaftlichen Eliten gegen die Interessen des Volkes ausgehen und nationalstaatliche Abschottung fordern. Diese Forderungen richten sich gegen das gesellschafts- wie wirtschaftspolitisch liberale Lager, das das politische Geschehen in den vergangenen Jahrzehnten dominiert hat. Innerhalb dieser Debatte ist der "Fake-News"-Vorwurf zum Kampfbegriff mutiert, um Informationen zu diskreditieren, die von der jeweils anderen Seite stammen.[4]

Wenn nun vor allem solche Falschmeldungen von sozialen Netzwerkseiten gelöscht werden, die der rechtspopulistischen Position Vorschub leisten, könnte dies als neuerlicher Beleg für die unterstellte Elitenverschwörung gedeutet werden, selbst wenn es sich um nachweislich unwahre Inhalte handelt. Dies würde einerseits die rechtspopulistische Argumentation innerhalb ihrer Anhängerschaft stärken und könnte andererseits dazu führen, dass sich ihre Anhänger neue spezialisierte Plattformen zum Meinungsaustausch im Internet suchen, und so eine Aufspaltung gesellschaftlicher Informationsumgebungen vorantreiben.[5] Um kein zusätzliches Öl ins Feuer der gegenwärtigen Debatten zu gießen, sollte eine Löschung von Inhalten daher zurückhaltend vorgenommen werden und ausschließlich dann erfolgen, wenn ein nachweislicher und am besten von einer unabhängigen Stelle überprüfter Gesetzesverstoß vorliegt.

Warnen statt Löschen?

Wenn nun also das Löschen von Inhalten nicht das erste Mittel der Wahl ist, um Falschmeldungen im Internet zu begegnen, wie steht es dann mit Warnhinweisen? Facebook arbeitet zum Beispiel in vielen Ländern mit journalistischen Dienstleistern zusammen, die Hinweise auf über das Netzwerk verbreitete Falschmeldungen liefern und eigene Artikel zum Thema beisteuern, die die Fehlinformationen korrigieren. In Deutschland sind dies der Rechercheverbund Correctiv sowie seit März 2019 dieDeutsche Presseagentur. Die auf diese Weise als Falschmeldung identifizierten Inhalte werden von Facebook nicht gelöscht, jedoch algorithmisch abgewertet und Nutzern dadurch mit einer geringeren Wahrscheinlichkeit angezeigt. Zudem erhalten Nutzer auf Facebook, anders als auf Twitter, zwei Arten von Warnhinweisen:

  • Wenn sie einen von Fact-Checkern angezweifelten Beitrag teilen und damit weiterverbreiten wollen, erscheint eine Pop-Up-Meldung die darauf hinweist, dass es sich um eine angezweifelte Meldung handelt
  • Wenn sie einen angezweifelten Beitrag betrachten erscheinen darunter Links zu korrigierenden Artikeln der Fact-Checking-Partner unter der Überschrift "Mehr zum Thema." Ursprünglich hatte Facebook hierfür eine deutlichere Markierung verwendet: Ein rotes Warnsymbol und der Hinweis "Von Faktenprüfern angezweifelt" erschienen direkt unter der Meldung. Diese Variante wurde allerdings bald wieder aufgegeben.


Ein großes Problem besteht aber darin, dass Nutzer Warnhinweise als Bevormundung erleben und mit Wut und Trotz reagieren können. In der psychologischen Literatur wird dieses Phänomen Reaktanz genannt.[6] Wenn Menschen ihre persönlichen Handlungsspielräume als von außen eingeschränkt empfinden, reagieren sie mit Verärgerung und führen trotzig das beabsichtigte Verhalten erst recht durch. Im Kontext persuasiver (überredende) Medienbotschaften kann ein sogenannter "Boomerang-Effekt" die Folge sein: Wenn Nutzer merken, dass sie, zum Beispiel durch einen Warnhinweis, in eine bestimmte Richtung überzeugt werden sollen (man spricht hier von "Persuasionswissen"i[7]), gehen sie von einem illegitimen Beeinflussungsversuch aus und vertrauen umso stärker ihrer ursprünglichen Überzeugung.

Gleichzeitig lässt sich hinterfragen, ob ein Warnhinweis, der lediglich mit "Mehr zum Thema" überschrieben ist, überhaupt als Korrektur zur Kenntnis genommen wird. Auf Nachrichtenseiten im Internet ist es inzwischen weit verbreitet, am Ende eines Artikels oder schon im Textlauf Hinweise auf weiterführende Artikel zu einem Thema zu platzieren. Inhaltlich enthalten diese anderen Artikel üblicherweise vertiefende, aber eben gerade nicht vollständig widersprüchliche Informationen zu einem Thema. Die seit Ende 2017 von Facebook eingesetzten Warnhinweise entsprechen in der Aufmachung diesen Verweisen auf andere Artikel und machen nur bei genauerem Hinsehen und Lesen deutlich, dass sie inhaltlich gegenläufige Informationen beinhalten. Diese Warnungen könnten so dezent sein, dass sie in vielen Fällen schlicht nicht auffallen.

Ein drittes Problem für die Effektivität von Warnhinweisen ergibt sich aus dem sogenannten "Sleeper"-Effekt.[8] Hierbei handelt es sich um die schon in den 1950er Jahren gemachte Beobachtung, dass sich Menschen nach der Rezeption von Nachrichteninhalten oft nach einer gewissen Zeit zwar noch an die Botschaft selbst erinnern, aber vergessen haben, aus welcher Quelle sie eine Information hatten und wie sie diese Quelle zum Zeitpunkt der Rezeption bewertet haben. Dies bedeutet: Einmal gelesene Warnhinweise könnten eher in Vergessenheit geraten als die eigentlichen Inhalte einer Falschmeldung.

Zwischen öffentlicher Aufgabe und algorithmischer Selektion

Anhand der hier zusammengetragenen Argumente lässt sich schlussfolgern, dass das Löschen eine Reihe problematischer Folgen haben kann, da es einerseits in die Meinungsfreiheit eingreift und andererseits in populistischen Diskursen als Beleg für eine gesellschaftliche Elitenverschwörung verwendet werden könnte. Gleichzeitig müssen natürlich Meldungen, die gegen geltendes Recht verstoßen, weil sie zum Beispiel Verleumdungen oder Volksverhetzung enthalten, gelöscht werden. Dieses Mittel sollte jedoch sparsam und nicht in Eigenverantwortung von den Plattform-Unternehmen umgesetzt werden. Hier handelt es sich vielmehr um eine öffentliche Aufgabe.

Auch bei Warnhinweisen sind Zweifel angebracht. Sind sie zu drastisch formuliert, könnten sie Reaktanz erzeugen. Sind sie zu schwach formuliert, könnten sie überlesen werden. Zudem könnten sie über längere Zeiträume in Vergessenheit geraten. Dennoch kann nicht ganz auf sie verzichtet werden. Insbesondere Warnhinweise vor der Weiterverbreitung, also dem Teilen, von Falschmeldungen erscheinen angezeigt, da die persönliche Empfehlung von Nutzer zu Nutzer einen der zentralen Mechanismen bei der Verbreitung von Falschmeldungen im Internet darstellt.[9]

Ein weiterer Ansatzpunkt, um die Verbreitung von Falschmeldungen einzudämmen, besteht in der algorithmischen Selektion. Vorprogrammierte Entscheidungsregeln definieren, welche Inhalte Nutzer auf SNS-Plattformen mit welcher Wahrscheinlichkeit angezeigt bekommen. Aus demokratietheoretischer Sicht erscheint es wünschenswert, dass hierbei eine Vielfalt von Informationsquellen, Themen und Meinungen Aufmerksamkeit erfährt. Gleichzeitig ist es jedoch möglich, auf diese Weise ganz ohne Löschungen und Warnhinweise die Verbreitung von eindeutig als falsch identifizierten Informationen erheblich einzuschränken. Facebook hat dies, nach eigenen Angaben, in jüngerer Zeit verstärkt umgesetzt. Offenbar mit Erfolg, denn eine Studie aus den USA zeigt, dass der Anteil von Falschmeldungen auf Facebook seit 2017 erheblich zurückgegangen ist, während er gleichzeitig auf Twitter weiter anstieg.

Diese unterschiedlichen Entwicklungen der beiden sozialen Netzwerkseiten weisen einmal mehr darauf hin, wie problematisch es sein kann, dass die wenigen zentralen Informationsplattformen im Internet in der Hand privatwirtschaftlich arbeitender und der Allgemeinheit nur bedingt rechenschaftspflichtiger Unternehmen liegen. So bleibt es letztlich den Entscheidungen dieser Unternehmen überlassen, ob und welche Maßnahmen gegen die Verbreitung von Falschinformationen getroffen werden.

Fußnoten

1.
Siehe Kunda,Ziva: The case for motivated reasoning. Psychological Bulletin, 108(3), 1990, S. 480-498 und Nickerson, Raymond S.: Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 1998, S. 175-220.
2.
Berger, Peter L./Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M. 1969.
3.
Vgl. Müller, Philipp/Denner, Nora: Was tun gegen "Fake News"? Eine Analyse anhand der Entstehungsbedingungen und Wirkweisen gezielter Falschmeldungen im Internet (2. Auflage). Potsdam-Babelsberg 2019, Friedrich-Naumann-Stiftung für die Freiheit.
4.
Vgl. Waisbord, Silvio: Truth is what happens to news. On journalism, fake news, and post-truth. Journalism Studies, 19(13), 2018, S. 1866-1878.
5.
Siehe Müller, Philipp: Polarisierung des Publikums. Wie sich die Beziehung zwischen Journalismus und Bürgern verändert – und warum. In: Limbourg, Peter/Grätz, Ronald (Hg.): Meinungsmache im Netz: Fake News, Bots und Hate Speech, Göttingen 2018, S. 33-43.
6.
Siehe Brehm, Jack Williams: A Theory of Psychological Reactance. New York 1966.
7.
Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172.
8.
Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172.
9.
Siehe del Vicario, Michaela et al.: The spreading of misinformation online. Proceedings of the National Academy of Sciences of the United States of America, 113(3), 2016, S. 554-559.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Philipp Müller für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Publikationen zum Thema

Coverbild fluter Propaganda

Propaganda

Fake News und postfaktisch: Das sind zwei Schlagwörter, die für eine bedenkliche Entwicklung stehe...

Medienkompetenz  - Herausforderung für Politik, politische Bildung und Medienbildung

Medienkompetenz

In welcher digitalen Gesellschaft wollen wir leben? Jetzt wird die Zukunft gestaltet. Wer kann infor...

Coverbild Die offene Gesellschaft und ihre Freunde

Die offene Gesellschaft und ihre Freunde

Platte Lösungen für komplexe Probleme? Anfeindung statt Auseinandersetzung? Fake News statt seriö...

Die informierte Gesellschaft und ihre Feinde

Die informierte Gesellschaft und ihre Feinde

Unterminiert die Digitalisierung die Demokratie? Rasche, verlässliche und zugängliche Informatione...

Zum Shop

Tausende externe Mitarbeiter sichten für Facebook, Youtube, Twitter und weitere Social Media Angebote Fotos und Videos. Der Film erzählt von ihrer belastenden Arbeit, bei der sie im Sekundentakt über das Löschen oder Veröffentlichen entscheiden. Die Kriterien und Vorgaben dieser Arbeit sind eines der am besten geschützten Geheimnisse der Internet Giganten. Wer kontrolliert, was wir sehen und was wir denken?

Jetzt ansehen