Ein Finger vor schwarzem Hintergrund klickt auf das blaue Logo einer Social-Media-App.

2.5.2019 | Von:
Erik Meyer

Neue Herausforderung "Dark Social"?

Interview mit Miro Dittrich vom Projektverbund „Debate//de:hate“ der Amadeu Antonio Stiftung

Im Fokus der Diskussion um Desinformation stehen häufig soziale Netzwerke wie Facebook. Doch die Nutzer wandern zunehmend zu anderen Angeboten ab, in denen gar nicht mehr öffentlich kommuniziert wird. Stellt "Dark Social" also eine neue Herausforderung dar?

Eine Person, deren Gesicht nicht zuerkennen ist, hält ein Mobiltelefon vor einer Wand mit Whatsapp-Logo.Direkte Eins-zu-eins-Kommunikation über Messenger lässt sich nur schwer erfassen. (© picture alliance/Carsten Rehder/dpa)

Interview mit Miro Dittrich vom Projektverbund „Debate//de:hate“ der Amadeu Antonio Stiftung. De:hate ist dabei für die Analyse und Erarbeitung von Handlungsempfehlungen verantwortlich. Dazu betreibt das Projekt qualitatives und quantitatives Monitoring von menschenverachtenden Phänomenen wie Hate Speech in sozialen Medien.

Die Diskussion um digitale Desinformation konzentriert sich häufig auf deren Verbreitung durch soziale Medien wie Facebook und Twitter. Dort würden viele Fake News zirkulieren oder Social Bots die Meinungsbildung manipulieren. Was hat es demgegenüber mit der Rede von “Dark Social” auf sich? Welche Kanäle sind damit gemeint?

Dittrich: "Dark Social" wurde als Schlagwort zuerst 2012 vom amerikanischen Journalisten Alexis C. Madrigal verwendet. Hier ging es um nicht klar zuordnungsbare Klicks auf Webseiten, etwa von Messaging-Apps und E-Mails. Anders als bei Links beispielsweise über Facebook oder Twitter war den Betreibern der Seiten nicht klar, woher ihre Besucher kamen. In der aktuellen Debatte wird der Begriff jedoch für nicht eindeutig öffentliche Kommunikation verwendet, also für abgeschlossene Server, wie etwa auf der für Gamer gedachten Plattform Discord, hauptsächlich aber für private Messenger wie etwa Whatsapp oder Telegram.

Da sich online eine Ermüdung für die in der breiten Öffentlichkeit stattfindende Kommunikation zeigt, haben diese Kommunikationsformen deutlich an Bedeutung gewonnen. Eine zunehmende Tribalisierung und Fragmentierung der Onlinewelt bestärkt diese Entwicklung weiterhin. Menschen suchen wieder vermehrt nach interessenbezogenen Communitys und wenden sich immer mehr von den großen Plattformen ab.

Warum sind diese Kanäle für die Verbreitung von Falscherzählungen besonders relevant? Betrifft dies eher die private Verbreitung von Gerüchten wie beim Mobbing oder gibt es auch politische Akteure, die dort Desinformation strategisch kommunizieren?

Dittrich: Wir haben es dort mit beidem zu tun. Das private Verbreiten von Gerüchten, das es schon immer gab, wird durch diese technische Lösung stark beschleunigt. Falscherzählungen wirken zudem viel glaubwürdiger, wenn sie von einer uns bekannten Person geteilt werden. Dazu nutzen aber auch politische Akteure diese Kanäle sehr gezielt. Die direkte Kommunikation auf das Handy per Benachrichtigung beschleunigt die Verbreitung dieser Nachrichten. So muss die Zielgruppe nicht erst in ihrem Nachrichtenfeed bis zum entsprechenden Beitrag scrollen. Dies erklärte auch zu einem Teil die schnelle Mobilisierung um die rechtsextremen Demonstrationen wie etwa in Chemnitz 2018, das erste Großevent zu dem eine Vielzahl an Telegram- und Whatsapp-Kanäle und -Gruppen aktiv waren. Mobilisiert wurde dort stark mit drei Falscherzählungen: eine verhinderte Vergewaltigung, 25 Messerstiche und ein zweiter Toter.

Für die Verbreitung von Desinformation auf öffentlichen Plattformen sind auch algorithmische Verstärkungseffekte charakteristisch: Inhalte, auf die Nutzer stark reagieren, werden etwa im News Feed von Facebook priorisiert verbreitet. Wie werde ich demgegenüber auf solche Inhalte aufmerksam, wenn sie via Dark Social verbreitet werden?

Dittrich: Beiträge werden hier von Privatpersonen oder größeren Gruppen oder Kanälen weitergeleitet. Der Einstieg in sehr aktive Gruppen ist dadurch niedrigschwellig. Zudem sind diese Gruppen sehr gut vernetzt, sie teilen ihre Beiträge sehr häufig. So landet man schnell in einem Netzwerk mit einem geschlossenen Weltbild, das fundamental geprägt von Falschinformationen ist. Durch die fehlende Öffentlichkeit gibt es zudem keinen Widerspruch oder korrigierende Informationen.

Der Algorithmus auf öffentlichen Plattformen hat aber auch viele Nachteile für die Verbreitenden von Desinformationen. Facebook arbeitet etwa mit dem Recherchekollektiv Correctiv zusammen. Identifizieren diese einen Beitrag als Falschnachricht, wird seine Sichtbarkeit deutlich eingeschränkt. Auch werden auf öffentlichen Plattformen Gemeinschaftsstandards wesentlich konsequenter durchgesetzt, was für Dark Social eher eine seltene Ausnahme darstellt. Falschnachrichten können hier also wesentlich extremer und emotionalisierender formuliert werden, ohne eine Löschung befürchten zu müssen.

In Indien hat via Messengerdienst verbreitete Desinformation sogar eine tödliche Dimension, und es war in einem Fall von “Whatsapp-Killings” die Rede. Ist das ein Einzelfall oder ist generell einen Zusammenhang zwischen der Anonymität von Akteuren, der Aggressivität von Aussagen und der Destruktivität von Auswirkungen zu beobachten?

Dittrich: Die Anonymität ist hierbei nicht der entscheidende Faktor. Das zeigt etwa die Universität Zürich 2016 in der Untersuchung “Digital Social Norm Enforcement: Online Firestorms in Social Media”. Nach ihren Ergebnissen gaben User, die nicht-anonym auftraten, häufiger Kommentare mit Aggressionen ab. Die Autoren erklären dies durch eine fehlende Erwartung von Konsequenzen und durch eine höhere erwartete Glaubwürdigkeit, wenn sie ihre Aggression mit Klarnamen kommunizierten. Das geschlossene Informationssystem ohne abweichende Informationen dürfte hier entscheidender sein. Dieses Weltbild ist dabei von apokalyptischen Vorstellungen geprägt; etwa der Untergang Deutschlands stehe kurz bevor. Oder es gäbe keine Meinungsfreiheit und Demokratie mehr, Morde und Vergewaltigungen von vermeintlichen Migranten und Geflüchteten würden den Alltag prägen. Da der Staat nicht gewillt wäre, sie zu schützen, baut sich der dadurch entstehende Handlungsdruck in Gewalt und Terror ab.

Facebook arbeitet beispielsweise mit unabhängigen Faktenprüfern zusammen, die Inhalte prüfen, um die Verbreitung von Falschmeldungen auf der Plattform einzudämmen. Gibt es auch bei Dark Social Gegenmaßnahmen der Betreiber beziehungsweise was lässt sich dort generell dagegen tun?

Dittrich: Die bisherigen Versuche fokussieren vor allem die schnelle Verbreitung einzudämmen. Whatsapp hat als Konsequenz der durch Falschinformationen ausgelösten Gewalt in Indien das Weiterleiten von 20 Empfängern auf fünf eingeschränkt. Nach einer Testphase in Indien gilt dies nun weltweit. Weiterhin testet das Unternehmen gerade die Funktion der Rückwärtssuche von Bildern. Zugeschickte Bilder werden direkt aus der App heraus in Googles Bildersuche hochgeladen und dort mit ähnlichen Fotos aus dem Internet abgeglichen. Dadurch können Bilder auf ihre Echtheit und ihren Ursprung überprüft werden. Unter den Suchergebnissen können dann auch vertrauenswürdige Websites zu finden sein, die das Bild bereits als Fälschung enttarnt haben. Da die Kommunikation über private Messenger jedoch meist verschlüsselt stattfindet, sind Unternehmen sehr in ihrem Eingriff in die Nachrichtenflüsse eingeschränkt.

Habe ich als Nutzer sinnvolle Handlungsoptionen, wenn ich via Dark Social mit Desinformation konfrontiert werde?

Dittrich: Unwahrscheinlich klingende Nachrichten können mit einer Internetsuche überprüft werden. Ist die Nachricht wirklich eine aktuelle oder lassen sich vertrauensvolle Quellen dafür finden? Die Rückwärtssuche von Bildern ist ein weiteres effektives Mittel, Falschinformationen zu enttarnen. Zudem gibt es eine Vielzahl an journalistischen Angeboten, die sich gezielt mit dem Überprüfen von Desinformation auf Social Media beschäftigen, etwa der Faktenfinder der Tagesschau, das Recherchekollektiv “Correctiv” oder mimikama.at. Gerade im persönlichen Bereich kann es erfolgreich sein, seine Recherche mit dem Versender der Desinformation zu teilen. In größeren Gruppen ist die Erfolgsaussicht leider sehr gering. Korrekturen werden als “Lügenpresse” abgetan, ignoriert oder es wird zwar eingesehen, dass die Information im Konkreten falsch ist, aber die dahinter liegende Erzählung jedoch stimme. Das auf Falschinformationen gebaute Weltbild bleibt so also erhalten.

Sie beobachten zur Europawahl Desinformationskampagnen in Dark Social. Welche Entwicklungen können Sie bereits jetzt erkennen und Themen spielen eine Rolle?

Dittrich: Eine interessante Entwicklung ist, dass seit Anfang des Jahres das Thema „Umwelt“ eine neue, wichtige Rolle in Desinformationskampagnen eingenommen hat. Leugnungen des menschengemachten Klimawandels treten in einer bis dato nicht vertreten Häufigkeit und Viralität auf. Dies zeigt eine fortschreitende, breite Erosion des Vertrauens in Institutionen, denen wir akkurate Realitätsbeschreibungen zuschreiben. So gibt es zum Klimawandel ja einen klaren wissenschaftlichen Konsensus. Weiterhin sind auch neue Gesetze der Europäischen Union, die auch in der breiteren Bevölkerung Kritik erfahren, ein wichtiges Thema. Die Desinformation dreht sich hier jedoch um eine persönlich wahrgenommene Verfolgung. So wird etwa die Datenschutz-Grundverordnung und Artikel 13 der Urheberreform als Versuch der gezielten Zensur einer politischen Meinung kommuniziert. Vermeintliche Straftaten, die Migranten und Geflüchteten zugeschrieben werden, spielen jedoch weiterhin die wichtigste Rolle für Falschnachrichten.

Bietet Dark Social auch positive Ansatzpunkte für die politische Kommunikation? Welche Chancen sehen Sie für den Kampf gegen Desinformation, Hate Speech und extremistische Inhalte im Netz? Gibt es also nicht nur negative Beispiele, sondern auch Best Practices?

Dittrich: Positiv fand ich etwa die, leider eingestellte, Nachrichten-App “Resi”. Hier wurde man über tagesaktuelle Themen informiert und konnte über Fragen tiefer in Themen einsteigen oder lieber über anderes informiert werden. Das Programm lernte dabei über die eigenen Interessen und änderte das zukünftige Informationsangebot dementsprechend. Ein weiteres Beispiel ist der von Tagesschau und NDR entwickelte Nachrichtendienst Novi. Mit diesem kann man über den Facebook-Messenger, Telegram, Whatsapp oder Skype über aktuelle Nachrichten informiert werden und auch die Bundeszentrale für politische Bildung hat ja einen Infokanal für Messenger, über den man kurze Erklärtexte zu Begriffen aus Politik und Geschichte und Hintergrundinfos zu aktuellen Themen und Debatten erhalten kann. Chat Bots über private Messenger bieten also auch eine große Chance für personalisierte politische Kommunikation. Prinzipiell gibt eine Vielzahl guter Bestrebungen von Plattformbetreibenden, die Probleme auf ihren Plattformen zu lösen. Als um die rechtsextremen Demonstrationen in Chemnitz 2018 die ersten Suchergebnisse auf YouTube zu “Chemnitz” von rechtsextremen Desinformationsvideos dominiert waren, führte Google ein bereits in den USA getestetes Feature ein. Dieses priorisiert bei aktuellen Ereignissen die Videos von vertrauensvollen Medienangeboten. Auch der “Qualitätsfilter” von Twitter hat das Klima auf der Plattform deutlich verbessert. Dieser nutzt eine Vielzahl von Signalen, um die Reichweite von Beiträgen von als toxisch markierten Accounts zu reduzieren. Bei Facebook sehe ich ein ehrliches Interesse in der stetigen Verbesserung ihrer Gemeinschaftsstandards, so etwa in der Deklarierung von weißem Nationalismus und Separatismus als Hassgruppe Ende April 2019. Dadurch ist es verboten, weißen Nationalismus und Separatismus auf der Plattform zu verherrlichen oder zu vertreten.

Trotzdem spielen die sozialen Medien immer noch die wichtigste Rolle in der Mobilisierung und Radikalisierung von demokratie- und menschenfeindlichen Einstellungen. Hier gibt es noch sehr viel Handlungsbedarf, und ich würde speziell vor der Hoffnung auf eine schnelle technische Lösung warnen. So sind wir etwa von einer automatisierten Erkennung von Hate Speech noch viele Jahre entfernt. Die zu beobachtende Bewegung hin zu verschlüsselten, nicht öffentlichen Bereichen des Internets erschwert zudem Lösungsansätze und wird uns vor neue, noch komplizierter lösbare Probleme stellen.

Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Erik Meyer für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Weitere Inhalte

Publikationen zum Thema

Coverbild fluter Propaganda

Propaganda

Fake News und postfaktisch: Das sind zwei Schlagwörter, die für eine bedenkliche Entwicklung stehe...

Medienkompetenz  - Herausforderung für Politik, politische Bildung und Medienbildung

Medienkompetenz

In welcher digitalen Gesellschaft wollen wir leben? Jetzt wird die Zukunft gestaltet. Wer kann infor...

Coverbild Die offene Gesellschaft und ihre Freunde

Die offene Gesellschaft und ihre Freunde

Platte Lösungen für komplexe Probleme? Anfeindung statt Auseinandersetzung? Fake News statt seriö...

Die informierte Gesellschaft und ihre Feinde

Die informierte Gesellschaft und ihre Feinde

Unterminiert die Digitalisierung die Demokratie? Rasche, verlässliche und zugängliche Informatione...

Zum Shop

Tausende externe Mitarbeiter sichten für Facebook, Youtube, Twitter und weitere Social Media Angebote Fotos und Videos. Der Film erzählt von ihrer belastenden Arbeit, bei der sie im Sekundentakt über das Löschen oder Veröffentlichen entscheiden. Die Kriterien und Vorgaben dieser Arbeit sind eines der am besten geschützten Geheimnisse der Internet Giganten. Wer kontrolliert, was wir sehen und was wir denken?

Jetzt ansehen