Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Strategien der Europäischen Union gegen Desinformation | Digitale Desinformation | bpb.de

Digitale Desinformation Was ist Digitale Desinformation Desinformation: Vom Kalten Krieg zum Informationszeitalter Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft? Fake News als aktuelle Desinformation Propaganda 4.0 von Europas Rechtspopulisten Halbwahrheiten. Zu einem Instrument der Desinformation Desinformation und der Krieg in der Ukraine Russlands Kommunikationsstrategien im Krieg gegen die Ukraine Prorussische Narrative in Indiens Sozialen Medien Nachrichten aus dem Kreml Desinformation und Bundestagswahl 2021 Bundestagswahl und digitale Desinformation IV Bundestagswahl und digitale Desinformation III Bundestagswahl und digitale Desinformation II Das Narrativ vom Wahlbetrug Hybride Bedrohung als internationale Herausforderung Selbstverpflichtungen für einen fairen digitalen Wahlkampf Transparenz als Mittel gegen die digitale Verbreitung von Desinformation Bundestagswahl und digitale Desinformation I Bundestagswahl und digitale Desinformation V Ordnungsbildung in Online-Kommunikationsräumen Meinungsbildung- und Informationsvermittlung Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl Frankreichs Gesetzgebung gegen die Verbreitung von Falschnachrichten Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung Desinformation - Der globale Blick Folge 1 – Der Hack Folge 2 – Die Briefwahl Folge 3 – Die Operation Folge 4 – Der Ernstfall Folge 5 – Die Netzwerke Folge 6 – Das Experiment Folge 7 – Der Ausweg Folge 8 – Der Lichtblick Impressum Digitale Desinformation und Soziale Medien Wie sollen Plattformen mit Falschmeldungen verfahren? Über die "Messengerisierung" der Politik Neue Herausforderung "Dark Social"? Social Bots: Zwischen Phänomen und Phantom Relevanz und Regulierung von Social Bots Wie umgehen mit Digitaler Desinformation? Lügen im Netz: Sich davor schützen und andere aufklären Kritische Medienkompetenz Strategien der Europäischen Union gegen Desinformation Möglichkeiten und Grenzen von Faktenchecks Schutzmaßnahmen der Internetkonzerne Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News Redaktion

Strategien der Europäischen Union gegen Desinformation

Stephan Mündges

/ 8 Minuten zu lesen

Die EU sieht Falschinformationen und Desinformationskampagnen als große Gefahr für die demokratischen Institutionen, den öffentlichen Diskurs und den gesellschaftlichen Zusammenhalt innerhalb Europas. Mit welchen Strategien geht die EU gegen Desinformation vorgeht, und welche Konflikte können sich durch die Maßnahmen ergeben?

Die Europäische Kommission hat einen Bericht zu Fake News und Desinformation herausgegeben. (© picture-alliance)

Bei ihrer Analyse und Strategieentwicklung stützt sich die Europäische Union (EU)(besonders aktiv in diesem Bereich ist die Europäische Kommission) auf empirische Studien, europaweite Umfragen, Analysen externer Institutionen und Organisationen sowie auf Berichte eigener Expertengruppen. So rief die Kommission beispielsweise die sogenannte High Level Expert Group on Fake News and Online Disinformation ins Leben. Das Gremium war mit renommierten Kommunikationswissenschaftlern, Journalisten sowie Vertretern von Technologie- und Medienkonzernen besetzt. In ihrem Externer Link: Bericht definiert die Expertengruppe, was Desinformationen überhaupt sind, und empfiehlt mögliche Maßnahmen, die die Europäische Kommission im Kampf gegen Desinformation ergreifen könnte. Aufgrund dieser Faktenlage hat die EU eine Reihe verschiedener Strategien und Maßnahmen ergriffen, mit der sie auf das komplexe und vielschichtige Problem reagiert:

  • Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne mit dem Ziel die Verbreitung von Desinformationen einzudämmen und mehr

  • Transparenz für die Nutzer herzustellen,

  • der Förderung von Medienkompetenz,

  • der Förderung von journalistischen und technologischen Projekten und

  • dem Aufbau eigener Überwachungseinheiten und Informationsangebote, um selbst schnell auf Falschinformationen und Desinformationskampagnen zu reagieren.

Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne

Große Technologiekonzerne sind es, die einen Großteil der digitalen Infrastruktur bereitstellen, über die öffentliche Kommunikation läuft: Facebook und Twitter sind soziale Netzwerke, über die Menschen miteinander in Kontakt treten und Informationen ausgetauscht werden, Google fungiert durch seine Suchmaschine und Dienste wie Google News als zentraler Vermittler von Informationen. Beim Kampf gegen Desinformation liegt es daher nahe, diese Firmen mit einzubeziehen. Deren Vertreter haben in Zusammenarbeit mit der EU-Kommission einen Verhaltenskodex erarbeitet und unterschrieben, mit dem sie sich selbst dazu verpflichten, Maßnahmen zu ergreifen, um die Verbreitung von Desinformationen zu minimieren.

1. Werbeanzeigen

Desinformationen können online über Werbeanzeigen verbreitet werden, zum Beispiel indem schädliche Inhalte in Werbeanzeigen in den Newsfeeds von Facebook-Nutzern angezeigt werden oder indem sie im Umfeld von Suchergebnissen bei Google platziert werden. Außerdem können sich Seiten, die Desinformationen verbreiten, über Werbeanzeigen finanzieren. Problematisch sind beide Fälle, insbesondere da Werbeanzeigen genau auf Nutzer, ihre Interessen und Weltsicht zugeschnitten werden können ("Microtargeting"), wodurch sie enorm an Überzeugungskraft gewinnen können. Facebook und Google sind große Werbeunternehmen, die online bei der datengetriebenen Verbreitung von Werbung zentrale Positionen einnehmen. Sie sollen deshalb gegen die genannten Probleme vorgehen. Webseiten, die hauptsächlich Falschinformationen verbreiten und damit Geld verdienen, sollen möglichst vom Werbemarkt abgeschnitten werden. Hier kommt Google ins Spiel. Denn das Unternehmen betreibt ein großes Werbenetzwerk, über das Werbetreibende in Echtzeit-Auktionen Anzeigen an genau spezifizierte Nutzergruppen ausspielen können. Die Werbeanzeigen werden dabei nicht nur auf den Google-eigenen Seiten der Suchmaschine angezeigt. Tatsächlich nutzt ein Großteil der Webseiten im Internet Googles Netzwerk um Werbeplätze zu verauktionieren. Lässt Google Webseiten, die Desinformationen verbreiten, nicht mehr über sein System Werbeplätze verkaufen, könnte damit der Anreiz Desinformationen zu verbreiten, für einige Akteure sinken.

Die beiden Unternehmen sollen außerdem mehr Transparenz herstellen hinsichtlich der Parameter nach denen Werbeanzeigen Nutzern angezeigt werden. Nutzer sollen so verstehen können, warum ihnen ein bestimmter Werbepost angezeigt wird. Zu noch weitergehender Transparenz haben sich beide Plattformen hinsichtlich politischer Werbung verpflichtet. "Externer Link: Hierzu zählen nicht nur Anzeigen, die für bestimmte Kandidaten oder Parteien werben, sondern auch solche, die stark politisierte Themen wie z.B. Einwanderung behandeln.". Facebook hat dafür unter dem Titel "Externer Link: Werbebibliothek" ein Archiv- und Transparenzsystem aufgesetzt. Darüber sollen Nutzer aber auch Regulierungsbehörden, Journalisten und Wissenschaftler die Möglichkeit bekommen, alle geschalteten politischen Werbeanzeigen samt Daten zur Verbreitung einzusehen. Die Identität von Werbetreibenden soll außerdem überprüft werden und sie müssen nachweisen, dass sie ihren Sitz in dem Land haben, das Ziel der politischen Werbung ist. Auch Google will ein durchsuchbares Werbeanzeigen-Archiv zu Verfügung stellen und mehr Transparenz bei politischen Werbeposts herstellen.

2. Verbreitungsmechanismen

Google und Facebook sind entscheidende Plattformen für die Verbreitung von Informationen im Digitalen. Diese Plattformen sollen daher "in Technologien investieren, die relevante, authentische und korrekte Informationen priorisieren, sei es in Suchergebnissen, Feeds oder anderen automatisch zusammengestellten Verbreitungswegen". In Facebooks Newsfeed, Googles Suchergebnissen und YouTubes Video-Empfehlungen sollen also vermehrt solche Inhalte angezeigt werden, die faktisch korrekt sowie seriös sind und aus verlässlichen Quellen stammen. Was wie eine Selbstverständlichkeit klingt, ist bei näherem Hinsehen eine gewaltige Aufgabe. Denn lange Zeit funktionierten diese algorithmischen Sortierungs- und Verteilungssysteme nach ganz anderen Maßgaben: In den Feeds der Facebook-Nutzer sollten vor allem solche Inhalte erscheinen, die Nutzer zum Verbleib auf der Seite und zur Interaktion anregen. In der Praxis waren das meist emotionalisierende und affirmative Fotos, Videos und Informationen. Googles Suchergebnisse sollten Nutzern vor allem das anzeigen, was sie sehen wollten. Und in YouTubes Video-Empfehlungen fanden sich vor allem Videos, bei denen ein Algorithmus errechnet hatte, dass diese Videos am wahrscheinlichsten dafür sorgen, dass Nutzer weiter Videos schauen und Zeit auf YouTube verbringen würden. Die teilweise Abkehr davon stellt die Plattformen vor gewaltige Fragen: Woher weiß ein automatisiertes System, ob ein Text Fakten korrekt wiedergibt? Woher weiß es, dass ein Video keine Verschwörungstheorien propagiert? Und sollten solche Entscheidungen überhaupt unter Aufsicht amerikanischer Unternehmen automatisiert gefällt werden? Diese Fragen haben weder die Plattformen noch Regulierungsbehörden, Politik oder Wissenschaft endgültig beantwortet. Einige konkrete Maßnahmen wurden aber bereits implementiert: Bei Facebook werden vertrauenswürdige Quellen im Newsfeed priorisiert ausgespielt, während irreführende Inhalte abgewertet werden und dementsprechend seltener Nutzern angezeigt werden. Facebook arbeitet dafür auch mit externen journalistischen Organisationen zusammen, die Fakten überprüfen. In Deutschland sind das das gemeinnützige Recherchebüro Correctiv und die Deutsche Presse-Agentur. Auch YouTube hat angekündigt sogenannten "Borderline Content", vor allem Videos, die Verschwörungstheorien verbreiten, seltener zu empfehlen.

3. Kampf gegen Fake-Accounts und Bots

Für die Verbreitung und Verstärkung von Desinformation wird häufig auf Fake-Accounts und Bots zurückgegriffen. Fake-Accounts sind Nutzerkonten, die vorgeben einen real existierenden Menschen zu repräsentieren und von diesem gesteuert zu werden. Fake-Accounts können entweder von Menschen oder automatisiert (also von Bots) gesteuert werden. Facebook selbst schätzt, dass 3-4 % aller Nutzerkonten Fake-Accounts sind. Bei über 2,2 Milliarden monatlich aktiven Nutzern kommt man da auf die beachtliche Menge von 66-88 Millionen gefälschten Accounts. Das Problem betrifft aber auch Google, das mit seiner Tochterfirma YouTube ebenfalls eine Plattform betreibt, über die Fake-Accounts agieren können. Beide Firmen gehen bereits gegen solche Accounts vor und das nicht erst, seit die EU es von ihnen verlangt. Firmeneigene Sicherheitsteams beobachten Accounts und es werden auch Algorithmen genutzt, die anhand verschiedener Datensignale Accounts, die wahrscheinlich keine realen Personen repräsentieren, erkennen können. Diese Anstrengungen liegen durchaus im Interesse der Plattformen selbst. Denn nur so können sie Nutzern ein Umfeld bieten, in dem sie sich gern aufhalten. Diese Form der Online-Hygiene ist ein elementarer Bestandteil der Dienstleistung von digitalen Plattformen.

Förderung von Medienkompetenz sowie journalistischen und technologischen Projekten

"Die lebenslange Entwicklung kritischer und digitaler Medienkompetenz insbesondere junger Menschen" sei von entscheidender Bedeutung im Kampf gegen Desinformation, schreibt die EU Kommission in ihrem Konzept zur "Externer Link: Bekämpfung von Desinformation im Internet". Um Medienkompetenz zu vermitteln, wurden mehrere Projekte und Initiativen gestartet. So fand Ende März 2019 die European Media Literacy Week statt, eine Aktionswoche mit 42 Veranstaltungen in zahlreichen europäischen Ländern. Ziel war es dabei unter anderem verschiedene Organisationen, die bereits im Bereich Medienkompetenz tätig sind, zu unterstützen und miteinander zu vernetzen. Ob die Anstrengungen der EU aber langfristig wirksam sein können, bleibt abzuwarten. Denn Einfluss auf Lehrpläne in EU-Mitgliedsstaaten hat die EU nicht.

Im Rahmen des EU-Förderprogramms "Horizon 2020", das bis zum Jahr 2020 mit knapp 80 Milliarden Euro zahlreiche Forschungs- und Innovationsprojekte aus unterschiedlichsten Bereichen fördern soll, werden auch Projekte gefördert, die technische Instrumente zur Erkennung und Überprüfung von Inhalten entwickeln sollen. Dabei geht es konkret um Fragen wie: Wer ist die Ursprungsquelle für einen Social Media-Post? An welchen Datensignalen lassen sich möglicherweise gefälschte Posts erkennen? Wie sollten Software-Tools aussehen, mit denen Fact-Checker schnell Videos auf ihre Echtheit prüfen können? Solche neuen Tools sollen auch journalistischen Faktencheck-Teams zur Verfügung gestellt werden. Teil der EU Maßnahmen ist es, ein unabhängiges europäisches Netz von Fact-Checkern zu knüpfen. Dafür wurden Workshops abgehalten. Die Kommission räumt in einem Zwischenbericht aber selbst ein, dass die Bemühungen, Fact-Checking zu stärken, bislang nicht zum gewünschten Ziel geführt haben. So wird nur ein Teil der EU-Länder durch das entstandene Fact-Checking Netzwerk abgedeckt und die Faktenprüfer sind laut EU "nicht in der Lage, mit der zunehmenden Menge an Online-Nachrichten Schritt zu halten". In einem zweiten Schritt soll deshalb eine "sichere europäische Online-Plattform zum Thema Desinformation" eingerichtet werden. Darüber sollen Faktenchecker aus der gesamten EU miteinander sowie mit unabhängigen Wissenschaftlern vernetzt werden. Wann diese Plattform kommen und wie sie genau ausgestaltet sein wird, ist aber noch unklar.

Aufbau eigener Informationsangebote

Bereits 2015 nahm die EU East StratCom Task Force (Strategisches Kommunikationsteam Ost) die Arbeit auf. 16 Mitarbeiter arbeiten dort an Inhalten und Kampagnen, die in östlich von Europa gelegenen Ländern, mit denen die EU Partnerschaftsabkommen geschlossen hat, verbreitet werden sollen. Damit soll russischen Desinformationskampagnen entgegengewirkt werden (European External Action Service 2018). Nach eigener Aussage hat die Task Force zwischen September 2015 und Frühjahr 2019 rund Externer Link: 4500 Fälle von Desinformation identifiziert. Angesichts des geringen Budgets (2019: 3 Millionen Euro) und der schmalen personellen Ausstattung ist fraglich, wie effektiv und weitreichend die Bemühungen der Task Force sind. Auch werfen solche staatlich initiierten Medienprojekte Fragen nach der Wahrhaftigkeit und Glaubwürdigkeit von ihr verbreiteter Inhalte auf.

Die skizzierten Maßnahmen und Strategien zeigen, dass die EU um eine umfassende Reaktion auf das Problem digitaler Desinformation bemüht ist. Allerdings stellt sich die Frage, wie nachhaltig diese Bemühungen sind. Die Regulierung der großen Plattformen verlässt sich vor allem auf Selbstverpflichtungen und kleinere Plattformen oder auch geschlossene Kommunikationsräume (z.B. Messenger-Dienste oder geschlossene Chat-Räume auf Servern kleinerer Unternehmen), über die ebenfalls Falschinformationen verbreitet werden können, sind von diesen Selbstverpflichtungen ohnehin nicht betroffen. Auch welche nachhaltigen Ergebnisse die Förderung von Medienkompetenz und Fact-Checking haben wird, bleibt abzuwarten. Schließlich handelt es sich um Bereiche, die sich nicht ausschließlich per Dekret regulieren lassen. Die EU wählt wohl auch deshalb eher behutsame Schritte, um einen Konflikt mit einem Grundrecht zu vermeiden: Denn wer gegen Desinformationen vorgeht, läuft auch immer Gefahr, das Recht auf Meinungsfreiheit zu tangieren.

Weitere Inhalte

ist Wissenschaftlicher Mitarbeiter Professuren für Medienökonomie und Wirtschaftspolitischen Journalismus am Institut für Journalistik der TU Dortmund.