Ein Finger vor schwarzem Hintergrund klickt auf das blaue Logo einer Social-Media-App.

2.5.2019 | Von:
Stephan Mündges

Strategien der Europäischen Union gegen Desinformation

Die EU sieht Falschinformationen und Desinformationskampagnen als große Gefahr für die demokratischen Institutionen, den öffentlichen Diskurs und den gesellschaftlichen Zusammenhalt innerhalb Europas. Mit welchen Strategien geht die EU gegen Desinformation vorgeht, und welche Konflikte können sich durch die Maßnahmen ergeben?

Europafahnen wehen vor der EU-Kommission , Berlaymont-Gebäude, Brüssel ( Bruessel) , EuropaviertelDie Europäische Kommission hat einen Bericht zu Fake News und Desinformation herausgegeben. (© picture-alliance)

Bei ihrer Analyse und Strategieentwicklung stützt sich die Europäische Union (EU)(besonders aktiv in diesem Bereich ist die Europäische Kommission) auf empirische Studien, europaweite Umfragen, Analysen externer Institutionen und Organisationen sowie auf Berichte eigener Expertengruppen. So rief die Kommission beispielsweise die sogenannte High Level Expert Group on Fake News and Online Disinformation ins Leben. Das Gremium war mit renommierten Kommunikationswissenschaftlern, Journalisten sowie Vertretern von Technologie- und Medienkonzernen besetzt. In ihrem Bericht definiert die Expertengruppe, was Desinformationen überhaupt sind, und empfiehlt mögliche Maßnahmen, die die Europäische Kommission im Kampf gegen Desinformation ergreifen könnte. Aufgrund dieser Faktenlage hat die EU eine Reihe verschiedener Strategien und Maßnahmen ergriffen, mit der sie auf das komplexe und vielschichtige Problem reagiert:

  • Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne mit dem Ziel die Verbreitung von Desinformationen einzudämmen und mehr
  • Transparenz für die Nutzer herzustellen,
  • der Förderung von Medienkompetenz,
  • der Förderung von journalistischen und technologischen Projekten und
  • dem Aufbau eigener Überwachungseinheiten und Informationsangebote, um selbst schnell auf Falschinformationen und Desinformationskampagnen zu reagieren.[1]


Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne

Große Technologiekonzerne sind es, die einen Großteil der digitalen Infrastruktur bereitstellen, über die öffentliche Kommunikation läuft: Facebook und Twitter sind soziale Netzwerke, über die Menschen miteinander in Kontakt treten und Informationen ausgetauscht werden, Google fungiert durch seine Suchmaschine und Dienste wie Google News als zentraler Vermittler von Informationen. Beim Kampf gegen Desinformation liegt es daher nahe, diese Firmen mit einzubeziehen. Deren Vertreter haben in Zusammenarbeit mit der EU-Kommission einen Verhaltenskodex erarbeitet und unterschrieben, mit dem sie sich selbst dazu verpflichten, Maßnahmen zu ergreifen, um die Verbreitung von Desinformationen zu minimieren.[2]

1. Werbeanzeigen

Desinformationen können online über Werbeanzeigen verbreitet werden, zum Beispiel indem schädliche Inhalte in Werbeanzeigen in den Newsfeeds von Facebook-Nutzern angezeigt werden oder indem sie im Umfeld von Suchergebnissen bei Google platziert werden. Außerdem können sich Seiten, die Desinformationen verbreiten, über Werbeanzeigen finanzieren. Problematisch sind beide Fälle, insbesondere da Werbeanzeigen genau auf Nutzer, ihre Interessen und Weltsicht zugeschnitten werden können ("Microtargeting"), wodurch sie enorm an Überzeugungskraft gewinnen können. Facebook und Google sind große Werbeunternehmen, die online bei der datengetriebenen Verbreitung von Werbung zentrale Positionen einnehmen. Sie sollen deshalb gegen die genannten Probleme vorgehen. Webseiten, die hauptsächlich Falschinformationen verbreiten und damit Geld verdienen, sollen möglichst vom Werbemarkt abgeschnitten werden. Hier kommt Google ins Spiel. Denn das Unternehmen betreibt ein großes Werbenetzwerk, über das Werbetreibende in Echtzeit-Auktionen Anzeigen an genau spezifizierte Nutzergruppen ausspielen können. Die Werbeanzeigen werden dabei nicht nur auf den Google-eigenen Seiten der Suchmaschine angezeigt. Tatsächlich nutzt ein Großteil der Webseiten im Internet Googles Netzwerk um Werbeplätze zu verauktionieren. Lässt Google Webseiten, die Desinformationen verbreiten, nicht mehr über sein System Werbeplätze verkaufen, könnte damit der Anreiz Desinformationen zu verbreiten, für einige Akteure sinken.

Die beiden Unternehmen sollen außerdem mehr Transparenz herstellen hinsichtlich der Parameter nach denen Werbeanzeigen Nutzern angezeigt werden. Nutzer sollen so verstehen können, warum ihnen ein bestimmter Werbepost angezeigt wird. Zu noch weitergehender Transparenz haben sich beide Plattformen hinsichtlich politischer Werbung verpflichtet. "Hierzu zählen nicht nur Anzeigen, die für bestimmte Kandidaten oder Parteien werben, sondern auch solche, die stark politisierte Themen wie z.B. Einwanderung behandeln.". Facebook hat dafür unter dem Titel "Werbebibliothek" ein Archiv- und Transparenzsystem aufgesetzt. Darüber sollen Nutzer aber auch Regulierungsbehörden, Journalisten und Wissenschaftler die Möglichkeit bekommen, alle geschalteten politischen Werbeanzeigen samt Daten zur Verbreitung einzusehen. Die Identität von Werbetreibenden soll außerdem überprüft werden und sie müssen nachweisen, dass sie ihren Sitz in dem Land haben, das Ziel der politischen Werbung ist. Auch Google will ein durchsuchbares Werbeanzeigen-Archiv zu Verfügung stellen und mehr Transparenz bei politischen Werbeposts herstellen.

2. Verbreitungsmechanismen

Google und Facebook sind entscheidende Plattformen für die Verbreitung von Informationen im Digitalen. Diese Plattformen sollen daher "in Technologien investieren, die relevante, authentische und korrekte Informationen priorisieren, sei es in Suchergebnissen, Feeds oder anderen automatisch zusammengestellten Verbreitungswegen".[3] In Facebooks Newsfeed, Googles Suchergebnissen und YouTubes Video-Empfehlungen sollen also vermehrt solche Inhalte angezeigt werden, die faktisch korrekt sowie seriös sind und aus verlässlichen Quellen stammen. Was wie eine Selbstverständlichkeit klingt, ist bei näherem Hinsehen eine gewaltige Aufgabe. Denn lange Zeit funktionierten diese algorithmischen Sortierungs- und Verteilungssysteme nach ganz anderen Maßgaben: In den Feeds der Facebook-Nutzer sollten vor allem solche Inhalte erscheinen, die Nutzer zum Verbleib auf der Seite und zur Interaktion anregen. In der Praxis waren das meist emotionalisierende und affirmative Fotos, Videos und Informationen. Googles Suchergebnisse sollten Nutzern vor allem das anzeigen, was sie sehen wollten. Und in YouTubes Video-Empfehlungen fanden sich vor allem Videos, bei denen ein Algorithmus errechnet hatte, dass diese Videos am wahrscheinlichsten dafür sorgen, dass Nutzer weiter Videos schauen und Zeit auf YouTube verbringen würden. Die teilweise Abkehr davon stellt die Plattformen vor gewaltige Fragen: Woher weiß ein automatisiertes System, ob ein Text Fakten korrekt wiedergibt? Woher weiß es, dass ein Video keine Verschwörungstheorien propagiert? Und sollten solche Entscheidungen überhaupt unter Aufsicht amerikanischer Unternehmen automatisiert gefällt werden? Diese Fragen haben weder die Plattformen noch Regulierungsbehörden, Politik oder Wissenschaft endgültig beantwortet. Einige konkrete Maßnahmen wurden aber bereits implementiert: Bei Facebook werden vertrauenswürdige Quellen im Newsfeed priorisiert ausgespielt, während irreführende Inhalte abgewertet werden und dementsprechend seltener Nutzern angezeigt werden. Facebook arbeitet dafür auch mit externen journalistischen Organisationen zusammen, die Fakten überprüfen. In Deutschland sind das das gemeinnützige Recherchebüro Correctiv und die Deutsche Presse-Agentur. Auch YouTube hat angekündigt sogenannten "Borderline Content", vor allem Videos, die Verschwörungstheorien verbreiten, seltener zu empfehlen.

3. Kampf gegen Fake-Accounts und Bots

Für die Verbreitung und Verstärkung von Desinformation wird häufig auf Fake-Accounts und Bots zurückgegriffen. Fake-Accounts sind Nutzerkonten, die vorgeben einen real existierenden Menschen zu repräsentieren und von diesem gesteuert zu werden. Fake-Accounts können entweder von Menschen oder automatisiert (also von Bots) gesteuert werden. Facebook selbst schätzt, dass 3-4 % aller Nutzerkonten Fake-Accounts sind.[4] Bei über 2,2 Milliarden monatlich aktiven Nutzern kommt man da auf die beachtliche Menge von 66-88 Millionen gefälschten Accounts. Das Problem betrifft aber auch Google, das mit seiner Tochterfirma YouTube ebenfalls eine Plattform betreibt, über die Fake-Accounts agieren können. Beide Firmen gehen bereits gegen solche Accounts vor und das nicht erst, seit die EU es von ihnen verlangt. Firmeneigene Sicherheitsteams beobachten Accounts und es werden auch Algorithmen genutzt, die anhand verschiedener Datensignale Accounts, die wahrscheinlich keine realen Personen repräsentieren, erkennen können. Diese Anstrengungen liegen durchaus im Interesse der Plattformen selbst. Denn nur so können sie Nutzern ein Umfeld bieten, in dem sie sich gern aufhalten. Diese Form der Online-Hygiene ist ein elementarer Bestandteil der Dienstleistung von digitalen Plattformen.

Förderung von Medienkompetenz sowie journalistischen und technologischen Projekten

"Die lebenslange Entwicklung kritischer und digitaler Medienkompetenz insbesondere junger Menschen" sei von entscheidender Bedeutung im Kampf gegen Desinformation, schreibt die EU Kommission in ihrem Konzept zur "Bekämpfung von Desinformation im Internet". Um Medienkompetenz zu vermitteln, wurden mehrere Projekte und Initiativen gestartet. So fand Ende März 2019 die European Media Literacy Week statt, eine Aktionswoche mit 42 Veranstaltungen in zahlreichen europäischen Ländern. Ziel war es dabei unter anderem verschiedene Organisationen, die bereits im Bereich Medienkompetenz tätig sind, zu unterstützen und miteinander zu vernetzen. Ob die Anstrengungen der EU aber langfristig wirksam sein können, bleibt abzuwarten. Denn Einfluss auf Lehrpläne in EU-Mitgliedsstaaten hat die EU nicht.

Im Rahmen des EU-Förderprogramms "Horizon 2020", das bis zum Jahr 2020 mit knapp 80 Milliarden Euro zahlreiche Forschungs- und Innovationsprojekte aus unterschiedlichsten Bereichen fördern soll, werden auch Projekte gefördert, die technische Instrumente zur Erkennung und Überprüfung von Inhalten entwickeln sollen. Dabei geht es konkret um Fragen wie: Wer ist die Ursprungsquelle für einen Social Media-Post? An welchen Datensignalen lassen sich möglicherweise gefälschte Posts erkennen? Wie sollten Software-Tools aussehen, mit denen Fact-Checker schnell Videos auf ihre Echtheit prüfen können? Solche neuen Tools sollen auch journalistischen Faktencheck-Teams zur Verfügung gestellt werden. Teil der EU Maßnahmen ist es, ein unabhängiges europäisches Netz von Fact-Checkern zu knüpfen. Dafür wurden Workshops abgehalten. Die Kommission räumt in einem Zwischenbericht aber selbst ein, dass die Bemühungen, Fact-Checking zu stärken, bislang nicht zum gewünschten Ziel geführt haben. So wird nur ein Teil der EU-Länder durch das entstandene Fact-Checking Netzwerk abgedeckt und die Faktenprüfer sind laut EU "nicht in der Lage, mit der zunehmenden Menge an Online-Nachrichten Schritt zu halten".[5] In einem zweiten Schritt soll deshalb eine "sichere europäische Online-Plattform zum Thema Desinformation" eingerichtet werden. Darüber sollen Faktenchecker aus der gesamten EU miteinander sowie mit unabhängigen Wissenschaftlern vernetzt werden. Wann diese Plattform kommen und wie sie genau ausgestaltet sein wird, ist aber noch unklar.

Aufbau eigener Informationsangebote

Bereits 2015 nahm die EU East StratCom Task Force (Strategisches Kommunikationsteam Ost) die Arbeit auf.[6] 16 Mitarbeiter arbeiten dort an Inhalten und Kampagnen, die in östlich von Europa gelegenen Ländern, mit denen die EU Partnerschaftsabkommen geschlossen hat, verbreitet werden sollen. Damit soll russischen Desinformationskampagnen entgegengewirkt werden (European External Action Service 2018). Nach eigener Aussage hat die Task Force zwischen September 2015 und Frühjahr 2019 rund 4500 Fälle von Desinformation identifiziert. Angesichts des geringen Budgets (2019: 3 Millionen Euro) und der schmalen personellen Ausstattung ist fraglich, wie effektiv und weitreichend die Bemühungen der Task Force sind. Auch werfen solche staatlich initiierten Medienprojekte Fragen nach der Wahrhaftigkeit und Glaubwürdigkeit von ihr verbreiteter Inhalte auf.

Die skizzierten Maßnahmen und Strategien zeigen, dass die EU um eine umfassende Reaktion auf das Problem digitaler Desinformation bemüht ist. Allerdings stellt sich die Frage, wie nachhaltig diese Bemühungen sind. Die Regulierung der großen Plattformen verlässt sich vor allem auf Selbstverpflichtungen und kleinere Plattformen oder auch geschlossene Kommunikationsräume (z.B. Messenger-Dienste oder geschlossene Chat-Räume auf Servern kleinerer Unternehmen), über die ebenfalls Falschinformationen verbreitet werden können, sind von diesen Selbstverpflichtungen ohnehin nicht betroffen. Auch welche nachhaltigen Ergebnisse die Förderung von Medienkompetenz und Fact-Checking haben wird, bleibt abzuwarten. Schließlich handelt es sich um Bereiche, die sich nicht ausschließlich per Dekret regulieren lassen. Die EU wählt wohl auch deshalb eher behutsame Schritte, um einen Konflikt mit einem Grundrecht zu vermeiden: Denn wer gegen Desinformationen vorgeht, läuft auch immer Gefahr, das Recht auf Meinungsfreiheit zu tangieren.

Fußnoten

1.
Einen umfassenden Überblick dazu aus EU-Sicht bietet die Mitteilung der Kommission zur "Bekämpfung von Desinformation im Internet".
2.
Der Verhaltenskodex wurde auch von einigen weiteren Branchenverbänden sowie der Mozilla Foundation unterschrieben. Da diese in den relevanten Bereichen aber eher untergeordnete Rollen spielen, wird sich im Folgenden auf die angestrebten Maßnahmen und ihre praktische Umsetzung durch Google und Facebook konzentriert.
3.
Übersetzung des Autors aus dem "Code of Practice on Disinformation".
4.
Facebook Baseline Report on Implementation of the Code of Practice on Disinformation, S. 4, publiziert am 29.1.2019 (PDF).
5.
Europäische Kommission: Bericht der Kommission über die Umsetzung der Mitteilung "Bekämpfung von Desinformation im Internet: ein europäisches Konzept" vom 5.12.2018 (PDF), S. 7.
6.
Für die Angaben dazu siehe die offizielle EU-Mitteilung "Questions and Answers about the East StratCom Task Force" vom 5.12.2018.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Stephan Mündges für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Publikationen zum Thema

Coverbild fluter Propaganda

Propaganda

Fake News und postfaktisch: Das sind zwei Schlagwörter, die für eine bedenkliche Entwicklung stehe...

Medienkompetenz  - Herausforderung für Politik, politische Bildung und Medienbildung

Medienkompetenz

In welcher digitalen Gesellschaft wollen wir leben? Jetzt wird die Zukunft gestaltet. Wer kann infor...

Coverbild Die offene Gesellschaft und ihre Freunde

Die offene Gesellschaft und ihre Freunde

Platte Lösungen für komplexe Probleme? Anfeindung statt Auseinandersetzung? Fake News statt seriö...

Die informierte Gesellschaft und ihre Feinde

Die informierte Gesellschaft und ihre Feinde

Unterminiert die Digitalisierung die Demokratie? Rasche, verlässliche und zugängliche Informatione...

Zum Shop

Tausende externe Mitarbeiter sichten für Facebook, Youtube, Twitter und weitere Social Media Angebote Fotos und Videos. Der Film erzählt von ihrer belastenden Arbeit, bei der sie im Sekundentakt über das Löschen oder Veröffentlichen entscheiden. Die Kriterien und Vorgaben dieser Arbeit sind eines der am besten geschützten Geheimnisse der Internet Giganten. Wer kontrolliert, was wir sehen und was wir denken?

Jetzt ansehen