30 Jahre Mauerfall Mehr erfahren
Ein Finger vor schwarzem Hintergrund klickt auf das blaue Logo einer Social-Media-App.

2.5.2019 | Von:
Markus Reuter

Relevanz und Regulierung von Social Bots

Bei aller Aufgeregtheit der Diskussion um automatisierte Desinformation: Es ist schwierig Meinungsroboter ohne größeren Aufwand unzweifelhaft zu erkennen. Doch sind deren Auswirkungen wirklich so gravierend, dass Bots per Gesetz bekämpft werden müssen?

Auf einem Mobiltelefon ist der Twitter Account des amerikanischen Präsidenten Trump geöffnet.Kein Bot - der Twitter Account des US-Präsidenten Donald Trump Lizenz: cc by/3.0/de (CC, Stefan Lampe für bpb.de)

Spätestens seit Donald Trump 2016 die Präsidentschaftswahl in den USA gewonnen hat, grassiert die Angst vor dem Einfluss der Meinungsroboter. Im US-Wahlkampf sollen automatisierte Accounts in sozialen Netzwerken Stimmung gemacht haben. Sehr viele für Donald Trump, deutlich weniger für Hillary Clinton. Die Befürchtung hinsichtlich von Social Bots ist: Wenn automatisierte Accounts einen Kandidaten oder eine Partei bejubeln, dann wird dieser politische Einfluss nicht von dem mit den besten Argumenten und den meisten Anhängern ausgeübt, sondern von dem Aktuer, der am meisten Geld in Technik und Know-How stecken kann. Das könnte eine demokratische Auseinandersetzung verzerren – und ist deshalb nicht wünschenswert. Doch haben Bots wirklich so viel Einfluss, wie man angesichts nervöser Debatten immer wieder meinen könnte? Was sind überhaupt Bots?

Das Wort "Bot" ist die Kurzform des englischen Wortes Robot (Roboter). Im Zusammenhang mit sozialen Medien ist ein Bot ein maschinell gesteuerter Account, der automatisiert Aufgaben erfüllt. Dabei können Bots sehr praktisch und völlig legitim sein. Die Netzpolitik-Redaktion hat zum Beispiel einen Bot, der in regelmäßigen Abständen überprüft, ob auf netzpolitik.org neue Artikel veröffentlicht wurden. Dann postet er Überschrift, den Link und das Artikelbild auf Twitter. Ganz von allein, ohne dass die Redaktion jeden Artikel von Hand rausschicken müsste. Dass hinter diesem Twitter-Roboter kein Mensch steht, wird dabei direkt im Account transparent gemacht.

Guter Bot, böser Bot

Will jemand im größeren Stil Bots einsetzen, benötigt er viele Accounts. Solche Accounts können automatisiert erstellt werden und sind im Internet in Tausenderpaketen gegen Geld erhältlich. Für den Preis der falschen Accounts gilt: Je menschlicher der Bot wirkt, desto teurer wird es. Vier Jahre alte Bots mit Profilbild, Biografie-Text und zahlreichen Freunden sind also mehr wert als der gerade erstellte Bot ohne Bild, ohne Text, ohne Follower und mit einem kryptischen Accountnamen wie "@xrg92120208383" bei Twitter. Die Aktionen von Social-Media-Accounts lassen sich über eine Software steuern. So wird ein Social Bot daraus. Diese können Freundschaftsanfragen bei Facebook stellen, anderen Accounts folgen, Tweets bei Twitter retweeten oder einen Facebook-Post liken.

Einfache Social Bots dienen der künstlichen, maschinellen Relevanzzuweisung. Sie können beispielsweise bestimmte Themen oder Hashtags automatisiert verstärken. Diese künstliche Relevanzerhöhung kann durch die Berichterstattung von Medien ("Auf Twitter ‚trendete‘ Kandidat XY" oder "Politikerin XY hat 100.000 Follower") noch einmal multipliziert werden. Wie oft ein Video auf YouTube angeschaut wurde, lässt sich mit Geld und Know-How genauso manipulieren wie die Menge von Freunden auf Facebook, die Anzahl von Likes bei Instagram oder eben Retweets eines bestimmten Hashtags auf Twitter. Aufwändig programmierte Bots könnten auch mit anderen Accounts interagieren, etwa indem sie auf bestimmte Aussagen mit bestimmten Antworten reagieren. So ein Bot könnte auf einen Tweet "Ich wähle XY" antworten: "Willst du wirklich XY wählen? XY hat hier gelogen, siehe Link". So könnten Bots tausendfach automatisiert Zweifel säen. Diese Spielart der Bots ist auch in Kombination mit sogenannten Fake News, also Falschmeldungen, denkbar.

Entwarnung für Bundestagswahlkampf 2017

Trotz starker Befürchtungen sind solche Arten automatisierter Desinformation gar nicht oder nur in sehr geringem Maßstab im Bundestagswahlkampf 2017 passiert. Meinungsroboter kamen nur vereinzelt zum Einsatz. Vor der Wahl hatten alle Parteien der Nutzung von Social Bots eine Absage erteilt – und sich auch daran gehalten.

Bei der AfD war allerdings eine andere Art der Täuschung zu beobachten: Im Umfeld der Partei tauchten im Wahljahr auf Twitter zahlreiche inoffizielle Unterstützer-Accounts auf, die gezielt Werbung für die Partei machten. Durch eine großangelegte Datenuntersuchung von Tagesspiegel und netzpolitik.org kam heraus, dass die Accounts untereinander und mit der Partei in Kommunikation standen und deren Kanäle signifikant verstärkten. Doch waren es keine Roboter, die diese Armee von pseudonymen Accounts bedienten, sondern echte Personen.

Ein ähnliches Phänomen, bei dem beispielsweise auf Twitter Diskussionen und deren Wahrnehmung manipuliert werden sollen, sind Trollgruppen, die sich über andere Kommunikationsebenen wie beispielsweise die Chat-Plattform Discord organisieren und koordinieren. Eine dieser Gruppen war Reconquista Germanica, die populäre Hashtags mit eigenen, hetzerischen Inhalten flutete. Oftmals reichen für solche koordinierten Aktionen und eine signifikante Wahrnehmbarkeit schon 50-100 Accounts, die von wenigen Menschen gesteuert werden.

Eine weitere Strategie ist der Aufbau von Fake-Influencern. So gelang es eine falsche rechte US-Bloggerin mit dem Namen "Jenna Abrams" aufzubauen, die mehr als 70.000 Follower hatte, von Abgeordneten retweetet und von bedeutenden Zeitungen zitiertwurde. Solche Kunstfiguren, in denen aber jede Menge menschlicher und kreativer Arbeit steckt, können aufgrund ihrer höheren Glaubwürdigkeit deutlich einflussreicher werden als automatisierte Accounts. Koordinierte Aktionen von sogenannten "Sockenpuppen" und falschen Influencern, die von Menschen gesteuert und koordiniert werden, sind deutlich besser in der Lage Stimmungen aufzunehmen und in die Kommunikation einzugreifen oder diese zu stören. Die Grenzen zwischen erlaubter Meinungsäußerung, politischem Campaigning und unerwünschter oder gar illegaler Einflussnahme dürfte allerdings fließend sein, was die Bekämpfung von demokratieschädigender Einflussnahme in diesem Feld besonders schwer macht.

Die Relevanz von Social Bots wird überschätzt

Der Datenjournalist Michael Kreil untersucht Twitter seit Jahren. Er spricht den Social Bots auf dem sozialen Netzwerk keine Relevanz in der politischen Kommunikation zu.[1] Kreil sieht deshalb auch keinen Handlungsbedarf bei der Regulierung von Social Bots - außer der Unterstützung der beobachtenden Forschung, damit diese besser als heute erkennen könne, falls Social Bots tatsächlich einmal eine Rolle spielen würden. Kreil sieht viel mehr Handlungsbedarf bei sogenannten "Dark Ads", also Werbung für oder gegen Parteien, bei der ihr Ursprung nicht überprüfbar ist. Das passiert unter anderem bei der Finanzierung aus dem Ausland. Dies sieht auch Linus Neumann, Sprecher des Chaos Computer Clubs und Sachverständiger für Social Bots im Bundestag, ähnlich: "Bots verzerren eventuell ein bisschen die individuelle Wahrnehmung der Öffentlichkeit, aber das Individuum hat am Tag ungefähr 16 Stunden Aufmerksamkeit, von denen Bots nur winzige Teile und Teilaspekte überhaupt erreichen können."

Wie Kreil und Neumann sieht auch der Social-Media-Analyst Luca Hammer Social Bots als "irrelevant in der politischen Kommunikation" in Deutschland an. "Einen viel größeren Einfluss in der politischen Willensbildung hat das Sprechen über Social Bots." So seien in der Debatte um die EU-Urheberrechtsreform GegnerInnen der Richtlinie fälschlicherweise als Bots bezeichnet worden. Diese Art der Entmenschlichung führe dazu, dass die betroffenen Bürgerinnen und Bürger sowie ihre vorgetragenen politischen Bedenken diskreditiert würden.

Das Problem der Nachweisbarkeit von Bots

Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag definiert Bots folgendermaßen: "Social Bots sind Computerprogramme, die eine menschliche Identität vortäuschen und für manipulative Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren."[2] Das wirft ein weiteres Problem auf: Man kann die Definition wissenschaftlich nicht verwerten. "Wie soll man denn Social Bots von Menschen unterscheiden können, wenn per Definition Social Bots und Menschen nicht unterscheidbar sind?", fragt Kreil.

Viele Wissenschaftler unterstellen den vermeintlichen Social Bots deshalb ein bestimmtes Verhalten ohne dies jedoch belegen zu können. Das Computational Propaganda Research Project am Oxford Internet Institute und mit ihm viele andere Forscherteams verwenden als Kriterium, dass ein Account mehr als 50 Tweets am Tag absetzt. Doch dieses Kriterium erreichen auch Menschen problemlos. Kreil hat herausgefunden, dass es im Bundestag Abgeordnete gibt, die täglich 200 bis 300 Tweets und Interaktionen auf Twitter auslösten – und eben ganz augenscheinlich keine Bots seien.

Probleme in der Erkennung der Social Bots sieht auch Neumann: "Sämtliche bisher entwickelten Verfahren fielen auch bei grober Prüfung durch immense Fehlklassifizierungen auf." Das sieht auch Datenanalyst Hammer so. Er ist davon überzeugt, dass man nur über eine tiefe qualitative Auswertung von Accounts sicher bestimmen könne, ob ein Account ein Social Bot sei. Das werde aber nicht gemacht, da Analysten auf die automatisierte Auswertung setzen würden. Um Social Bots im großen Stil zu erkennen bräuchte es qualitative Untersuchungen, die bei einer großen Zahl an Accounts sehr aufwändig wären. Die schwierige Nachweisbarkeit führt dazu, dass eine Regulierung, die im politischen Raum immer wieder gefordert wird, sich gegen ein Phänomen richten würde, das derzeit von der Wissenschaft nicht zufriedenstellend erkannt werden kann. Weder über Quantität, Qualität noch über die Wirkung von Social Bots gibt es genügend Erkenntnisse.

Plattformen müssen eine unabhängige Auswertung ermöglichen

Hammer sieht die Plattformen erst einmal selbst in der Pflicht gegen Social Bots vorzugehen: "Twitter setzt etwa Machine Learning ein, um verdächtige Accounts zu erkennen und diesen dann eine Aufgabe zu geben." Die Accounts müssen dann sogenannte Captchas lösen oder ihre Telefonnummer verifizieren. Dies führe dazu, dass die "Bot-Betreiber" dazu übergingen, selbst weniger auf Automatisierung als auf Menschen hinter den Accounts zu setzen. Ähnlich sieht das Neumann: "Sofern es für notwendig erachtet wird, Social Bots zu bekämpfen – was zunächst zur Diskussion stehen sollte – kämen kurzfristig wohl nur Sperrungen der Accounts in Frage." Menschen sollten stattdessen in Medienkompetenz und der Anwendung von "journalistischen Standards” geschult werden, damit sie seriöse Äußerungen von unseriösen unterscheiden können – egal ob sie von einem Bot stammen oder nicht.

Michael Kreil lehnt eine Kennzeichnungspflicht, wie sie unter anderem von CDU, SPD und Grünen gefordert wurde, ab, da Kriminelle ihre "Social Bots" sowieso nicht kennzeichnen würden. Auch Hammer ist der Meinung, diese Maßnahme sei nicht zielführend, sondern könnte sogar Spammer mit der Kennzeichnung legitimieren. Stattdessen fordert er, dass Plattformen verpflichtet werden sollten, ihre Programmierschnittstellen stärker zu öffnen, um unabhängigen Forschern bessere Auswertungen rund um Social Bots und Manipulation zu ermöglichen. Um Datenschutzproblemen zu begegnen würden für diese Art der Auswertung auch pseudonymisierte Daten ausreichen.

Was nicht erkannt werden kann, sollte nicht reguliert werden

Das Problem bei der Bekämpfung von Social Bots oder anderen manipulativen Accounts ist, dass eine Regulierung sehr schnell Grundrechte wie die Presse- oder Meinungsfreiheit tangiert – und so die negativen Folgen der Regulierung schwerer wiegen als der derzeit (kaum) festgestellte Schaden für die Demokratien durch diese Taktiken der Desinformation. Auch Neumann vom CCC findet, dass andere Ideen wie eine "Personalausweispflicht im Internet” das Potenzial für einen immensen Flurschaden hätten. Die breite und zuweilen nervöse Debatte um Fake News und Social Bots hat Deutschland für das Thema sensibilisiert. Eine Regulierung gegen Bots scheint beim bisherigen Stand der Wissenschaft viel zu gefährlich: Sie könnte schnell auch nützliche und sozial wünschenswerte Anwendungen stören, die Meinungsfreiheit beschränken und Innovationen behindern.

Fußnoten

1.
Für diesen Beitrag hat der Autor Anfang April 2019 Angaben und Statements von Experten eingeholt, die hier wiedergegeben werden.
2.
Kind, Sonja et al.: Social Bots. TA-Vorstudie, Berlin 2017, S. 11.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Markus Reuter für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Publikationen zum Thema

Coverbild fluter Propaganda

Propaganda

Fake News und postfaktisch: Das sind zwei Schlagwörter, die für eine bedenkliche Entwicklung stehe...

Medienkompetenz  - Herausforderung für Politik, politische Bildung und Medienbildung

Medienkompetenz

In welcher digitalen Gesellschaft wollen wir leben? Jetzt wird die Zukunft gestaltet. Wer kann infor...

Coverbild Die offene Gesellschaft und ihre Freunde

Die offene Gesellschaft und ihre Freunde

Platte Lösungen für komplexe Probleme? Anfeindung statt Auseinandersetzung? Fake News statt seriö...

Die informierte Gesellschaft und ihre Feinde

Die informierte Gesellschaft und ihre Feinde

Unterminiert die Digitalisierung die Demokratie? Rasche, verlässliche und zugängliche Informatione...

Zum Shop

Tausende externe Mitarbeiter sichten für Facebook, Youtube, Twitter und weitere Social Media Angebote Fotos und Videos. Der Film erzählt von ihrer belastenden Arbeit, bei der sie im Sekundentakt über das Löschen oder Veröffentlichen entscheiden. Die Kriterien und Vorgaben dieser Arbeit sind eines der am besten geschützten Geheimnisse der Internet Giganten. Wer kontrolliert, was wir sehen und was wir denken?

Jetzt ansehen