Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Social Bots: Zwischen Phänomen und Phantom | Digitale Desinformation | bpb.de

Digitale Desinformation Was ist Digitale Desinformation Desinformation: Vom Kalten Krieg zum Informationszeitalter Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft? Fake News als aktuelle Desinformation Propaganda 4.0 von Europas Rechtspopulisten Halbwahrheiten. Zu einem Instrument der Desinformation Desinformation und der Krieg in der Ukraine Russlands Kommunikationsstrategien im Krieg gegen die Ukraine Prorussische Narrative in Indiens Sozialen Medien Nachrichten aus dem Kreml Desinformation und Bundestagswahl 2021 Bundestagswahl und digitale Desinformation IV Bundestagswahl und digitale Desinformation III Bundestagswahl und digitale Desinformation II Das Narrativ vom Wahlbetrug Hybride Bedrohung als internationale Herausforderung Selbstverpflichtungen für einen fairen digitalen Wahlkampf Transparenz als Mittel gegen die digitale Verbreitung von Desinformation Bundestagswahl und digitale Desinformation I Bundestagswahl und digitale Desinformation V Ordnungsbildung in Online-Kommunikationsräumen Meinungsbildung- und Informationsvermittlung Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl Frankreichs Gesetzgebung gegen die Verbreitung von Falschnachrichten Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung Desinformation - Der globale Blick Folge 1 – Der Hack Folge 2 – Die Briefwahl Folge 3 – Die Operation Folge 4 – Der Ernstfall Folge 5 – Die Netzwerke Folge 6 – Das Experiment Folge 7 – Der Ausweg Folge 8 – Der Lichtblick Impressum Digitale Desinformation und Soziale Medien Wie sollen Plattformen mit Falschmeldungen verfahren? Über die "Messengerisierung" der Politik Neue Herausforderung "Dark Social"? Social Bots: Zwischen Phänomen und Phantom Relevanz und Regulierung von Social Bots Wie umgehen mit Digitaler Desinformation? Lügen im Netz: Sich davor schützen und andere aufklären Kritische Medienkompetenz Strategien der Europäischen Union gegen Desinformation Möglichkeiten und Grenzen von Faktenchecks Schutzmaßnahmen der Internetkonzerne Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News Redaktion

Social Bots: Zwischen Phänomen und Phantom

Tobias R. Keller

/ 7 Minuten zu lesen

Social Bots sind Computerprogramme, die auf Social Media Plattformen eingesetzt werden, um unterhaltsamen Nonsens, kostengünstig Werbung, aber auch politische Inhalte zu verbreiten. Wenn unklar ist, welches politische Ziel ein Social Bot verfolgt, wird die Angst vor einer Einflussnahme Unbekannter auf politische Prozesse geschürt. Die davon ausgehende Gefahr lässt sich relativieren: Sie ist vor allem der Mensch hinter den Social Bots.

Das Programm Eliza von Joseph Weizenbaum sollte die Möglichkeiten der Kommunikation zwishcen einem Menschen und einem Computer über natürliche Sprache aufzeigen. (© Public Domain)

Social Bots werden Computerprogramme genannt, die auf Social Media Plattformen wie beispielsweise Twitter aktiv sind: Sie erstellen oder verbreiten (teil-)automatisiert Inhalte, interagieren mit Menschen über diese Plattformen und verfolgen teilweise das Ziel, menschliches Verhalten zu imitieren oder andere Menschen zu beeinflussen. Einerseits sind sie ein altes Phänomen, das in der Informatik seit Jahrzehnten untersucht wird, andererseits können sie aber auch als neues Phantom betrachtet werden, da Social Media Plattformen ein ideales Habitat für sie bieten, um sie unter anderem auch in politischen Diskursen einzusetzen.

Social Bots als altes Phänomen

Bots steht als Kurzform für Software-Roboter, die in der Informatik seit Jahrzehnten kreiert und untersucht werden. Einer der ersten Bots, der chatten konnte, war Joseph Weizenbaum’s ELIZA. ELIZA imitierte die Kommunikation eines Psychiaters, der nach Rogers praktizierte, was bedeutet, dass sie das vom Menschen Gesagte wiederholte und ihn ermutigte, viel von sich preiszugeben. Obwohl diese Art der Kommunikation den Turing-Test zur Unterscheidung von Mensch und Maschine vermutlich nicht bestanden hätte, befürchteten Psychiater damals von Bots ersetzt zu werden. Seit Beginn also zeichnete sich ihr Potential ab – und das trotz ihrer geringen Reichweite und Überzeugungskraft. Seit dem Aufkommen des Internets und insbesondere von Social Media Plattformen lassen sich Bots einsetzen und unzählige Menschen mit ihrer Kommunikation über Landesgrenzen hinweg erreichen. Social Media Plattformen wie Twitter dienen ihnen als ideales Habitat dafür: Über die öffentlich zugänglichen Schnittstellen dieser Plattform lassen sich Social Bots darauf implementieren. Dafür reichen basale Programmierkenntnisse und es lässt sich dank öffentlich zugänglicher Anleitungen und Vorlagen relativ einfach bewerkstelligen. Je nach Programmierung, können sie voll- oder teilautomatisiert auf Plattformen agieren.

Profitorientierte Unternehmen setzen beispielsweise Chatbots ein, um Kundenanfragen automatisiert zu beantworten. Auf Wikipedia werden tausende von Social Bots eingesetzt, um Einträge automatisiert zu bearbeiten. Auf Twitter werden sie auch genutzt, um täglich populäre Zitate zu verschicken, unterhaltsame Tweets automatisiert zu erstellen oder automatisiert Tweets mit bestimmten Hashtags weiterzuverbreiten. Sie werden auch dazu eingesetzt, um Beiträge vollautomatisiert zu retweeten, sofern ein gewisser Hashtag vorkommt, oder sie folgen gewissen Twitternutzenden, um ihre Popularität größer erscheinen zu lassen als sie tatsächlich ist. Social Bots in ihrer Gesamtheit sind Teil der Entwicklung zu mehr automatisierten Prozessen im Internet im Allgemeinen, aber auch auf Social Media Plattformen im Spezifischen.

Social Bots als neues Phantom

Da sie Computerprogramme sind, schränkt sich ihr Handeln nicht nur auf ein Themenfeld ein; sie lassen sich für verschiedenste Aufgaben in verschiedensten Bereichen einsetzen. Während sie als Chatbots deklariert Kunden über ihre Aufgabe und ihr Wesen im Klaren lassen und nicht als gefährlich betrachtet werden, können sie aber auch als Menschen getarnt in politische Diskurse eingreifen, wodurch sie die öffentliche Meinung verzerren und manipulativ in demokratische Prozesse wirken könnten.

Denn: Social Bots müssen nicht als solche gekennzeichnet werden. Wird ein Porträt eines Menschen für das Profilbild des Social Bots und ein (menschlicher) Name verwendet, sind sie aufgrund ihrer Präsenz potentiell nicht als Social Bot zu entlarven. In ihrer Kommunikation werden sie von Menschen als glaubwürdig, interaktiv und kompetent angesehen und können täuschend menschlich wirken. Wenn also Social Bots koordiniert politische Aussagen verbreiten, kann es so scheinen, als ob das von ihnen verbreitete Anliegen ein authentisches und relevantes ist, das in der Politik berücksichtigt werden sollte. Das schürt Angst und lässt Social Bots wie ein Phantom wirken: Sind die Social Media Nutzenden, mit denen ich mich über Politik unterhalte oder die einen politischen Beitrag mit tausenden von "Likes" populär lassen werden, Menschen oder Social Bots?

Nicht nur machen Social Bots 9 bis 15 Prozent aller Twitternutzenden aus, sie wurden auch in politischen Diskursen weltweit entdeckt: Beispielsweise haben sie rund 20 Prozent des Traffics vor den US-Wahlen 2016 generiert, haben in der Brexit-Debatte die "Leave EU"-Kampagne unterstützt, wurden mit Fehlinformationen in Verbindung gebracht oder haben in der Bundestagswahl 2017 politische Parteien populärer wirken lassen, als sie sind, und automatisiert Tweets verbreitet. Diese Zahlen und die mitklingenden, potenziellen Gefahren für die Demokratie müssen jedoch in den entsprechenden Kontext gesetzt werden.

Social Bots als aktuelle Herausforderung

Erstens ist es methodisch sehr schwierig, Social Bots zu entdecken. Sofern sie sich nicht selbst als solche bezeichnen, bleibt stets eine Ungewissheit, ob es sich um einen Bot oder um einen Menschen handelt. Um sie dennoch zu identifizieren, werden ganz unterschiedliche Verfahren angewendet: Von Ansätzen, die einen einzelnen Indikator wie die Aktivität eines Accounts evaluiert bis hin zu Methoden, die über tausend Variablen berücksichtigen. Während die einen Methoden sehr transparent das Vorgehen beschreiben, sind andere weniger transparent, was das methodische Dilemma in diesem Forschungsgebiet widerspiegelt: Methoden mit erhöhter Transparenz spielen den Bot-Entwicklenden in die Hände, wodurch sie Social Bots so programmieren können, dass sie die Bot-entdeckenden Verfahren umgehen können. Verringerte Transparenz aber führt dazu, dass unklar ist, ob die Methode Bots zu entdecken vermag und wenn ja, was für Typen von Bots. Das führt zu unterschiedlichen Ergebnissen zur Anzahl und zum Einfluss von Social Bots auf politische Prozesse auf Social Media Plattformen. Es bleibt also ein Katz- und Maus-Spiel zwischen denjenigen, die Bots kreieren, und denjenigen, die sie zu entdecken versuchen.

Zweitens sollten Social Bots nicht als autonome Akteure betrachtet werden. Hinter jedem Social Bot steckt ein Mensch. Sie können einen Social Bot vollautomatisiert – oder nur halbautomatisiert agieren lassen. Wenn ein Mensch viel Einfluss auf die Aktionen eines oder mehrerer Bots übernimmt, kann deren Verhalten nur schwer von koordinierten Aktionen echter Menschen unterschieden werden. Das betrifft das gesamte Spektrum von digitalem "Astroturfing": Wenn authentische oder gekaufte Sympathisanten, Menschen mit mehreren Nutzerkonten (sogenannten "Sockpuppets") oder Mitarbeitende von "Click Farms" engagiert werden – oder eben Social Bots eingesetzt werden, um Social Media Beiträge oder Akteure populärer erscheinen zu lassen, als dass sie eigentlich sind, lässt sich das nur sehr schwer voneinander unterscheiden. Zentral bleiben also (auch) die Fragen, wer welche Ziele verfolgt und wie die Menschen dahinter entdeckt werden könnten.

Drittens sind Social Bots auf Plattformen aktiv, worauf sie weniger Personen erreichen als sie beispielsweise über traditionelle Medienanbieter wie Zeitungen oder das Fernsehen würden. Einerseits bedeutet dies, dass ihr Einfluss auf politische Prozesse lediglich ihr Netzwerk betrifft, andererseits vor allem Social Media Nutzende. Wenn Meinungsführer aus dem Journalismus oder der Politik jedoch Beiträge von Social Bots weiterverbreiten oder die Anzahl "Likes" manipuliert von Social Bots als öffentliche Meinung fehlinterpretieren, könnten Social Bots dennoch eine breitere Schicht der Bevölkerung erreichen und politische Prozesse manipulieren. Es benötigt also auch eine gesellschaftliche Sensibilisierung für die Problematik.

Social Bots als altes Phänomen werden weiterhin Teil der digitalen Welt bleiben, da sie nicht per se eine Gefahr darstellen und deshalb auch nicht per se zu verbieten sind. Als Computerprogramme, die teil- oder vollautomatisiert Beiträge absetzen oder weiterverbreiten werden sie weiterhin aktiv bleiben; als Kunstform, Werbung oder Hilfe. Imitieren sie Menschen und versuchen zentrale politische Prozesse zu manipulieren, könnten sie auch zur Gefahr werden. Sie zu entdecken bleibt jedoch eine Herausforderung, weshalb ihr tatsächlicher Einfluss schwierig einzuschätzen ist – sie wirken vor allem wie ein Phantom. Das fordert WissenschaftlerInnen, Social Media Betreibende sowie die Nutzenden selbst: In der Wissenschaft ist man gefordert, Methoden zu entwickeln, die Social Bots und die Akteure dahinter zu entdecken vermögen. Die Nutzenden mit hoher Reichweite wie beispielsweise JournalistInnen und PolitikerInnen von Social Media Plattformen sollten überlegt Beiträge unklarer Herkunft oder mit zweifelhaftem Inhalt teilen – oder eben nicht weiterverbreiten. Schliesslich sind auch die Betreibenden der Plattformen aufgerufen, den manipulativen Einsatz von Social Bots zu verhindern. PolitikerInnen können hierbei unterstützend wirken, indem sie beispielsweise Social Media Plattformen weiterhin kritisch beobachten, bei Bedarf deren Regulierung fordern und selbst vorbildlich auf den Plattformen agieren.

Fussnoten

Fußnoten

  1. Vgl. Ferrara, E. et al.: The rise of social bots. In: Communications of the ACM, 7/2016, S. 96-104.

  2. Vgl. Subrahmanian, V.S. et al.: The DARPA Twitter Bot Challenge. In: Computer, 6/2016, S. 38-46.

  3. Weizenbaum, J.: Computer power and human reason: From judgment to calculation. San Francisco 1976.

  4. Vgl. Saygin, A. P./Cicekli, I./Akman, V.: Turing Test: 50 Years Later. In: Minds and Machines, 4/2000, S. 463-518.

  5. Vgl. Edwards, S. et al.: Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter. In: Computers in Human Behavior, 33, 2014, S. 72-376.

  6. Vgl. Everett, R. M./Nurse, J. R. C./Erola, A.: The anatomy of online deception. In: Ossowski, S. (Hg.): The 31st Annual ACM Symposium,, 2016, S. 1115–1120.

  7. Vgl. Varol, O. et al.: Online Human-Bot Interactions: Detection, Estimation, and Characterization. In: Proceedings of the Eleventh International AAAI Conference on Web and Social Media, S. 280–289 (Externer Link: PDF).

  8. l. Woolley, S. C./Howard, P. N. (Hg.): Computational propaganda: Political parties, politicians, and political manipulation on social media. New York 2019.

  9. Vgl. Bessi, A./Ferrara, E.: Social Bots Distort the 2016 US Presidential Election Online Discussion. In: First Monday, 11/2016.

  10. Vgl. Bastos, M. T./Mercea, D.: The Brexit Botnet and User-Generated Hyperpartisan News. In: Social Science Computer Review, 1/2019, S. 38-54.

  11. Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787.

  12. Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787.

  13. Vgl. Kovic, M. et al.: Digital astroturfing in politics: Definition, typology and countermeasures. In: Studies in Communication Sciences, 1/2018, S. 69-85.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Tobias R. Keller für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

ist Assistent am Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich.