Es bezeichnet den Versuch, die Antworten von KI-Systemen gezielt mit falschen Trainingsdaten zu manipulieren. KI-Systeme bewerten die Qualität von Informationen u.a. anhand dessen, wie häufig sie vorkommen. Großangelegte Desinformationskampagnen können daher auch die Trainingsdaten von Chatbots beeinflussen. Dabei geht es um LLMs ("Large Language Models"), also Sprachmodelle wie ChatGPT. Die Unternehmen hinter den Chatbots können zwar problematische Quellen blockieren, aber weil ständig neue Websites entstehen, ist es schwer, Schritt zu halten. Teilweise werden propagandistische Narrative von den Chatbots nicht erkannt und übernommen.
Das sagt die Studienlage
Studien zu russischer Propaganda: Studien von Externer Link: NewsGuard und NORDIS stellen fest, dass Chatbots (u.a. ChatGPT, Gemini, Copilot) Websites des prorussischen "Pravda-Netzwerks" als Quellen nutzen. Das Netzwerk verbreitet Kreml-Propaganda.
Elon Musk und Grok: Die Trainingsdaten von LLMs werden nicht nur verdeckt durch Desinformationsnetzwerke beeinflusst. Elon Musk forderte seine Follower auf X, ehemals Twitter, dazu auf, "politisch unkorrekte Fakten" zu posten, die zum Training seines Chatbots Grok genutzt werden sollten. In Folge dessen verbreitete Grok zeitweise u.a. antisemitische Narrative.
Mimikama empfiehlt vier Maßnahmen
Bewusstsein schaffen: KI-Chatbots sind nicht neutral. In ihren Quellen können Desinformationen vorkommen. Die Aussagen basieren auf ihren Trainingsdaten.
Medienbildung und KI-Kompetenz stärken.
KI-Anbieter müssen politisch reguliert und problematische Quellen offengelegt sowie blockiert werden.
Transparenz in der KI-Forschung durch öffentlich einsehbare Trainingsdaten.