Themen Mediathek Shop Lernen Veranstaltungen kurz&knapp Die bpb Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen Mehr Artikel im

AI-Companion | Ausgewählte Beiträge von Instagram | bpb.de

AI-Companion Stichwort

/ 2 Minuten zu lesen

AI-Companions (zu Deutsch "KI-Begleiter") sind Chatbots, die Userinnen und Usern emotionale Unterstützung und Gesellschaft bieten. Sie imitieren auch romantische oder sexuelle Beziehungen.

Künstliche Intelligenz lernt, im Laufe des Chats personalisierte Antworten zu geben und so eine emotionale Verbindung zu simulieren. AI Companions sind zum Teil direkt in Social-Media-Plattformen eingebettet oder laufen über eigene Anbieter.

Therapie mit Künstlicher Intelligenz?

KI-Chatbots bieten eine vermeintlich niedrigschwellige Anlaufstelle bei Herausforderungen im Alltag. Anders als Psychotherapeutinnen und -therapeuten sind sie schnell und dauerhaft verfügbar. Aber ihr Einsatz birgt Gefahren:

  • KIs greifen auf alle möglichen Quellen zurück – nicht nur auf psychologische Fachliteratur.

  • Chatbots stützen in der Regel die Perspektive ihrer Gesprächspartnerinnen und -partner. Das kann schädlich sein, z.B. wenn es um Suizidgedanken geht.

  • Daten zum Gesundheitszustand einer Person gelten als besonders sensibel. Es ist unklar, wie die Unternehmen mit den eingegebenen Daten umgehen.

Anders verhält es sich mit eigens entwickelten KI-Anwendungen aus psychologischen Forschungsinstituten. Ein Beispiel: Das Zentralinstitut für seelische Gesundheit Mannheim (ZI) hat eine KI-App für Jugendliche entwickelt, die Stimmungen abfragt und dazu passende Übungen empfiehlt. Die App wird aktuell getestet. Erste Zwischenergebnisse legen nahe, dass die jugendlichen Testerinnen und Tester vom Einsatz der KI profitieren. Die App stellt keinen Ersatz für eine Therapie dar, sondern soll präventiv gegen psychische Krankheiten wirken.

Schülerinnen und Schüler aufklären

Wie funktioniert KI: Mit Schülerinnen und Schülern darüber sprechen, dass Chatbots Wahrscheinlichkeitsrechner sind und dass Antworten der KI inhaltlich falsch sein können.

Parasoziale Beziehung: Schülerinnen und Schüler dafür sensibilisieren, dass hinter einem AI Companion kein Mensch steckt. Eine emotionale Bindung zu einem Chatbot ist immer einseitig.

Datenschutz: Die Chatinhalte können von den Anbietern weiterverarbeitet werden. Sensible Daten werden nicht ausreichend geschützt.

Über Einsamkeit sprechen: Liefert Möglichkeiten zur niedrigschwelligen Anschlusskommunikation, z. B. die Nummer gegen Kummer (116 111).

Denn ein Chatbot ersetzt keine Psychotherapie. Wer in einer Krisensituation steckt, sollte sich psychologische Hilfe suchen.

Weitere Inhalte