KI-Systeme lernen aus verschiedensten Datenquellen - Texten, Bildern, Audio und Video oder auch Aufzeichnungen von Sensoren - um Entscheidungen zu treffen. Diese Trainingsdaten spiegeln oft gesellschaftliche Vorurteile und Diskriminierungen wider - z.B. weil sie überwiegend bestimmte gesellschaftliche Gruppen repräsentieren oder historische Ungleichheiten enthalten. Die Folge: KI kann so z. B. rassistische, sexistische oder klassistische Denkmuster reproduzieren.
Debiasing als Gegenmaßnahme?
Debiasing bezeichnet alle Maßnahmen, mit denen Verzerrungen (Bias) in KI-Systemen erkannt, verringert oder ausgeglichen werden. Das Ziel: Die Entscheidungen einer KI sollen möglichst diskriminierungsfrei sein, keine gesellschaftliche Gruppe bevorzugen und transparent sein. Das bedeutet:
möglichst diverse Datensätze
Anpassungen im Algorithmus
kontrollierte Tests auf Fairness
Entscheidungen von KI nachvollziehbar machen
Einbezug der Perspektiven von Gruppen, die von Diskriminierung betroffen sind
Debiasing kann auch scheitern, zum Beispiel beim KI-Tool von Amazon, das die besten Bewerberinnen und Bewerber automatisch erkennen sollte. Aber: Das System bewertete Bewerbungen von Frauen schlechter. Warum? Die KI wurde mit Bewerbungen der letzten zehn Jahren trainiert – meist von Männern, typisch für die Tech-Branche. Der erkannte Bias wurde entfernt – doch andere Verzerrungen konnten nicht ausgeschlossen werden, sodass Amazon das Projekt beendete.