Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfangreiches Whitepaper zu Bias in der Künstlichen Intelligenz (KI) veröffentlicht. Unter Bias versteht man Verzerrungen in Daten oder Algorithmen, die zu ungleicher Behandlung von Nutzenden oder Organisationen führen können. Das Dokument bietet eine strukturierte Einführung in Ursachen, Erkennungsmethoden und Maßnahmen zur Reduzierung solcher Verzerrungen.
Das BSI beschreibt verschiedene Bias-Arten, die in allen Phasen des KI-Lebenszyklus auftreten können – von der Datenerhebung über die Modellentwicklung bis hin zur Nutzung. Beispiele reichen von historischem Bias durch veraltete Daten bis zu Interaktionsbias, der durch das Verhalten von Nutzenden entsteht.
Methoden zur Erkennung und Reduzierung
Für die Detektion empfiehlt das Whitepaper qualitative Datenanalysen, statistische Verfahren wie Varianzanalyse und Fairness-Metriken, die Unterschiede im Modellverhalten zwischen Subpopulationen messen. Zur Reduzierung werden drei Ansatzkategorien genannt: Präprozessierung (Datenanpassung vor dem Training), Inprozessierung (Modifikationen während des Trainings) und Postprozessierung (Korrekturen an Modellen oder Ausgaben nach dem Training).
Gewinnen in der Plattform-Ökonomie
Verbindung zu Cybersicherheitsaspekten
Das BSI betont die Wechselwirkung von Bias mit IT-Sicherheitszielen. Verzerrungen können Angriffsflächen für Membership Inference oder Model Extraction Attacken bieten, die sensible Daten oder Modellstrukturen gefährden. Ebenso können sie die Integrität von KI-Systemen beeinträchtigen, etwa durch gezieltes Ausnutzen in Poisoning- oder Evasion-Angriffen.
Die Publikation richtet sich an Entwickler, Anbieter und Betreiber von KI-Systemen. Sie fordert unter anderem die Benennung von Verantwortlichen für Bias-Fragen, kontinuierliche Überprüfung von Datensätzen und die Integration von Bias-Maßnahmen in alle Entwicklungsphasen. Das Ziel: faire, verlässliche und sichere KI-Anwendungen – sowohl im öffentlichen Sektor als auch in der Wirtschaft.


