ANZEIGE

ANZEIGE

Cybersecurity: BSI warnt vor Bias-Risiken in künstlicher Intelligenz

Symbolik zum AI Act und künstlicher Intelligenz
Foto: Stefan Keller / Pixabay

Key takeaways

Das BSI hat ein Whitepaper zu Bias in KI-Systemen vorgestellt. Es erklärt Ursachen, Erkennungsmethoden und Reduktionsstrategien für Verzerrungen und warnt vor deren Einfluss auf Cybersicherheit. Die Empfehlungen richten sich an Entwickler, Anbieter und Betreiber, um faire und sichere KI-Anwendungen zu gewährleisten.

Lesezeit ca. 2 Minuten

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein umfangreiches Whitepaper zu Bias in der Künstlichen Intelligenz (KI) veröffentlicht. Unter Bias versteht man Verzerrungen in Daten oder Algorithmen, die zu ungleicher Behandlung von Nutzenden oder Organisationen führen können. Das Dokument bietet eine strukturierte Einführung in Ursachen, Erkennungsmethoden und Maßnahmen zur Reduzierung solcher Verzerrungen.

Das BSI beschreibt verschiedene Bias-Arten, die in allen Phasen des KI-Lebenszyklus auftreten können – von der Datenerhebung über die Modellentwicklung bis hin zur Nutzung. Beispiele reichen von historischem Bias durch veraltete Daten bis zu Interaktionsbias, der durch das Verhalten von Nutzenden entsteht.

Methoden zur Erkennung und Reduzierung

Für die Detektion empfiehlt das Whitepaper qualitative Datenanalysen, statistische Verfahren wie Varianzanalyse und Fairness-Metriken, die Unterschiede im Modellverhalten zwischen Subpopulationen messen. Zur Reduzierung werden drei Ansatzkategorien genannt: Präprozessierung (Datenanpassung vor dem Training), Inprozessierung (Modifikationen während des Trainings) und Postprozessierung (Korrekturen an Modellen oder Ausgaben nach dem Training).

Anzeige

Gewinnen in der Plattform-Ökonomie

von Alexander Graf – der Leitfaden für Handelsentscheider
★★★★☆ 4,4 / 5 Sterne
Jetzt bei Amazon entdecken

Verbindung zu Cybersicherheitsaspekten

Das BSI betont die Wechselwirkung von Bias mit IT-Sicherheitszielen. Verzerrungen können Angriffsflächen für Membership Inference oder Model Extraction Attacken bieten, die sensible Daten oder Modellstrukturen gefährden. Ebenso können sie die Integrität von KI-Systemen beeinträchtigen, etwa durch gezieltes Ausnutzen in Poisoning- oder Evasion-Angriffen.

Die Publikation richtet sich an Entwickler, Anbieter und Betreiber von KI-Systemen. Sie fordert unter anderem die Benennung von Verantwortlichen für Bias-Fragen, kontinuierliche Überprüfung von Datensätzen und die Integration von Bias-Maßnahmen in alle Entwicklungsphasen. Das Ziel: faire, verlässliche und sichere KI-Anwendungen – sowohl im öffentlichen Sektor als auch in der Wirtschaft.

Ähnliche Artikel

Must-read

ANZEIGE
JANGER E-Commerce
Wer als Shop-Betreiber, E-Commerce Manager oder Gründer einer E-Commerce-Marke erfolgreich werden möchte, muss drei grundsätzliche Faktoren, Verkaufspsychologie, Außendarstellung und Design sowie Nutzererlebnis, verinnerlichen.

Top-News

Sponsored

Sponsored