Immer häufiger geraten große KI-Sprachmodelle ins Visier gezielter Angriffe – nicht durch technische Schwachstellen im Code, sondern durch manipulierte Eingaben. Solche sogenannten „Evasion Attacks“ sind eine neue Bedrohungsform, auf die das Bundesamt für Sicherheit in der Informationstechnik (BSI) nun mit einem Praxisleitfaden reagiert hat. Die Veröffentlichung mit dem Titel Evasion Attacks on LLMs – Countermeasures in Practice (PDF) richtet sich vor allem an Unternehmen, Behörden und IT-Fachleute, die Sprachmodelle wie GPT von OpenAI im Einsatz haben.
Angriffe durch die Eingabe, nicht durch das Modell
Evasion Attacks erfolgen nicht auf technischer Ebene des Modells, sondern zielen auf dessen Verhalten im Betrieb. Angreifende nutzen Methoden wie Prompt Injections, Jailbreaks oder Adversarial Attacks, um Sicherheitsmechanismen zu umgehen oder das gewünschte Verhalten eines KI-Modells zu manipulieren. Die große Herausforderung liegt darin, dass diese Angriffe nicht durch klassische Sicherheitsmechanismen wie Firewalls oder Antivirensoftware erkannt werden.
Gewinnen in der Plattform-Ökonomie
Empfehlungen für mehr Sicherheit in der Praxis
Der Leitfaden des BSI bietet eine Vielzahl praktischer Maßnahmen, die sich unkompliziert in bestehende Systeme integrieren lassen. Dazu zählen etwa eindeutig formulierte Systemprompts, das Filtern externer Inhalte oder das Einholen einer expliziten Bestätigung der Nutzer vor der Ausführung kritischer Funktionen durch das Modell. Eine Checkliste sowie konkrete Anwendungsbeispiele erleichtern die Umsetzung für IT-Abteilungen. Ziel ist es, das Risiko erfolgreicher Angriffe zu minimieren und potenzielle Schäden zu begrenzen.
Adressaten: Unternehmen, Behörden und IT-Teams
Zwar richtet sich die BSI-Publikation vorrangig an IT-Verantwortliche in Unternehmen und öffentlichen Einrichtungen, doch auch fortgeschrittene Anwender können von den Handlungsempfehlungen profitieren. Durch einen systematischen Ansatz zur Absicherung großer Sprachmodelle will das BSI nicht nur auf aktuelle Risiken reagieren, sondern eine Basis für robuste, sichere KI-Anwendungen in Deutschland schaffen.



