Kaum auf dem Markt, schon im Visier von Cyberkriminellen: Die KI-Modelle DeepSeek und Qwen werden laut einer aktuellen Analyse von Check Point Research gezielt genutzt, um schädlichen Code zu erstellen und Schutzmechanismen zu umgehen. Insbesondere durch Jailbreaking-Techniken gelingt es, Sicherheitsmaßnahmen der Modelle außer Kraft zu setzen.
KI-Modelle mit geringen Schutzmaßnahmen
Während ChatGPT in den letzten Jahren erhebliche Fortschritte bei der Implementierung von Sicherheitsvorkehrungen gemacht hat, scheinen DeepSeek und Qwen weniger restriktiv zu sein. Das lockt insbesondere wenig versierte Angreifer an, die vorhandene Skripte oder Tools ohne tiefgehendes technisches Wissen nutzen.
Bereits jetzt kursieren detaillierte Anleitungen, wie sich diese Modelle manipulieren lassen. Ähnlich wie bei früheren Versuchen, ungefilterte Versionen von ChatGPT über diverse Online-Repositories zu verbreiten, ist davon auszugehen, dass auch für DeepSeek und Qwen bald modifizierte, ungesicherte Versionen auftauchen.
Wie Cyberkriminelle die KI-Modelle nutzen
Check Point Research hat mehrere konkrete Beispiele für den Missbrauch der neuen KI-Modelle identifiziert:
- Entwicklung von Infostealern: Angreifer nutzen Qwen, um Programme zu erstellen, die sensible Nutzerdaten ausspähen.
- Jailbreaking von KI-Modellen: Über verschiedene Techniken, darunter der „Do Anything Now“-Ansatz, lassen sich Inhalte generieren, die sonst von Sicherheitsmaßnahmen blockiert würden.
- Umgehung von Bankensicherheiten: Erste Berichte zeigen, dass DeepSeek genutzt wird, um Anti-Fraud-Systeme von Banken zu umgehen.
- Optimierung von Spam-Kampagnen: Durch die Kombination mehrerer KI-Modelle – ChatGPT, Qwen und DeepSeek – steigern Angreifer die Effizienz ihrer Spam-Bots.
Fazit: Schutzmaßnahmen dringend erforderlich
Die rasante Entwicklung neuer KI-Modelle bietet Cyberkriminellen immer mehr Möglichkeiten, ihre Angriffe zu verfeinern. Unternehmen und Organisationen sollten daher verstärkt auf präventive Schutzmaßnahmen setzen und KI-gestützte Sicherheitssysteme weiterentwickeln. Andernfalls droht eine Zunahme von Betrugsfällen, Datenlecks und Cyberangriffen durch KI-generierte Inhalte.