Cyberkriminelle entdecken generative Künstliche Intelligenz zunehmend als Werkzeug für digitale Angriffe. Besonders perfide ist eine neue Methode namens „Grokking“, vor der der europäische IT-Sicherheitsanbieter ESET nun eindringlich warnt. Dabei bringen Angreifer KI-Chatbots dazu, manipulierte Links über scheinbar vertrauenswürdige Accounts in sozialen Netzwerken zu verbreiten – mit dem Ziel, sensible Nutzerdaten zu stehlen.
Neue Gefahr durch versteckte Befehle
Hinter dem Begriff „Grokking“ verbirgt sich eine spezielle Form der sogenannten Prompt-Injection. Angreifer platzieren in Beiträgen oder Datenfeldern unsichtbare Befehle, die eine KI unbewusst ausliest und weiterverarbeitet. Wird der Bot etwa gebeten, einen Beitrag zu analysieren oder zu kommentieren, gibt er den darin versteckten Phishing-Link automatisch weiter – und zwar im Tonfall eines vertrauenswürdigen Profils.
Ein konkreter Fall auf der Plattform X verdeutlicht die Tragweite: Der offizielle KI-Bot „Grok“ wurde durch eine versteckte URL dazu gebracht, eine gefährliche Website in einem Antwort-Kommentar zu teilen. Für den Nutzer sah der Link zunächst wie eine legitime Quelle aus – mit potenziell fatalen Folgen.
Gewinnen in der Plattform-Ökonomie
Systemische Schwachstelle in Sprachmodellen
ESET-Experte Michael Klatte betont, dass das Problem nicht auf eine Plattform beschränkt sei. „Diese Technik kann überall funktionieren, wo Sprachmodelle eingesetzt werden“, warnt er. Denn KI-Systeme verfügen nicht über ein Verständnis für böswillige Absichten – sie verarbeiten Inhalte neutral und damit auch manipulative Eingaben.
Laut einer Gartner-Schätzung waren bereits im vergangenen Jahr rund 32 Prozent der Unternehmen von Angriffen durch Prompt-Injection betroffen. Mit zunehmender Integration von Sprachmodellen in digitale Dienste wächst auch die potenzielle Angriffsfläche.
Was Nutzer jetzt beachten sollten
ESET ruft Internetnutzer zur erhöhten Wachsamkeit auf – auch gegenüber scheinbar seriösen KI-Antworten. Die Sicherheitsexperten empfehlen:
- Keine Links aus Chatbot-Antworten ungeprüft öffnen
- Auch bei offiziellen Bots kritisch bleiben
- Systeme regelmäßig aktualisieren
- Zwei-Faktor-Authentifizierung aktivieren
- Passwortmanager einsetzen
- Originalquellen heranziehen, statt sich auf automatisch generierte Inhalte zu verlassen
„Der verantwortungsvolle Umgang mit KI ist entscheidend“, so Klatte. Besonders auf sozialen Plattformen müsse das Vertrauen in automatische Inhalte überdacht werden – gerade wenn es um weiterführende Links gehe.


