ANZEIGE

ANZEIGE

KI-Bots als Phishing-Helfer: Experten warnen vor neuer Betrugsmasche

Mann mit Kapuzenpullover und verdecktem Gesicht vor einem Laptop als Symbol eines Online-Betrügers
Foto: Marcin Paśnicki / Pixabay

Key takeaways

Cyber-Security-Experten warnen vor einer neuen Phishing-Methode namens „Grokking“. Dabei bringen Angreifer KI-Chatbots dazu, schädliche Links über offizielle Accounts in sozialen Netzwerken zu verbreiten. Die Betrugsmasche nutzt die Schwächen von Sprachmodellen aus – Nutzer sollten KI-generierten Inhalten gegenüber deutlich misstrauischer werden.

Lesezeit ca. 2 Minuten

Cyberkriminelle entdecken generative Künstliche Intelligenz zunehmend als Werkzeug für digitale Angriffe. Besonders perfide ist eine neue Methode namens „Grokking“, vor der der europäische IT-Sicherheitsanbieter ESET nun eindringlich warnt. Dabei bringen Angreifer KI-Chatbots dazu, manipulierte Links über scheinbar vertrauenswürdige Accounts in sozialen Netzwerken zu verbreiten – mit dem Ziel, sensible Nutzerdaten zu stehlen.

Neue Gefahr durch versteckte Befehle

Hinter dem Begriff „Grokking“ verbirgt sich eine spezielle Form der sogenannten Prompt-Injection. Angreifer platzieren in Beiträgen oder Datenfeldern unsichtbare Befehle, die eine KI unbewusst ausliest und weiterverarbeitet. Wird der Bot etwa gebeten, einen Beitrag zu analysieren oder zu kommentieren, gibt er den darin versteckten Phishing-Link automatisch weiter – und zwar im Tonfall eines vertrauenswürdigen Profils.

Ein konkreter Fall auf der Plattform X verdeutlicht die Tragweite: Der offizielle KI-Bot „Grok“ wurde durch eine versteckte URL dazu gebracht, eine gefährliche Website in einem Antwort-Kommentar zu teilen. Für den Nutzer sah der Link zunächst wie eine legitime Quelle aus – mit potenziell fatalen Folgen.

Anzeige

Gewinnen in der Plattform-Ökonomie

von Alexander Graf – der Leitfaden für Handelsentscheider
★★★★☆ 4,4 / 5 Sterne
Jetzt bei Amazon entdecken

Systemische Schwachstelle in Sprachmodellen

ESET-Experte Michael Klatte betont, dass das Problem nicht auf eine Plattform beschränkt sei. „Diese Technik kann überall funktionieren, wo Sprachmodelle eingesetzt werden“, warnt er. Denn KI-Systeme verfügen nicht über ein Verständnis für böswillige Absichten – sie verarbeiten Inhalte neutral und damit auch manipulative Eingaben.

Laut einer Gartner-Schätzung waren bereits im vergangenen Jahr rund 32 Prozent der Unternehmen von Angriffen durch Prompt-Injection betroffen. Mit zunehmender Integration von Sprachmodellen in digitale Dienste wächst auch die potenzielle Angriffsfläche.

Was Nutzer jetzt beachten sollten

ESET ruft Internetnutzer zur erhöhten Wachsamkeit auf – auch gegenüber scheinbar seriösen KI-Antworten. Die Sicherheitsexperten empfehlen:

  • Keine Links aus Chatbot-Antworten ungeprüft öffnen
  • Auch bei offiziellen Bots kritisch bleiben
  • Systeme regelmäßig aktualisieren
  • Zwei-Faktor-Authentifizierung aktivieren
  • Passwortmanager einsetzen
  • Originalquellen heranziehen, statt sich auf automatisch generierte Inhalte zu verlassen

„Der verantwortungsvolle Umgang mit KI ist entscheidend“, so Klatte. Besonders auf sozialen Plattformen müsse das Vertrauen in automatische Inhalte überdacht werden – gerade wenn es um weiterführende Links gehe.

Ähnliche Artikel

Must-read

ANZEIGE
JANGER E-Commerce
Wer als Shop-Betreiber, E-Commerce Manager oder Gründer einer E-Commerce-Marke erfolgreich werden möchte, muss drei grundsätzliche Faktoren, Verkaufspsychologie, Außendarstellung und Design sowie Nutzererlebnis, verinnerlichen.

Top-News

Sponsored

Sponsored