Künstliche Intelligenz verändert die Welt – nicht nur im Positiven. Cyberkriminelle nutzen KI längst als Werkzeug, um betrügerische Aktivitäten zu professionalisieren und großflächig auszurollen. Der aktuelle „Cyber Signals“-Bericht von Microsoft zeigt, wie ernst die Lage inzwischen ist – und mit welchen Mitteln der US-Konzern gegen die neuen Betrugsformen vorgeht.
Milliardenverluste durch digitale Täuschung
Zwischen April 2024 und April 2025 konnte Microsoft eigenen Angaben zufolge Betrugsversuche im Wert von 4 Milliarden US-Dollar (rund 3,7 Mrd. Euro) vereiteln. Gleichzeitig blockierte das Unternehmen täglich etwa 1,6 Millionen Bot-Anmeldeversuche – eine Zahl, die das Ausmaß der Bedrohung unterstreicht. Auch 49.000 betrügerische Partneranmeldungen wurden im Zeitraum unterbunden.
Kurzfristig Experten benötigt? Hier die passenden Freelancer auf Fiverr
KI als Verstärker: Phishing, Deepfakes und Fake-Shops
Besonders problematisch: KI senkt die Einstiegshürde für Betrüger erheblich. Mithilfe generativer Modelle lassen sich in kurzer Zeit täuschend echte Inhalte erzeugen – von Fake-Webshops mit erfundenen Bewertungen über Deepfake-Videos bis hin zu synthetisch generierten Stimmen für Telefonbetrug. Kriminelle schaffen auf diese Weise ganze Marken inklusive Logos, Impressum und gefälschter Social-Media-Präsenz – alles automatisiert.
Microsofts Analyse zeigt: Vor allem in Europa und China ist eine Zunahme solcher Aktivitäten zu beobachten. Deutschland gilt als besonders betroffen, da es einer der größten E-Commerce-Märkte der EU ist. Die Strategie der Betrüger: Vertraute Marken imitieren, Vertrauen erschleichen und Transaktionen in die eigene Tasche lenken.
E-Commerce: Wenn Fake-Shops überzeugend echt wirken
Gefälschte Onlineshops stellen eine große Gefahr dar. Dank KI-gestützter Inhalte wirken sie glaubwürdig: Hochwertige Produktfotos, realistisch formulierte Texte, gefälschte Kundenrezensionen und Chatbots im Kundenservice erwecken den Eindruck eines echten Händlers. Diese Seiten tauchen häufig in sozialen Medien oder Anzeigen auf – oft mit verführerischen Rabattangeboten.
Ein Klick genügt, und schon sind Zahlungen verloren. Verbraucher sollten daher besonders misstrauisch sein, wenn Webadressen Tippfehler enthalten oder ungewöhnlich günstige Produkte anbieten. Microsoft Edge erkennt solche Seiten automatisch über maschinelles Lernen und warnt Nutzer frühzeitig.
Social Engineering 2.0: KI im Bewerbungsgespräch
Auch der Arbeitsmarkt wird zur Zielscheibe. Mit KI erstellte Jobanzeigen, automatisierte Phishing-Kampagnen und sogar gefälschte Vorstellungsgespräche sind inzwischen Realität. Bewerber erhalten über professionelle Kanäle vermeintlich seriöse Angebote – inklusive Interviewtermin, Videocall und Rückmeldung. Alles gesteuert durch KI.
Die Täter fordern sensibelste Daten: Kontodetails, Lebenslauf, Personalausweis. In manchen Fällen werden Bewerber zu Zahlungen für angebliche Zertifikate gedrängt. Eine Absicherung auf Plattformseite durch verpflichtende Multifaktor-Authentifizierung und technische Betrugserkennung wird von Microsoft daher dringend empfohlen.
Tech-Support-Betrug: Neue Schutzmaßnahmen in Quick Assist
Ein besonders perfider Betrugstrick: Angreifer geben sich am Telefon als IT-Support aus und fordern per Remotezugriff Zugang zum Rechner. Microsoft registrierte im Schnitt mehr als 4.400 solcher Verbindungsversuche pro Tag über Quick Assist – ein alarmierender Wert. Auch wenn in diesem Kontext bislang keine KI zum Einsatz kam, reagierte Microsoft mit gezielten Maßnahmen.
So wurde unter anderem eine Bestätigungsfunktion eingeführt: Nutzer müssen explizit zustimmen, bevor eine Bildschirmfreigabe erfolgt. Verdächtige Verbindungen werden durch maschinelles Lernen automatisch identifiziert und blockiert. Unternehmen empfiehlt Microsoft, stattdessen auf Remote Help umzusteigen – eine sicherere Alternative für den internen IT-Support.
Psychologische Manipulation als Erfolgsrezept der Täter
Ob Fake-Shop oder Jobbetrug: Fast alle Maschen setzen auf ähnliche psychologische Prinzipien – von künstlicher Dringlichkeit über soziale Bestätigung bis hin zur emotionalen Manipulation. Gefälschte Countdown-Timer, erfundene Influencer-Empfehlungen und massenhaft positive Bewertungen erzeugen ein Gefühl von Verlässlichkeit und Druck, schnell zu handeln.
Verbraucher sollten auf Warnsignale achten: Dazu zählen ungewöhnlich günstige Angebote, ungesicherte Verbindungen (kein https), dubiose Kommunikationskanäle (z. B. WhatsApp, private Gmail-Adressen) oder unerwartete Jobangebote. Besonders kritisch: Zahlungsaufforderungen vor Arbeitsbeginn oder Interviews mit KI-erzeugten Deepfakes.
Fazit: KI als Risiko – und als Teil der Lösung
Während generative KI für Betrüger eine mächtige Waffe darstellt, ist sie gleichzeitig ein zentrales Element der Gegenmaßnahmen. Maschinelles Lernen hilft Microsoft dabei, Risiken frühzeitig zu erkennen und automatisch zu reagieren. Doch auch die Verantwortung der Nutzer bleibt hoch: Aufmerksamkeit, Misstrauen gegenüber zu guten Angeboten und gesunder Menschenverstand sind nach wie vor die besten Verteidigungslinien.