Die zunehmende Verbreitung von Künstlicher Intelligenz verändert das Gefüge der Cybersicherheit tiefgreifend. Während Unternehmen KI-basierte Systeme für Schutzmechanismen einsetzen, nutzen auch Cyberkriminelle dieselbe Technologie für Angriffe – mit wachsender Raffinesse. Laut Prognosen des Sicherheitsunternehmens Kaspersky ist 2026 mit einer deutlichen Zunahme von KI-gestützten Bedrohungen zu rechnen.
Deepfakes werden zum Sicherheitsrisiko für Unternehmen und Verbraucher
Durch KI erzeugte Deepfakes werden nicht nur realistischer, sondern auch einfacher herzustellen. Die Hürden für den Einstieg sinken, was sowohl Laien als auch Kriminellen ermöglicht, täuschend echte Inhalte zu erstellen. Besonders der Fortschritt im Audiobereich hebt die Qualität auf ein neues Niveau. Unternehmen sind deshalb zunehmend gefordert, Mitarbeiter zu sensibilisieren und Schulungsprogramme zu etablieren, um potenzielle Täuschungsversuche frühzeitig zu erkennen.
Zugleich steigt auch im privaten Bereich das Bewusstsein für Deepfakes, da Nutzer immer häufiger mit gefälschten Inhalten in Berührung kommen. Damit entwickeln sich Deepfakes zu einem alltäglichen Phänomen – mit wachsendem Schadenspotenzial.
Gewinnen in der Plattform-Ökonomie
Offene KI-Modelle treiben Angriffe – und unterstützen die Verteidigung
Ein zentrales Risiko ergibt sich aus der fortschreitenden Leistungsfähigkeit offener KI-Modelle, die sich immer mehr geschlossenen Systemen annähern. Anders als proprietäre Lösungen verfügen Open-Source-Modelle häufig über weniger Sicherheitsbarrieren und verbreiten sich unkontrolliert, was Missbrauch erleichtert. In der Folge verschwimmen die Grenzen zwischen legitimer Nutzung und kriminellem Einsatz.
Angreifer verwenden große Sprachmodelle bereits zur Automatisierung kompletter Angriffsketten – von der Infrastruktur über Social Engineering bis zur Schwachstellensuche. Gleichzeitig verbergen sie gezielt Spuren des KI-Einsatzes, um die forensische Analyse zu erschweren.
Auf der anderen Seite profitieren auch Verteidiger von KI. Sicherheitsteams setzen zunehmend agentenbasierte Systeme ein, um Infrastrukturen zu überwachen und Kontextinformationen automatisiert zu sammeln. Dadurch reduziert sich der manuelle Aufwand, während die Effizienz in der Reaktionsfähigkeit steigt. Ebenso erleichtert die Verwendung natürlicher Spracheingaben in Sicherheitstools die Bedienung und senkt technische Einstiegshürden.
Regulierungsbedarf und Herausforderungen in der Erkennung
Ein weiteres Problem stellt die mangelhafte Kennzeichnung synthetischer Inhalte dar. Derzeit existieren keine verlässlichen Standards, um KI-generierte Inhalte eindeutig zu markieren. Bestehende Kennzeichnungsmethoden lassen sich leicht entfernen oder umgehen. Deshalb ist laut Kaspersky mit neuen technischen wie auch regulatorischen Initiativen zu rechnen, die für mehr Transparenz und Sicherheit sorgen sollen.
Ein Nebeneffekt der zunehmenden Professionalisierung von KI-Inhalten ist die Verwischung der Grenze zwischen authentischen und gefälschten Inhalten. Während Marken auf synthetische Werbeinhalte setzen, nutzen Kriminelle ähnliche Methoden für Phishing und Betrug – was die Erkennung zusätzlich erschwert.


