Der Online-Handel sieht sich zunehmend durch den hohen Anteil an schädlichen Bots bedroht. Laut dem „State of the Internet“-Bericht von Akamai Technologies entfallen 42 Prozent des gesamten (!) Webtraffics auf Bots, von denen fast zwei Drittel als schädlich eingestuft werden. Besonders betroffen ist der E-Commerce-Sektor, der unter den negativen Auswirkungen dieser Bots leidet.
Schädliche Bots werden häufig für Web-Scraping eingesetzt, eine Technik, bei der Informationen von Websites automatisch extrahiert werden. Dies führt zu Bestandsmanipulation und der Erstellung gefälschter Websites, die erhebliche Sicherheitsrisiken und eine Beeinträchtigung des Kundenerlebnisses nach sich ziehen. Die Studie von Akamai zeigt, dass Botnets zunehmend KI-gesteuert arbeiten und in der Lage sind, unstrukturierte Daten in verschiedenen Formaten und an unterschiedlichen Orten zu erkennen und zu verarbeiten. Diese Bots sammeln Geschäftsinformationen und nutzen sie, um den Entscheidungsprozess durch Datenanalyse zu verbessern.
Scraper-Bots werden von Angreifern verwendet, um komplexe Phishing-Kampagnen durch die Erstellung gefälschter Websites zu starten. Diese Websites sammeln Produktbilder, Beschreibungen und Preisinformationen, um sensible Daten wie Anmeldedaten und Kreditkarteninformationen zu stehlen.
Weiterhin können Bots zur missbräuchlichen Erstellung von Konten eingesetzt werden, was nach aktuellen Untersuchungen bis zu 50 Prozent der durch Betrug verursachten Verluste ausmacht. Auch wenn Scraping nicht immer mit böswilliger Absicht erfolgt, kann es dennoch technische Probleme verursachen, wie verschlechterte Website-Performance, verzerrte Metriken und erhöhte Rechenkosten.
Unabhängig davon, ob das Scraping mit guten oder schädlichen Absichten durchgeführt wurde, sind Unternehmen technischen Auswirkungen ausgesetzt. Dazu gehören eine Verschlechterung der Website-Performance, Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten, erhöhte Rechenkosten und weitere Probleme.
Der SOTI-Bericht von Akamai, der nach Registrierung kostenlos heruntergeladen werden kann, zeigt verschiedene Abwehrstrategien gegen Scraper-Bots und enthält eine Fallstudie, die darlegt, wie Websites effizienter funktionieren, wenn Abwehrmechanismen implementiert sind. Darüber hinaus werden Compliance-Themen angesprochen, die angesichts der zunehmenden Angriffe berücksichtigt werden müssen.