Kontakt   |   Partner
ANZEIGE

Web-Scraper-Bots: Akamai-Studie warnt E-Commerce Unternehmen

Autor
Programmiercode als Symbol für einen Hackerangriff
Foto: Sora Shimazaki / Pexels
Themen

Zusammenfassung

Der aktuelle „State of the Internet-Bericht“ von Akamai zeigt, dass Web-Scraper-Bots ein großes Risiko für den E-Commerce-Sektor darstellen. Diese Bots werden oft für schädliche Zwecke wie Wettbewerbsanalyse und Bestandsmanipulation verwendet.
Beitrag teilen

Der Online-Handel sieht sich zunehmend durch den hohen Anteil an schädlichen Bots bedroht. Laut dem „State of the Internet“-Bericht von Akamai Technologies entfallen 42 Prozent des gesamten (!) Webtraffics auf Bots, von denen fast zwei Drittel als schädlich eingestuft werden. Besonders betroffen ist der E-Commerce-Sektor, der unter den negativen Auswirkungen dieser Bots leidet.

Schädliche Bots werden häufig für Web-Scraping eingesetzt, eine Technik, bei der Informationen von Websites automatisch extrahiert werden. Dies führt zu Bestandsmanipulation und der Erstellung gefälschter Websites, die erhebliche Sicherheitsrisiken und eine Beeinträchtigung des Kundenerlebnisses nach sich ziehen. Die Studie von Akamai zeigt, dass Botnets zunehmend KI-gesteuert arbeiten und in der Lage sind, unstrukturierte Daten in verschiedenen Formaten und an unterschiedlichen Orten zu erkennen und zu verarbeiten. Diese Bots sammeln Geschäftsinformationen und nutzen sie, um den Entscheidungsprozess durch Datenanalyse zu verbessern.

Scraper-Bots werden von Angreifern verwendet, um komplexe Phishing-Kampagnen durch die Erstellung gefälschter Websites zu starten. Diese Websites sammeln Produktbilder, Beschreibungen und Preisinformationen, um sensible Daten wie Anmeldedaten und Kreditkarteninformationen zu stehlen.

Weiterhin können Bots zur missbräuchlichen Erstellung von Konten eingesetzt werden, was nach aktuellen Untersuchungen bis zu 50 Prozent der durch Betrug verursachten Verluste ausmacht. Auch wenn Scraping nicht immer mit böswilliger Absicht erfolgt, kann es dennoch technische Probleme verursachen, wie verschlechterte Website-Performance, verzerrte Metriken und erhöhte Rechenkosten.

Unabhängig davon, ob das Scraping mit guten oder schädlichen Absichten durchgeführt wurde, sind Unternehmen technischen Auswirkungen ausgesetzt. Dazu gehören eine Verschlechterung der Website-Performance, Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten, erhöhte Rechenkosten und weitere Probleme.

Der SOTI-Bericht von Akamai, der nach Registrierung kostenlos heruntergeladen werden kann, zeigt verschiedene Abwehrstrategien gegen Scraper-Bots und enthält eine Fallstudie, die darlegt, wie Websites effizienter funktionieren, wenn Abwehrmechanismen implementiert sind. Darüber hinaus werden Compliance-Themen angesprochen, die angesichts der zunehmenden Angriffe berücksichtigt werden müssen.

→ Jetzt auch auf LinkedIn oder X (Twitter) folgen und keine News verpassen!
ANZEIGE
Retouren direkt an neue Käufer: Hamburger Startup toern revolutioniert das Retourenmanagement

Retouren direkt an neue Käufer: Hamburger Startup toern revolutioniert das Retourenmanagement

Das Hamburger Startup toern revolutioniert das Retourenmanagement durch nachhaltige Innovation. Durch den Einsatz intelligenter Technologien leitet toern einwandfreie Retouren direkt an neue Käufer weiter, ohne Rücksendung an den Versender.