Amazon setzt in den USA verstärkt auf Künstliche Intelligenz, um Pakete schneller, präziser und effizienter an Kunden zu liefern. Drei aktuelle Entwicklungen sollen die Logistik nachhaltig verbessern: ein generatives KI-System zur Optimierung von Zustellorten, ein neues Prognosemodell für die Nachfrageplanung und eine neue Generation intelligenter Roboter.
Bessere Navigation mit generativer KI
Das neue Mapping-System namens Wellspring wurde entwickelt, um die Zustellung an schwer zugänglichen Orten wie großen Wohnanlagen oder Neubaugebieten zu erleichtern. Es verarbeitet Daten aus Satellitenbildern, Straßenkarten, Lieferhistorien, Kundenanweisungen und Fotos vergangener Zustellungen. So lassen sich etwa Gebäudeeingänge, Parkmöglichkeiten und gemeinschaftliche Paketstationen zuverlässig identifizieren. Seit dem Start im Oktober 2024 hat Wellspring bereits über 2,8 Millionen Adressen in mehr als 14.000 Apartmentkomplexen präzise zugeordnet – ein Prozess, der früher Jahre in Anspruch genommen hätte.
Amazon unaufhaltsam
Nachfrageprognosen mit regionalem Feinschliff
Ein neues KI-Modell verbessert die Vorhersage von Kundenbedarfen und berücksichtigt dabei nicht nur historische Verkaufszahlen, sondern auch Wetterdaten und Feiertage. Das System erkennt saisonale Besonderheiten – etwa Sonnencreme in Neuengland im Sommer oder Skibrillen in Colorado im Winter – und plant so genauer, wann und wo Produkte gelagert werden müssen. Erste Ergebnisse zeigen eine 10 % bessere Langzeitprognose bei nationalen Rabattaktionen und eine um 20 % höhere Präzision bei regional gefragten Produkten. Die Technik ist bereits in den USA, Kanada, Mexiko und Brasilien im Einsatz.
Roboter mit Sprachverständnis
Im Bereich der Lagerrobotik verfolgt Amazon das Ziel, Maschinen nicht nur autonom, sondern auch sprachgesteuert einzusetzen. Das sogenannte „agentische KI“-Team entwickelt ein System, bei dem Roboter Anweisungen in natürlicher Sprache verstehen und ausführen können – etwa: „Nimm alle Artikel aus der gelben Kiste und lege sie in die graue.“ Möglich wird das durch den Einsatz von Vision Language Models, die Bilderkennung und Sprachverarbeitung kombinieren. Dadurch können Roboter wie der mobile Helfer Proteus künftig flexibler und effizienter eingesetzt werden und Mitarbeitende bei körperlich belastenden Tätigkeiten entlasten.