Amazon hat mit den sogenannten „AI Factories“ eine neue Infrastruktur-Lösung vorgestellt, mit der Unternehmen und Behörden KI-Systeme direkt im eigenen Rechenzentrum betreiben können. Das Modell basiert auf einer engen Zusammenarbeit mit Nvidia und richtet sich an Organisationen mit besonderen Anforderungen an Datenschutz, regulatorische Auflagen und Datenhoheit.
KI-Leistung vor Ort: Amazon kombiniert eigene Chips mit Nvidia-Technologie
Das neue Angebot von AWS liefert komplette KI-Infrastrukturpakete, die unter anderem aus Nvidias neuesten GPU-Systemen, Amazons eigenen Trainium-Chips, Hochgeschwindigkeitsnetzwerken sowie KI-Diensten wie SageMaker und Amazon Bedrock bestehen. Während Kunden die physischen Grundlagen – also Rechenzentrum, Strom und Netzwerk – bereitstellen, übernimmt AWS die Installation, Verwaltung und Anbindung an die AWS-Cloud.
Mit diesem Konzept reagiert Amazon auf die steigende Nachfrage nach On-Premise-Lösungen, die es Unternehmen ermöglichen, KI-Projekte umzusetzen, ohne sensible Daten außer Haus zu geben. Das Modell funktioniert wie eine private AWS-Region, exklusiv für den jeweiligen Kunden betrieben. Damit lassen sich auch regulatorische Vorgaben zur Verarbeitung und Speicherung von Daten besser einhalten.
Amazon unaufhaltsam
Fokus auf Skalierung, Sicherheit und regulatorische Anforderungen
Besonders für Behörden und regulierte Industrien bietet das Konzept Vorteile. Der Aufbau eigener KI-Infrastruktur ist kostspielig, langwierig und komplex – insbesondere im Hinblick auf Chip-Beschaffung, Softwareintegration und Sicherheitsanforderungen. AWS verspricht, mit seinen AI Factories nicht nur die Umsetzung zu beschleunigen, sondern auch höchste Sicherheitsstandards bis hin zur Verarbeitung geheimer oder streng geheimer Daten einzuhalten.
Ein herausragendes Beispiel ist die Zusammenarbeit mit dem saudi-arabischen Unternehmen HUMAIN. In einem eigens errichteten „AI-Zone“-Rechenzentrum stellt AWS dort bis zu 150.000 KI-Chips bereit – inklusive der neuen Grace-Blackwell-GPUs von Nvidia. Ziel ist es, sowohl den lokalen als auch globalen Bedarf an KI-Rechenleistung zu decken.
AWS und Nvidia pflegen seit über 15 Jahren eine Partnerschaft im GPU-Bereich. Mit der neuen gemeinsamen Lösung wollen die Unternehmen nun den Aufbau leistungsfähiger KI-Infrastrukturen direkt beim Kunden ermöglichen – und damit die Innovationsgeschwindigkeit erhöhen, ohne Kompromisse bei Sicherheit oder Kontrolle.


