Microsoft baut seine KI-Infrastruktur weiter aus und präsentiert mit Maia 200 einen eigenen Inferenz-Beschleuniger für den produktiven Einsatz großer KI-Modelle. Der neue Chip wurde speziell für die Ausführung rechenintensiver KI-Workloads entwickelt und ist ein zentraler Baustein in Microsofts Cloud-Strategie.
Fokus auf produktiven KI-Einsatz
Maia 200 erreicht laut Microsoft mehr als 10 PetaFLOPS bei 4-Bit- und über 5 PetaFLOPS bei 8-Bit-Präzision – Werte, die den Einsatz auch der größten aktuellen Sprachmodelle ermöglichen. Die Architektur basiert auf 3-Nanometer-Technologie und integriert ein neues Speichersystem sowie ein skalierbares Netzwerkdesign, das bis zu 6.144 Chips pro Cluster über Standard-Ethernet vernetzen kann.
Der Chip wird zunächst in ausgewählten Regionen der Microsoft-Azure-Cloud ausgerollt. Zum Einsatz kommt er unter anderem bei Projekten des Superintelligence-Teams sowie für Azure AI Foundry, eine modulare Plattform zur Entwicklung KI-gestützter Anwendungen und Agenten. Auch Microsoft 365 Copilot profitiert künftig von Maia 200.
Gewinnen in der Plattform-Ökonomie
Integration von Chip, Modell und Anwendung
Mit der Maia-Reihe verfolgt Microsoft einen vertikal integrierten Ansatz: Hardware, KI-Modelle und Anwendungen werden gemeinsam entwickelt und optimiert. Dieses enge Zusammenspiel soll Performance, Effizienz und Skalierbarkeit deutlich verbessern und Microsoft einen Vorteil im Wettbewerb um leistungsfähige KI-Infrastrukturen verschaffen.
Parallel zum Hardware-Launch stellt das Unternehmen auch ein Maia Software Development Kit (SDK) bereit. Es unterstützt unter anderem PyTorch, den Triton-Compiler sowie NPL-Programmierung. Entwickler können damit ihre Modelle gezielt für den Einsatz auf Maia-Beschleunigern vorbereiten.


