Microsoft stellt Maia 200 vor: Neuer Inferenz-Beschleuniger verbessert KI-Leistung in Azure

Microsoft hat einen neuen Meilenstein in der Entwicklung eigener Chips vorgestellt: Maia 200. Der Schwerpunkt dieses neuen KI-Beschleunigers liegt auf der Inferenz – also dem produktiven Einsatz von KI-Modellen in Anwendungen. Seine Architektur verbindet hohe Rechenleistung mit einem neu entwickelten Speichersystem und einer skalierbaren Netzwerkstruktur. Durch die neuen Chips rüstet Microsoft seine globale Cloud-Infrastruktur für die nächste Generation von KI-Workloads aus. Maia 200 ist speziell für rechenintensive KI-Inferenz ausgelegt und fügt sich nahtlos in Microsoft Azure ein.

Die wichtigsten Neuigkeiten im Überblick

  • Maia 200 erreicht über 10 PetaFLOPSbei 4-Bit-Präzision (FP4) und mehr als 5 PetaFLOPS bei 8-Bit-Präzision (FP8) auf Basis modernster 3-Nanometer-Technologie. Das Netzwerkdesign skaliert über Standard-Ethernet auf bis zu 6.144 KI-Beschleuniger pro Cluster.
  • Das bedeutet, dass ein Maia 200 die momentan größten KI-Modelle mühelos ausführen kann und noch reichlich Spielraum für größere Modelle in der Zukunft bleibt.
  • Maia 200 wird zunächst in US-Regionen der Microsoft Azure Cloud bereitgestellt und soll für KI-Modelle des Microsoft-Superintelligence-Teams zum Einsatz kommen, Projekte wie Azure AI Foundry (die integrierte und interoperable Microsoft KI-Plattform zur Entwicklung von KI-Apps und Agenten) beschleunigen und Microsoft 365 Copilot unterstützen.
  • Dieses integrierte Modell von Microsoft – bestehend aus Chips, KI-Modellen und Apps – schafft einen einzigartigen Wettbewerbsvorteil: Weil Microsoft einige der weltweit anspruchsvollsten KI-Workloads betreibt, kann es Chip-Design, Modellentwicklung und Optimierung auf App-Ebene eng aufeinander abstimmen.
  • Parallel zur Einführung von Maia 200 stellt Microsoft eine Vorschau des Maia Software Development Kits (SDK) bereit. Es unterstützt gängige KI-Frameworks und hilft Entwicklern dabei, ihre Modelle gezielt für den Einsatz auf Maia-Systemen zu optimieren. Das neue Maia SDK umfasst Triton-Compiler, PyTorch-Support, NPL-Programmierung sowie Simulator und Kostenrechner.

Lesen Sie den vollständigen englischen Originalartikel von Scott Guthrie, Executive Vice President – Cloud and AI von Microsoft, über die Einführung von Maia 200 hier.