Microsoft stellt Maia 200 vor: Neuer Inferenz-Beschleuniger verbessert KI-Leistung in Azure

Microsoft hat einen neuen Meilenstein in der Entwicklung eigener Chips vorgestellt: Maia 200. Der Schwerpunkt dieses neuen KI-Beschleunigers liegt auf der Inferenz – also dem produktiven Einsatz von KI-Modellen in Anwendungen. Seine Architektur verbindet hohe Rechenleistung mit einem neu entwickelten Speichersystem und einer skalierbaren Netzwerkstruktur. Durch die neuen Chips rüstet Microsoft seine globale Cloud-Infrastruktur für die nächste Generation von KI-Workloads aus. Maia 200 ist speziell für rechenintensive KI-Inferenz ausgelegt und fügt sich nahtlos in Microsoft Azure ein.

Die wichtigsten Neuigkeiten im Überblick

  • Maia 200 erreicht über 10 PetaFLOPSbei 4-Bit-Präzision (FP4) und mehr als 5 PetaFLOPS bei 8-Bit-Präzision (FP8) auf Basis modernster 3-Nanometer-Technologie. Das Netzwerkdesign skaliert über Standard-Ethernet auf bis zu 6.144 KI-Beschleuniger pro Cluster.
  • Das bedeutet, dass ein Maia 200 die momentan größten KI-Modelle mühelos ausführen kann und noch reichlich Spielraum für größere Modelle in der Zukunft bleibt.
  • Maia 200 wird zunächst in US-Regionen der Microsoft Azure Cloud bereitgestellt und soll für KI-Modelle des Microsoft-Superintelligence-Teams zum Einsatz kommen, Projekte wie Azure AI Foundry (die integrierte und interoperable Microsoft KI-Plattform zur Entwicklung von KI-Apps und Agenten) beschleunigen und Microsoft 365 Copilot unterstützen.
  • Dieses integrierte Modell von Microsoft – bestehend aus Chips, KI-Modellen und Apps – schafft einen einzigartigen Wettbewerbsvorteil: Weil Microsoft einige der weltweit anspruchsvollsten KI-Workloads betreibt, kann es Chip-Design, Modellentwicklung und Optimierung auf App-Ebene eng aufeinander abstimmen.
  • Parallel zur Einführung von Maia 200 stellt Microsoft eine Vorschau des Maia Software Development Kits (SDK) bereit. Es unterstützt gängige KI-Frameworks und hilft Entwicklern dabei, ihre Modelle gezielt für den Einsatz auf Maia-Systemen zu optimieren. Das neue Maia SDK umfasst Triton-Compiler, PyTorch-Support, NPL-Programmierung sowie Simulator und Kostenrechner.

Lesen Sie den vollständigen englischen Originalartikel von Scott Guthrie, Executive Vice President – Cloud and AI von Microsoft, über die Einführung von Maia 200 hier.

Deutsch (Österreich)
Abwahlsymbol „Ihre Datenschutzoptionen“ Ihre Datenschutzoptionen
Verbraucherdatenschutz für Gesundheitsdaten An Microsoft wenden Impressum Datenschutz Cookies verwalten Nutzungsbedingungen Markenzeichen Informationen zu unserer Werbung EU Compliance DoCs