Schön, dass Du Dich verklickt hast

Nachrichten

AMD Instinct MI300 Serie: Revolution in der KI- und HPC-Technologie

AMD hat kürzlich die Verfügbarkeit der AMD Instinct MI300X Beschleuniger angekündigt, die sich durch branchenführende Speicherbandbreite für generative KI auszeichnen, sowie die AMD Instinct MI300A Accelerated Processing Unit (APU), die die neueste AMD CDNA 3 Architektur mit „Zen 4“ CPUs kombiniert, um bahnbrechende Leistung für HPC- und KI-Workloads zu liefern.

AMD Instinct MI300X

Der AMD Instinct MI300X Beschleuniger basiert auf der neuen AMD CDNA 3 Architektur. Verglichen mit dem Vorgängermodell, dem AMD Instinct MI250X, bietet der MI300X fast 40% mehr Recheneinheiten, 1,5-mal mehr Speicherkapazität und 1,7-mal mehr Spitzen-theoretische Speicherbandbreite. Er unterstützt neue Mathematikformate wie FP8 und Sparsity, was besonders für KI- und HPC-Workloads von Vorteil ist.

Die MI300X Beschleuniger verfügen über eine erstklassige Speicherkapazität von 192 GB HBM3 sowie eine Spitzen-Speicherbandbreite von 5,3 TB/s, um die Anforderungen anspruchsvoller KI-Workloads zu erfüllen. Im Vergleich zum Nvidia H100 HGX bietet die AMD Instinct Plattform einen Durchsatzanstieg von bis zu 1,6x bei der Inferenz von großen Sprachmodellen (LLMs) wie BLOOM 176B und ist die einzige Option auf dem Markt, die Inferenz für ein 70B Parametermodell, wie Llama2, auf einem einzigen MI300X Beschleuniger ausführen kann.

AMD Instinct MI300A

Die AMD Instinct MI300A APUs sind die weltweit ersten Rechenzentrums-APUs für HPC und KI. Sie nutzen 3D-Packaging und die 4. Generation der AMD Infinity-Architektur, um Spitzenleistung bei wichtigen Workloads an der Schnittstelle von HPC und KI zu erbringen. MI300A APUs kombinieren leistungsstarke AMD CDNA 3 GPU-Kerne, die neuesten „Zen 4“ x86-basierten CPU-Kerne und 128 GB HBM3-Speicher der nächsten Generation, um eine um ~1,9-fache höhere Energieeffizienz bei FP32 HPC- und KI-Workloads im Vergleich zum Vorgängermodell MI250X zu bieten.

ROCm Software und Ökosystem-Partnerschaften

AMD kündigte auch die neueste AMD ROCm™ 6 Open-Software-Plattform an und verpflichtet sich, hochmoderne Bibliotheken der Open-Source-Community zur Verfügung zu stellen. ROCm 6 stellt einen bedeutenden Fortschritt für AMD Software-Tools dar und steigert die KI-Beschleunigungsleistung um ~8x, wenn es auf MI300-Serie-Beschleunigern in Llama 2 Textgenerierung im Vergleich zu früheren Hardware- und Softwaregenerationen läuft.

Zusammenarbeit mit Branchenpartnern

Zu den Kunden, die das neueste AMD Instinct-Beschleunigerportfolio nutzen, gehören Microsoft mit der neuen Azure ND MI300x v5 Virtual Machine (VM) Serie, optimiert für KI-Workloads und angetrieben von AMD Instinct MI300X Beschleunigern. Ebenfalls erwähnenswert ist El Capitan, ein von AMD Instinct MI300A APUs angetriebener Supercomputer im Lawrence Livermore National Laboratory, der voraussichtlich der zweite Exascale-Klasse-Supercomputer von AMD sein wird.

Verschiedene große OEMs haben ebenfalls beschleunigte Computersysteme vorgestellt, darunter Dell mit dem Dell PowerEdge XE9680 Server, HPE mit dem HPE Cray Supercomputing EX255a und Lenovo sowie Supermicro mit neuen beschleunigten Servern der Generation H13.

Fazit

Die AMD Instinct MI300 Serie markiert einen bedeutenden Fortschritt in der Welt der KI- und HPC-Technologien. Durch die Kombination fortschrittlicher Architekturen, enormer Speicherkapazitäten und -bandbreiten sowie Energieeffizienz setzen diese Produkte neue Maßstäbe in der Branche. Mit dem Engagement für Open-Source-Software und Partnerschaften mit führenden Unternehmen ist AMD gut positioniert, um die Entwicklung und Verbreitung von KI-basierten Lösungen voranzutreiben.

Quelle: AMD