
MSI, ein weltweit führender Anbieter von Hochleistungsserverlösungen, ist auf der COMPUTEX 2025 (Stand J0506) mit seinem bisher umfassendsten Angebot wieder mit von der Partie. MSI präsentiert vollständig integrierte EIA-, OCP ORv3- und NVIDIA MGX-Racks, DC-MHS-basierte Core-Compute-Server und die neue NVIDIA DGX Station. Dabei geht es um Integration auf Rack-Ebene, modulare Cloud-Infrastrukturen, KI-optimierte GPU-Systeme und Server-Plattformen für Unternehmen. Zusammen unterstreichen diese Systeme die wachsende Fähigkeit von MSI, einsatzbereite, auf den Workload abgestimmte Infrastrukturen für Hyperscale-, Cloud- und Unternehmensumgebungen zu liefern.
"Die Zukunft der Dateninfrastruktur ist modular, offen und Workload-optimiert", sagt Danny Hsu, Geschäftsführer von Enterprise Platform Solutions von MSI (https://eps.msi.com/en). "Auf der COMPUTEX 2025 zeigen wir, wie MSI sich zu einem Full-Stack-Server-Anbieter entwickelt und integrierte Plattformen bereitstellt, die unseren Kunden helfen, KI-, Cloud- und Enterprise-Implementierungen mit größerer Effizienz und Flexibilität zu skalieren."
Full-Rack-Integration von Cloud- bis KI-Rechenzentren MSI demonstriert seine Kompetenz bei der Rack-Integration mit vollständig konfigurierten EIA 19 Zoll, OCP ORv3 21 Zoll und KI-Racks, die von NVIDIA MGX angetrieben werden und für den Betrieb moderner Infrastrukturen, von Cloud-nativen Berechnungen bis hin zu KI-optimierten Implementierungen, entwickelt wurden. Jedes Rack ist vorintegriert und thermisch optimiert, einsatzbereit und auf bestimmte Workloads abgestimmt. Gemeinsam unterstreichen sie die Fähigkeit von MSI, eine vollständige, für die Arbeitslast optimierte Infrastruktur vom Entwurf bis zur Bereitstellung zu liefern.
- Das EIA-Rack bietet eine hohe Rechendichte für private Cloud- und Virtualisierungsumgebungen und integriert die Kerninfrastruktur in ein Standard-19-Zoll-Format.
- Das OCP ORv3-Rack verfügt über ein offenes 21-Zoll-Gehäuse, das eine höhere Rechen- und Speicherdichte, eine effiziente 48-V-Stromversorgung und ein OpenBMC-kompatibles Management ermöglicht - ideal für Hyperscale- und Software-definierte Rechenzentren.
- Das Enterprise AI Rack mit NVIDIA MGX, das auf der NVIDIA Enterprise Reference Architecture aufbaut, ermöglicht eine skalierbare GPU-Infrastruktur für KI und HPC. Mit modularen Einheiten und einem durchsatzstarken Netzwerk auf Basis von NVIDIA Spectrum-X unterstützt es skalierbare Multi-Node-Einheiten, die für umfangreiche Trainings-, Inferenz- und Hybrid-Workloads optimiert sind.
Core-Compute- und Open-Compute-Server für modulare Cloud-Infrastruktur MSI erweitert sein Core-Compute-Angebot um sechs DC-MHS-Server mit AMD EPYC 9005 Series- und Intel Xeon 6-Prozessoren in 2U4N- und 2U2N-Konfigurationen. Das Portfolio wurde für skalierbare Cloud-Implementierungen entwickelt und umfasst Nodes mit hoher Dichte und Flüssigkeits- oder Luftkühlung sowie kompakte Systeme, die für Energie- und Raumeffizienz optimiert sind. Mit Unterstützung für OCP DC-SCM, PCIe 5.0 und DDR5 DRAM ermöglichen diese Server eine modulare, plattformübergreifende Integration und vereinfachte Verwaltung in privaten, hybriden und Edge-Cloud-Umgebungen.
Um die Flexibilität des Open-Compute-Einsatzes weiter zu erhöhen, stellt MSI den CD281-S4051-X2 vor, einen 2OU 2-Node ORv3 Open-Compute-Server auf Basis der DC-MHS-Architektur. Er ist für hyperskalierte Cloud-Infrastrukturen optimiert, unterstützt einen einzelnen AMD EPYC 9005-Prozessor pro Node, bietet eine hohe Speicherdichte mit zwölf E3.S NVMe-Einschüben pro Node und integriert eine effiziente 48-V-Stromversorgung sowie OpenBMC-kompatibles Management. Damit ist er ideal für softwaredefinierte und energiebewusste Cloud-Umgebungen geeignet.
AMD EPYC 9005 Serie Prozessor-basierte Plattform für dichte Virtualisierung und Scale-Out Workloads
- CD270-S4051-X4 (Flüssigkeitskühlung) Ein flüssigkeitsgekühlter 2U 4-Node Server mit bis zu 500W TDP. Jeder Node verfügt über 12 DDR5-DIMM-Steckplätze und 2 U.2-NVMe-Laufwerkseinschübe, ideal für dichte Rechenleistung in thermisch eingeschränkten Cloud-Bereitstellungen.
- CD270-S4051-X4 (https://eps.msi.com/en/product/barebones/S4051D270RAU3-X4) (Luftkühlung) Dieses luftgekühlte 2U 4-Node-System unterstützt bis zu 400W TDP und bietet energieeffiziente Rechenleistung mit 12 DDR5 DIMM-Steckplätzen und 3 U.2 NVMe-Einschüben pro Node. Entwickelt für Virtualisierung, Container-Hosting und private Cloud-Cluster.
- CD270-S4051-X2 (https://eps.msi.com/en/product/barebones/S4051D270RAU6-X2) Ein 2U 2-Node-Server, der für Platzersparnis und Rechendichte optimiert ist. Jeder Node verfügt über 12 DDR5-DIMM-Steckplätze und 6 U.2-NVMe-Einschübe, wodurch er sich für Allzweck-Virtualisierungs- und Edge-Cloud-Nodes eignet.
Plattform auf Basis des Intel Xeon 6-Prozessors für containerisierte und allgemeine Cloud-Dienste
- CD270-S3061-X4 (https://eps.msi.com/en/product/barebones/S3061D270RAU3-X4) Ein 2U 4-Node Intel Xeon 6700/6500 Server mit 16 DDR5 DIMM Steckplätzen und 3 U.2 NVMe Einschüben pro Node. Ideal für containerisierte Dienste und gemischte Cloud-Workloads, die eine ausgewogene Rechendichte erfordern.
- CD270-S3061-X2 (https://eps.msi.com/en/product/barebones/S3061D270RAU6-X2) Dieses kompakte 2U-2-Node-System mit Intel Xeon 6700/6500 verfügt über 16 DDR5-DIMM-Steckplätze und 6 U.2-NVMe-Einschübe pro Node und bietet leistungsstarke Rechen- und Speicherfunktionen für Kerninfrastrukturen und skalierbare Cloud-Dienste.
- CD270-S3071-X2 (https://eps.msi.com/en/product/barebones/S3071D270RAU6-X2) Ein 2U 2-Node Intel Xeon 6900 System, das für I/O-lastige Workloads entwickelt wurde, mit 12 DDR5 DIMM Steckplätzen und 6 U.2 Einschüben pro Node. Geeignet für speicherzentrierte Anwendungen und datenintensive Anwendungen in der Cloud.
KI-Plattformen mit NVIDIA MGX & DGX Station für die KI-Bereitstellung MSI präsentiert ein umfassendes Angebot an KI-fähigen Plattformen, darunter NVIDIA MGX-basierte Server und die auf der NVIDIA Grace- und Blackwell-Architektur basierende DGX Station. Die MGX-Reihe umfasst 4U- und 2U-Formfaktoren, die für KI-Training und -Inferenz mit hoher Dichte optimiert sind, während die DGX Station Leistung der Rechenzentrumsklasse in einem Desktop-Gehäuse für die Modellentwicklung vor Ort und den Einsatz von Edge-KI bietet.
KI-Plattformen mit NVIDIA MGX
- CG480-S5063 (https://eps.msi.com/en/product/barebones/S5063G480RAE20) (Intel) / CG480-S6053 (AMD) Der 4U MGX GPU Server ist in zwei CPU-Konfigurationen erhältlich: CG480-S5063 mit zwei Intel Xeon 6700/6500 Prozessoren und CG480-S6053 mit zwei AMD EPYC Prozessoren der 9005 Serie, die Flexibilität über verschiedene CPU-Ökosysteme hinweg bieten. Beide Systeme unterstützen bis zu 8 FHFL Dual-Width PCIe 5.0 GPUs in luftgekühlten Rechenzentrumsumgebungen und sind damit ideal für Deep Learning Training, generative KI und Inferencing mit hohem Durchsatz. Der Intel-basierte CG480-S5063 verfügt über 32 DDR5-DIMM-Steckplätze und unterstützt bis zu 20 E1.S-NVMe-Einschübe an der Vorderseite, ideal für speicher- und I/O-intensive Deep-Learning-Pipelines, einschließlich großer LLM-Workloads, NVIDIA OVX und Digital-Twin-Simulationen.
- CG290-S3063 (https://eps.msi.com/en/product/barebones/S3063G290RAU4) Ein kompakter 2U-MGX-Server mit einem einzelnen Intel Xeon 6700/6500-Prozessor, der 16 DDR5-DIMM-Steckplätze und 4 FHFL-GPU-Steckplätze mit doppelter Breite unterstützt. Er wurde für Edge Inferencing und leichtes KI-Training entwickelt und eignet sich für platzbeschränkte Implementierungen, bei denen Inferenzlatenz und Energieeffizienz entscheidend sind.
DGX Station
Die CT60-S8060 ist eine leistungsstarke KI-Station, die auf dem NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip basiert und eine KI-Leistung von bis zu 20 PFLOPS sowie 784 GB Unified Memory bietet. Außerdem verfügt sie über den NVIDIA ConnectX-8 SuperNIC, der ein Netzwerk mit bis zu 800 Gb/s für Hochgeschwindigkeitsdatenübertragung und Skalierung auf mehrere Nodes ermöglicht. Das System wurde für das Training und die Inferenz von Modellen vor Ort entwickelt, unterstützt Mehrbenutzer-Workloads und kann als eigenständige KI-Workstation oder als zentrale Rechenressource für F&E-Teams eingesetzt werden.
Foto - https://mma.prnewswire.com/media/2688106/From_Rack_Integration_to_AI_and_Cloud_Systems_MSI_Debuts_Full_Spectrum_Server_Portfolio_at_COMPUTEX.jpg
View original content:https://www.prnewswire.com/news-releases/von-rack-integration-bis-zu-ki--und-cloud-systemen-msi-stellt-auf-der-computex-2025-ein-umfassendes-server-portfolio-vor-302458845.html
Pressekontakt:
Darcy Lee,
darcylee@msi.com
Original-Content von: MSI, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.ch/de/pm/100094279/100931764
© 2025 news aktuell-CH