KI-Beschleunigung mit hoher Rechendichte, Multi-Chip-Skalierung und 3D-Stapelspeicherintegration
VeriSilicon (688521.SH) gab heute die neusten Fortschritte im Bereich seiner leistungsstarken und skalierbaren GPGPU-KI-Computing-IPs bekannt, die jetzt in Automobilelektronik und Edge-Server-Anwendungen der nächsten Generation eingesetzt werden. Indem programmierbares paralleles Computing mit einem dedizierten KI-Accelerator kombiniert wird, bieten diese IPs eine außergewöhnliche Rechendichte für anspruchsvolle KI-Workloads wie LLM-Inferenz, multimodale Wahrnehmung und Entscheidungsfindung in Echtzeit in Umgebungen mit strengen thermischen und Energievorgaben.
Die GPGPU-KI-Computing-IPs von VeriSilicon basieren auf einer leistungsstarken General Purpose Graphics Processing Unit(GPGPU)-Architektur mit integriertem dedizierten KI-Accelerator, die KI-Anwendungen außergewöhnliche Rechenkapazitäten zur Verfügung stellt. Der programmierbare KI-Accelerator und die Sparsity-bewusste Computing-Engine beschleunigen trafobasierte Modelle und solche mit umfangreicher Matrix durch fortschrittliche Planungstechniken. Diese IPs unterstützen auch verschiedene Datenformate für Computing mit gemischter Präzision, darunter INT4/8, FP4/8, BF16, FP16/32/64 und TF32, und sind mit 3D-Stapelspeicher-Schnittstellen, LPDDR5X, HBM sowie PCIe Gen5/Gen6 und CXL ausgestattet. Zudem lassen sie sich durch mehrere Chips und Karten erweitern und bieten daher bei umfangreichen KI-Anwendungsbereitstellungen Skalierbarkeit auf Systemebene.
Die GPGPU-KI-Computing-IPs von VeriSilicon bieten nativen Support für beliebte KI-Frameworks für Lernen und Inferenz, etwa PyTorch, TensorFlow, ONNX und TVM. Diese IPs unterstützen zudem General Purpose Computing Language (GPCL), die mit herkömmlichen GPGPU-Programmiersprachen kompatibel ist, sowie weitverbreitete Compiler. Diese Funktionen sind gut auf die Rechen- und Skalierbarkeitsanforderungen der derzeit führenden LLMs abgestimmt, darunter Modelle wie DeepSeek.
"Die Nachfrage nach KI-Computing auf Edge-Servern für Inferenz und inkrementelles Lernen steigt exponentiell an. Dies macht nicht nur hohe Effizienz, sondern auch starke Programmierbarkeit erforderlich. Die GPGPU-KI-Computing-Prozessoren von VeriSilicon sind auf engste Integration von GPGPU-Computing und KI-Accelerator ausgelegt. Die Vorteile dieser Architektur wurden bereits in mehreren leistungsstarken KI-Computing-Systemen bestätigt", sagte Weijin Dai, Chief Strategy Officer, Executive Vice President und General Manager der IP Division von VeriSilicon. "Die aktuellen Durchbrüche von DeepSeek verstärken die Notwendigkeit einer maximierten KI-Computing-Effizienz zur Verarbeitung immer anspruchsvoller werdender Workloads. Unsere neusten GPGPU-KI-Computing-IPs wurden verbessert, um Mixture-of-Experts-Modelle effizient zu unterstützen und die Kommunikation zwischen Cores zu optimieren. Durch die enge Zusammenarbeit mit mehreren führenden Kunden im Bereich des KI-Computing haben wir unsere Architektur erweitert, um die üppige Bandbreite, die 3D-Stapelspeichertechnologien bieten, voll auszuschöpfen. VeriSilicon wird auch weiterhin Hand in Hand mit Branchenpartner zusammenarbeiten, um die breite Einführung dieser fortschrittlichen Technologien in der Praxis zu fördern."
Über VeriSilicon
VeriSilicon ist bestrebt, seinen Kunden plattformbasierte, allumfassende, kundenspezifische Siliziumdienste und Halbleiter-IP-Lizenzierungsdienste aus einer Hand anzubieten, die das eigene Halbleiter-IP nutzen. Weitere Informationen finden Sie unter www.verisilicon.com
Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.
Originalversion auf businesswire.com ansehen: https://www.businesswire.com/news/home/20250608456404/de/
Contacts:
Medienkontakt: press@verisilicon.com