Pada OCP Global Summit tahun ini, NVIDIA akan berbagi bagian-bagian penting dari desain elektro-mekanis sistem GB200 NVL72 dengan komunitas OCP — termasuk arsitektur rak, mekanik komputasi dan baki sakelar, spesifikasi pendingin cair dan lingkungan termal, dan volumetrik kartrid kabel NVLink — untuk mendukung kepadatan komputasi dan bandwidth jaringan yang lebih tinggi.
NVIDIA telah memberikan beberapa kontribusi resmi untuk OCP di berbagai generasi perangkat keras, termasuk spesifikasi desain baseboard HGX H100, untuk membantu menyediakan ekosistem dengan pilihan penawaran yang lebih luas dari pembuat komputer dunia dan memperluas adopsi AI.
Selain itu, penyelarasan platform jaringan Ethernet Spectrum-X yang diperluas dengan spesifikasi yang dikembangkan Komunitas OCP memungkinkan perusahaan untuk membuka potensi kinerja pabrik AI yang menerapkan peralatan yang diakui OCP sambil mempertahankan investasi mereka dan menjaga konsistensi perangkat lunak.
"Membangun kolaborasi selama satu dekade dengan OCP, NVIDIA bekerja sama dengan para pemimpin industri untuk membentuk spesifikasi dan desain yang dapat diadopsi secara luas di seluruh pusat data," kata Jensen Huang, pendiri dan CEO NVIDIA. "Dengan memajukan standar terbuka, kami membantu organisasi di seluruh dunia memanfaatkan potensi penuh komputasi yang dipercepat dan menciptakan pabrik AI di masa depan."
Platform Komputasi yang Dipercepat untuk Revolusi
GB200 NVL72 didasarkan pada arsitektur modular MGX, yang memungkinkan pembuat komputer membangun beragam desain infrastruktur pusat data dengan cepat dan hemat biaya.
Sistem berpendingin cairan menghubungkan 36 CPU Grace dan 72 GPU Blackwell dalam desain skala rak. Dengan domain NVLink 72-GPU, ini bertindak sebagai GPU tunggal yang masif dan memberikan inferensi model bahasa besar triliunan parameter real-time 30x lebih cepat daripada GPU H100 Tensor Core.
Platform jaringan Ethernet Spectrum-X, yang sekarang mencakup ConnectX-8 SuperNIC generasi berikutnya, mendukung standar Switch Abstraction Interface (SAI) OCP dan Software for Open Networking in the Cloud (SONiC). Hal ini memungkinkan pelanggan untuk menggunakan perutean adaptif Spectrum-X dan kontrol kemacetan berbasis telemetri untuk mempercepat kinerja Ethernet untuk infrastruktur AI scale-out.
ConnectX-8 SuperNIC menampilkan jaringan yang dipercepat dengan kecepatan hingga 800Gb/s dan mesin pemrosesan paket yang dapat diprogram yang dioptimalkan untuk beban kerja AI skala besar. ConnectX-8 SuperNIC untuk OCP 3.0 akan tersedia tahun depan, melengkapi organisasi untuk membangun jaringan yang sangat fleksibel.
Infrastruktur Kritis untuk Pusat Data Saat
dunia beralih dari tujuan umum ke komputasi akselerasi dan AI, infrastruktur pusat data menjadi semakin kompleks. Untuk menyederhanakan proses pengembangan, NVIDIA bekerja sama dengan 40+ pembuat elektronik global yang menyediakan komponen utama untuk membuat pabrik AI.
Selain itu, beragam mitra berinovasi dan membangun di atas platform Blackwell, termasuk Meta, yang berencana untuk menyumbangkan arsitektur rak AI Catalina berdasarkan GB200 NVL72 ke OCP. Ini memberi pembuat komputer opsi fleksibel untuk membangun sistem kepadatan komputasi tinggi dan memenuhi kebutuhan kinerja dan efisiensi energi yang terus meningkat dari pusat data.
"NVIDIA telah menjadi kontributor signifikan untuk standar komputasi terbuka selama bertahun-tahun, termasuk platform komputasi berkinerja tinggi mereka yang telah menjadi fondasi server Grand Teton kami selama dua tahun terakhir," kata Yee Jiun Song, wakil presiden teknik di Meta.
"Saat kami maju untuk memenuhi tuntutan komputasi yang meningkat dari kecerdasan buatan skala besar, kontribusi terbaru NVIDIA dalam desain rak dan arsitektur modular akan membantu mempercepat pengembangan dan implementasi infrastruktur AI di seluruh industri."
Cek Berita dan Artikel yang lain di
Google News