NVIDIA Blackwell
NVIDIA Blackwell

Superchip Masif, Begini Kemampuan NVIDIA Blackwell

Mohamad Mamduh • 22 Maret 2024 10:15
Jakarta: Mendukung era baru komputasi, dalam ajang GTC 2024, NVIDIA mengumumkan bahwa Blackwell telah hadir — memungkinkan organisasi di mana pun membangun dan menjalankan AI generatif secara real-time pada model bahasa besar dengan triliun parameter dengan biaya dan konsumsi energi hingga 25x lebih sedikit dibandingkan pendahulunya.
 
Arsitektur GPU Blackwell menghadirkan enam teknologi transformatif untuk akselerasi komputasi, yang akan membantu membuka terobosan dalam pemrosesan data, simulasi teknik, otomatisasi desain elektronik, desain obat dengan bantuan komputer, komputasi kuantum, dan AI generatif – semua peluang industri yang sedang berkembang.
 
“Selama tiga dekade kami telah mengupayakan akselerasi komputasi, dengan tujuan memungkinkan terobosan transformatif seperti pembelajaran mendalam dan AI,” kata Jensen Huang, pendiri dan CEO NVIDIA.

“AI Generatif adalah teknologi yang menentukan di zaman kita. Blackwell adalah mesin yang menggerakkan revolusi industri baru ini. Bekerja sama dengan perusahaan paling dinamis di dunia, kami akan mewujudkan potensi AI untuk setiap industri.”
 
Di antara banyak organisasi yang diperkirakan akan mengadopsi Blackwell adalah Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla, dan xAI.
 
Inovasi Blackwell untuk Mendorong Percepatan Komputasi dan AI Generatif
Enam teknologi revolusioner Blackwell, yang bersama-sama memungkinkan pelatihan AI dan inferensi LLM real-time untuk model dengan skala hingga 10 triliun parameter, meliputi:
 
1. Chip Paling Bertenaga di Dunia — Dilengkapi dengan 208 miliar transistor, GPU berarsitektur Blackwell diproduksi menggunakan proses TSMC 4NP yang dibuat khusus dengan batas dua retikel GPU mati yang dihubungkan melalui tautan chip-ke-chip 10 TB/detik ke dalam satu GPU terpadu.
 
2. Mesin Transformer Generasi Kedua — Didukung oleh dukungan penskalaan mikro-tensor baru dan algoritme manajemen rentang dinamis canggih NVIDIA yang terintegrasi ke dalam kerangka kerja NVIDIA TensorRT-LLM dan NeMo Megatron, Blackwell akan mendukung dua kali lipat ukuran komputasi dan model dengan AI floating point 4-bit yang baru kemampuan inferensi.
 
3. NVLink Generasi Kelima — Untuk mempercepat kinerja model AI multitriliun parameter dan gabungan para ahli, versi terbaru NVIDIA NVLink menghadirkan throughput dua arah per GPU yang inovatif sebesar 1,8TB/dtk, memastikan komunikasi berkecepatan tinggi yang lancar di antara hingga 576 GPU untuk LLM paling kompleks.
 
4. RAS Engine — GPU bertenaga Blackwell dilengkapi mesin khusus untuk keandalan, ketersediaan, dan kemudahan servis. Selain itu, arsitektur Blackwell menambahkan kemampuan pada tingkat chip untuk memanfaatkan pemeliharaan preventif berbasis AI untuk menjalankan diagnostik dan memperkirakan masalah keandalan.
 
Hal ini memaksimalkan waktu aktif sistem dan meningkatkan ketahanan penerapan AI skala besar agar dapat berjalan tanpa gangguan selama berminggu-minggu atau bahkan berbulan-bulan dan mengurangi biaya pengoperasian.
 
5. AI yang Aman — Kemampuan komputasi rahasia yang canggih melindungi model AI dan data pelanggan tanpa mengurangi kinerja, dengan dukungan untuk protokol enkripsi antarmuka asli baru, yang sangat penting untuk industri yang sensitif terhadap privasi seperti layanan kesehatan dan keuangan.
 
6. Mesin Dekompresi — Mesin dekompresi khusus mendukung format terbaru, mempercepat kueri database untuk memberikan performa tertinggi dalam analisis data dan ilmu data. Di tahun-tahun mendatang, pemrosesan data, yang mana perusahaan menghabiskan puluhan miliar dolar setiap tahunnya, akan semakin dipercepat dengan GPU. 
 
Superchip Masif
Superchip NVIDIA GB200 Grace Blackwell menghubungkan dua GPU NVIDIA B200 Tensor Core ke CPU NVIDIA Grace melalui interkoneksi chip-ke-chip NVLink berdaya sangat rendah 900 GB/dtk.
 
Untuk performa AI tertinggi, sistem bertenaga GB200 dapat dihubungkan dengan platform Ethernet NVIDIA Quantum-X800 InfiniBand dan Spectrum™=-X800, yang juga diumumkan hari ini, yang menghadirkan jaringan canggih dengan kecepatan hingga 800Gb/s.
 
GB200 adalah komponen utama dari NVIDIA GB200 NVL72, sistem skala rak multi-node, berpendingin cairan, untuk beban kerja komputasi paling intensif. Ini menggabungkan 36 Superchip Grace Blackwell, yang mencakup 72 GPU Blackwell dan 36 CPU Grace yang saling terhubung oleh NVLink generasi kelima.
 
Selain itu, GB200 NVL72 menyertakan unit pemrosesan data NVIDIA BlueField-3 untuk memungkinkan akselerasi jaringan cloud, penyimpanan yang dapat disusun, keamanan zero-trust, dan elastisitas komputasi GPU di cloud AI hyperscale.
 
GB200 NVL72 memberikan peningkatan kinerja hingga 30x dibandingkan dengan jumlah GPU NVIDIA H100 Tensor Core yang sama untuk beban kerja inferensi LLM, dan mengurangi biaya dan konsumsi energi hingga 25x.
 
Platform ini bertindak sebagai GPU tunggal dengan kinerja AI 1,4 exaflops dan memori cepat 30TB, dan merupakan landasan bagi DGX SuperPOD terbaru.
 
NVIDIA menawarkan HGX B200, papan server yang menghubungkan delapan GPU B200 melalui NVLink untuk mendukung platform AI generatif berbasis x86. HGX B200 mendukung kecepatan jaringan hingga 400 Gb/s melalui platform jaringan NVIDIA Quantum-2 InfiniBand dan Spectrum-X Ethernet.
 
AWS, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi salah satu penyedia layanan cloud pertama yang menawarkan mesin virtual yang ditenagai Blackwell, begitu pula perusahaan program Mitra NVIDIA Cloud, Applied Digital, CoreWeave, Crusoe, IBM Cloud, dan Lambda.
 
Sovereign AI cloud juga akan menyediakan layanan dan infrastruktur cloud berbasis Blackwell, termasuk Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK, dan Australian Government Clouds, Scaleway, Singtel, Taiga Cloud dari Northern Data Group, Shakti Cloud dari Yotta Data Services dan YTL Power International.
 
GB200 juga akan tersedia di NVIDIA DGX Cloud, sebuah platform AI yang dirancang bersama dengan penyedia layanan cloud terkemuka yang memberikan akses khusus kepada pengembang perusahaan ke infrastruktur dan perangkat lunak yang diperlukan untuk membangun dan menerapkan model AI generatif yang canggih. AWS, Google Cloud, dan Oracle Cloud Infrastructure berencana untuk menghosting instance baru berbasis NVIDIA Grace Blackwell pada akhir tahun ini.
 
Cisco, Dell, Hewlett Packard Enterprise, Lenovo dan Supermicro diharapkan menghadirkan berbagai macam server berdasarkan produk Blackwell, seperti juga Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn dan Sistem ZT.
 
Selain itu, jaringan pembuat perangkat lunak yang berkembang, termasuk Ansys, Cadence, dan Synopsys – pemimpin global dalam simulasi teknik – akan menggunakan prosesor berbasis Blackwell untuk mempercepat perangkat lunak mereka dalam merancang dan mensimulasikan sistem dan suku cadang kelistrikan, mekanik, dan manufaktur.
 
Pelanggan mereka dapat menggunakan AI generatif dan komputasi yang dipercepat untuk menghadirkan produk ke pasar dengan lebih cepat, dengan biaya lebih rendah, dan dengan efisiensi energi yang lebih tinggi.
 
Portofolio produk Blackwell didukung oleh NVIDIA AI Enterprise, sistem operasi end-to-end untuk AI tingkat produksi. NVIDIA AI Enterprise mencakup layanan mikro inferensi NVIDIA NIM — yang juga diumumkan hari ini — serta kerangka kerja, pustaka, dan alat AI yang dapat diterapkan oleh perusahaan pada cloud, pusat data, dan stasiun kerja yang dipercepat NVIDIA.
 
Cek Berita dan Artikel yang lain di
Google News
(MMI)




TERKAIT

BERITA LAINNYA

social
FOLLOW US

Ikuti media sosial medcom.id dan dapatkan berbagai keuntungan