cpu-data.info

Nvidia Blackwell B200 Meluncur, Chip AI Diklaim Tercepat di Dunia

Chip AI Nvidia Blackwell B200.
Lihat Foto

- Nvidia resmi mengumumkan chip pengolah grafis (GPU) khusus untuk kecerdasan buatan (artificial intelligence/AI) generasi baru, bernama Blackwell B200 pekan ini.

Blackwell B200 diklaim sebagai GPU AI tercepat di dunia, menjadi suksesor GPU AI Nvidia yang memiliki arsitektur Hopper, yaitu Hopper H100 yang diperkenalkan pada 2022 lalu.

Dibanding generasi sebelumnya, Blackwell B200 kini memiliki 208 miliar unit transistor (Hopper H100: 80 miliar), dan diklaim dapat menghasilkan performa FP4 hingga 20 petaflop.

Dalam konfigurasi standar, dua chip AI ini bisa digabungkan dalam satu papan inti (motherboard) dengan satu prosesor (CPU), dan konfigurasi ini dinamai dengan Blackwell GB200.

Nvidia mengeklaim konfigurasi tersebut dapat menghasilkan performa penarikan kesimpulan alias inference AI dari model bahasa besar (LLM) 30 kali lipat lebih mumpuni dibandingkan generasi sebelumnya.

Baca juga: Nvidia Jadi Perusahaan Paling Berharga Ketiga di Dunia, Salip Perusahaan Minyak Arab Saudi

Di pengujian alias benchmark LLM GPT-3, Nvidia menyebut GB200 memiliki 7 kali peningkatan performa, serta bisa melatih AI 4 kali cepat dibanding chip AI H100. 

Selain itu, GB200 juga disebut 25 kali lebih efisien dan hemat daya serta biaya dibanding sistem serupa untuk chip AI H100.

Sebagai gambaran efisiensi, chip AI Blackwell bikinan Nvidia kini diklaim bisa melatih 1,8 triliun parameter AI "hanya" dengan 2.000 unit B200 dan konsumsi daya 4 megawatt.

Di sisi lain, suatu perusahaan membutuhkan sekitar 8.000 unit H100 dengan konsumsi daya 15 megawatt untuk menjalankan proses serupa.

Nvidia Blackwell GB200.Nvidia Nvidia Blackwell GB200.

Nah, chip AI Nvidia Blackwell B200 tentunya hadir dengan beragam konfigurasi yang bisa disesuaikan dengan kebutuhan perusahaan.

Selain GB200, Nvidia menyediakan konfigurasi GB200 NVL72 yang terdiri dari 36 CPU dan 72 GPU dalam satu rak sistem. Konfigurasi ini diklaim dapat menghasilkan performa pelatihan AI hingga 720 petaflop dan performa inference AI hingga 1,4 exaflop.

Konfigurasi tertinggi untuk GPU AI Blackwell adalah DGX GB200, dan konfigurasi ini memungkinkan suatu perusahaan memiliki delapan rak sistem untuk menopang beban kinerja AI.

Baca juga: AMD Perkenalkan Chip AI Instinct MI300X dan MI300A, Pesaing Nvidia H100

Delapan rak sistem ini terdiri dari 288 CPU, 576 GPU, memori alias RAM hingga 240 TB. Nvidia mengeklaim konfigurasi ini dapat menjalankan komputasi FP4 hingga 11,5 exaflops, sebagaimana dirangkum KompasTekno dari TheVerge, Selasa (19/3/2024).

Adapun rak-rak sistem ini bisa dihubungkan kembali dengan rak-rak sistem tambahan yang jumlahnya tak terbatas, tergantung kebutuhan perusahaan. Semua rak ini nantinya bisa dihubungkan dengan teknologi Quantum-X800 InfiniBand atau Spectrum-X800 Ethernet.

Rencananya, Amazon, Google, Microsoft, hingga Oracle akan menggunakan chip AI Nvidia Blackwell ini untuk menjalankan berbagai kinerja AI dalam beberapa waktu ke depan. Namun, belum ada informasi kapan atau berapa banyak GPU Blackwell yang akan mereka beli.

Terkini Lainnya

Tautan Sahabat