NVIDIA Luncurkan Chip Blackwell: Klaim Performa AI 4 Kali Lebih Cepat, Data Center Berubah Total
NVIDIA meluncurkan chip Blackwell B200 dengan klaim performa pelatihan AI 4x lebih cepat dan inferensi 30x lebih tinggi dari H100, mengubah total efisiensi data center.
Jakarta, JClarity – Raksasa teknologi semikonduktor global, NVIDIA, secara resmi telah meluncurkan arsitektur chip Kecerdasan Buatan (AI) terbarunya, Blackwell. Dijuluki sebagai 'mesin pendorong revolusi industri baru,' chip penerus arsitektur Hopper (H100) ini diklaim mampu memberikan peningkatan performa yang revolusioner, menandai perubahan fundamental pada infrastruktur data center di seluruh dunia.
Pengumuman ini dilakukan oleh CEO NVIDIA, Jensen Huang, pada acara GPU Technology Conference (GTC) di San Jose, California. Blackwell, yang dinamai dari ahli matematika David Harold Blackwell, hadir dengan Superchip Grace Blackwell (GB200) yang memadukan dua GPU B200 dan satu CPU Grace. Secara spesifik, NVIDIA mengklaim chip ini dapat melatih model AI hingga empat kali lebih cepat dibandingkan pendahulunya, H100, dalam skenario Large Language Model (LLM) seperti GPT-3.
Peningkatan dramatis tidak hanya terjadi pada pelatihan (training), tetapi juga pada inferensi (penarikan kesimpulan) AI. Konfigurasi GB200 diklaim mampu memberikan peningkatan performa inferensi LLM hingga 30 kali lipat. Performa luar biasa ini dimungkinkan berkat lonjakan jumlah transistor yang signifikan, di mana Blackwell B200 memuat 208 miliar transistor—jauh melampaui 80 miliar transistor pada Hopper H100.
Dampak paling transformatif dari Blackwell adalah efisiensi energi dan biaya. NVIDIA menekankan bahwa sistem berbasis Blackwell dapat mengurangi konsumsi energi dan biaya operasional hingga 25 kali lipat untuk beban kerja inferensi LLM dibandingkan arsitektur sebelumnya. Sebagai contoh konkret, melatih model AI dengan 1,8 triliun parameter yang sebelumnya membutuhkan 8.000 unit H100 dengan konsumsi daya 15 megawatt, kini ‘hanya’ membutuhkan 2.000 unit B200 dan 4 megawatt daya.
Untuk mengakomodasi kinerja masif ini, NVIDIA juga memperkenalkan sistem rak berskala besar, GB200 NVL72, yang didinginkan dengan cairan (liquid-cooled). Sistem ini mengintegrasikan 36 Superchip GB200—total 72 GPU dan 36 CPU—yang mampu menghasilkan kinerja inferensi AI sebesar 1,4 Exaflop. Infrastruktur komputasi ini didesain untuk menjadi 'pabrik AI' yang akan mempercepat inovasi dalam pemrosesan data, simulasi teknik, dan desain obat berbantuan komputer.
Sejumlah pemain besar di industri teknologi global seperti Amazon Web Services (AWS), Google, Meta, Microsoft, Oracle, Tesla, dan OpenAI telah menyatakan komitmennya untuk mengadopsi platform Blackwell. Dengan permintaan yang sangat tinggi, platform Blackwell dilaporkan telah terjual habis di seluruh penerapan cloud utama, memperkuat posisi NVIDIA sebagai pemimpin tak terbantahkan dalam era komputasi akselerasi dan AI generatif.