Diperkenalkan selama Konferensi Teknologi GPU, Nvidia mengumumkan chip terkuat di dunia untuk komputasi terkait kecerdasan buatan yang disebut GB200 yang menggerakkan GPU Blackwell B200. Ini merupakan penerus dari chip AI H100 dan menawarkan peningkatan besar dalam kinerja dan efisiensi.
Nvidia telah mengumumkan peluncuran GPU terbaru mereka, Blackwell B200, yang menandai tonggak sejarah dalam komputasi kecerdasan buatan. Selama Konferensi Teknologi GPU, perusahaan teknologi terkemuka ini memperkenalkan chip terkuat di dunia untuk komputasi AI, yang disebut GB200, sebagai otak di balik kinerja luar biasa dari GPU Blackwell B200.
Dengan 208 miliar transistor di dalamnya, B200 mampu mencapai 20 petaflop FP4, menandai lonjakan besar dalam kemampuan komputasi dibandingkan pendahulunya, chip AI H100.
Selain itu, GB200 menawarkan 30 kali lipat kinerja H100 dalam beban kerja inferensi LLM, sambil mengurangi konsumsi energi hingga 25 kali lipat. Dalam uji benchmark LLM GPT-3, GB200 bahkan tujuh kali lebih cepat daripada H100.
Kinerja dan Efisiensi yang Luar Biasa
Dengan GPU Blackwell B200, Nvidia membuktikan komitmennya untuk menghadirkan inovasi yang mengesankan dalam komputasi kecerdasan buatan. GPU ini bukan hanya menawarkan kinerja yang luar biasa dengan 20 petaflop FP4, tetapi juga efisiensi yang tak tertandingi.
Misalnya, untuk melatih model dengan 1,8 triliun parameter, dibutuhkan 8.000 GPU Hopper dan sekitar 15 megawatt energi, sementara satu set 2.000 GPU Blackwell dapat melakukannya hanya dengan 4 megawatt.
Penyelesaian Komprehensif untuk Perusahaan
Nvidia tidak hanya menawarkan produk unggulan dalam bentuk GPU Blackwell B200, tetapi juga menyediakan solusi komprehensif untuk perusahaan. Perusahaan telah merancang NVL72 GB200 yang memungkinkan 36 CPU dan 72 GPU dalam satu rak yang didinginkan cairan.
Selain itu, DGX Superpod untuk DGX GB200 menggabungkan delapan dari sistem ini menjadi satu, yang menawarkan 288 CPU dan 576 GPU dengan 240TB memori. Dengan solusi ini, Nvidia memastikan bahwa perusahaan memiliki infrastruktur yang diperlukan untuk mendukung aplikasi AI mereka dengan efisiensi tinggi.
Integrasi dengan Layanan Cloud Utama
Tidak hanya mendukung infrastruktur lokal, Nvidia juga telah bekerja sama dengan beberapa penyedia layanan cloud utama seperti Oracle, Amazon, Google, dan Microsoft. Mereka telah berbagi rencana untuk mengintegrasikan rak NVL72 untuk layanan cloud mereka.
Dengan demikian, penggunaan teknologi terbaru dari Nvidia tidak hanya terbatas pada perusahaan besar dengan infrastruktur internal yang kuat, tetapi juga dapat diakses oleh perusahaan kecil dan menengah melalui layanan cloud yang mereka gunakan sehari-hari.
Dengan pengumuman GPU Blackwell B200, Nvidia telah menetapkan standar baru dalam komputasi kecerdasan buatan. Dengan kinerja yang luar biasa dan efisiensi yang tak tertandingi, serta penawaran solusi komprehensif untuk perusahaan dan integrasi dengan layanan cloud utama, Nvidia tetap menjadi pemimpin dalam industri ini dan mengarahkan arah masa depan komputasi AI.