lenkaed.com – Nvidia resmi memperkenalkan arsitektur komputasi terbarunya, Rubin, pada ajang Consumer Electronics Show (CES) 2026 di Las Vegas. Peluncuran ini menegaskan posisi Nvidia sebagai pemimpin global dalam teknologi perangkat keras untuk kecerdasan buatan (AI).
CEO Nvidia, Jensen Huang, menyebut Rubin sebagai “teknologi tercanggih saat ini untuk perangkat keras AI,” dan mengonfirmasi bahwa arsitektur ini telah memasuki tahap produksi penuh. “Vera Rubin dirancang untuk menjawab kebutuhan komputasi AI yang meningkat pesat,” ujar Huang kepada audiens CES.
Rubin pertama kali diumumkan pada 2024 dan menjadi penerus arsitektur Blackwell, yang sebelumnya menggantikan Hopper dan Lovelace. Arsitektur ini dirancang untuk mendukung berbagai penyedia layanan cloud, termasuk Anthropic, OpenAI, dan Amazon Web Services, serta superkomputer seperti Blue Lion milik HPE dan Doudna di Lawrence Berkeley National Laboratory.
Struktur Rubin dan Fitur Unggulan
Arsitektur Rubin dinamai dari astronom Vera Florence Cooper Rubin dan terdiri dari enam chip terpisah yang bekerja secara bersamaan. GPU Rubin menjadi inti komputasi, sementara CPU baru bernama Vera mendukung penalaran berbasis agen (agentic reasoning). Sistem ini juga menghadirkan peningkatan konektivitas melalui NVLink dan sistem penyimpanan Bluefield yang memungkinkan kapasitas memori diperluas secara efisien.
Senior Director AI Infrastructure Solutions Nvidia, Dion Harris, menjelaskan pentingnya penyimpanan tambahan: “Ketika alur kerja baru seperti agentic AI dijalankan, kebutuhan KV cache sangat besar. Lapisan penyimpanan eksternal memungkinkan kapasitas meningkat secara efisien.”
Performa dan Efisiensi Daya
Rubin menawarkan lonjakan performa signifikan dibanding pendahulunya. Berdasarkan pengujian Nvidia, arsitektur ini 3,5 kali lebih cepat untuk pelatihan model AI dibanding Blackwell, serta 5 kali lebih cepat untuk tugas inferensi. Kapasitas komputasi Rubin mencapai 50 petaflops, sementara komputasi inferensi per watt meningkat 8 kali lipat.
Huang menekankan bahwa performa tinggi ini penting di tengah persaingan global pembangunan infrastruktur AI. “Platform baru ini memungkinkan perusahaan AI dan penyedia cloud mengoptimalkan komputasi sambil mengurangi konsumsi daya,” tambahnya.
Konteks dan Dampak Global
Peluncuran Rubin terjadi saat permintaan chip AI meningkat drastis. Nvidia memperkirakan investasi global di infrastruktur AI akan mencapai 3-4 triliun dolar AS dalam lima tahun ke depan. Hal ini mendorong perusahaan teknologi dan penyedia cloud berlomba mendapatkan chip Nvidia serta dukungan ekosistemnya.
Keunggulan Rubin, menurut Huang, bukan hanya pada kecepatan, tetapi juga pada fleksibilitas. Arsitektur ini mendukung komputasi jangka panjang, agentic AI, serta aplikasi cloud berskala besar. Integrasi GPU, CPU, dan sistem penyimpanan canggih memungkinkan Rubin menghadapi tantangan AI modern secara menyeluruh.
Rubin sebagai Landasan Transformasi AI
Peluncuran Rubin menegaskan posisi Nvidia sebagai pionir dalam perangkat keras AI. Dengan performa tinggi, efisiensi daya, dan kapasitas skalabilitas besar, Rubin diproyeksikan menjadi fondasi utama berbagai layanan AI masa depan.
Bagi industri cloud dan penelitian superkomputer, arsitektur ini membuka peluang baru dalam mempercepat inovasi AI sambil mengurangi hambatan teknis. Rubin tidak hanya meningkatkan performa, tetapi juga menegaskan komitmen Nvidia terhadap pertumbuhan ekosistem AI global yang berkelanjutan.




Leave a Reply