Wawancara dengan Jensen Huang
founder & CEO of NVIDIA
oleh Bg2 Pod • 2025-09-25

Dalam sebuah diskusi yang memukau, Jensen Huang, CEO visioner Nvidia, memberikan gambaran langka tentang masa depan komputasi, AI, dan bahkan ekonomi global. Dalam percakapan dengan Bill Gurley dan Brad Gerstner dari Bg2 Pod, Huang mengungkapkan dengan sangat jelas bagaimana aspek kecerdasan buatan yang terlewatkan siap mendefinisikan ulang industri dan memicu pertumbuhan yang belum pernah terjadi sebelumnya, sekaligus menantang kebijaksanaan konvensional Wall Street.
Ledakan Billionx: Mendefinisikan Ulang Kebutuhan Komputasi AI
Setahun yang lalu, Jensen Huang dengan berani memprediksi bahwa inferensi AI tidak hanya akan meningkat 100 kali lipat atau 1000 kali lipat, tetapi satu miliar kali lipat yang mencengangkan. Meninjau kembali proyeksi ini, ia mengakui, "Saya meremehkannya. Biar saya catat." Keyakinannya justru meningkat, didorong oleh evolusi AI yang pesat. Apa yang dulunya dianggap sebagai hukum penskalaan (scaling law) "pra-pelatihan" tunggal, kini terpecah menjadi tiga kekuatan yang berbeda dan tumbuh secara eksponensial: pra-pelatihan (pre-training), pasca-pelatihan (post-training) (tempat AI "berlatih" keterampilan), dan yang terpenting, inferensi "berpikir" ("thinking" inference).
Inferensi "berpikir" inilah yang menjadi pengubah permainan. Tidak seperti model inferensi satu kali (one-shot) yang lama, AI modern kini dirancang untuk "berpikir sebelum menjawab," melakukan penelitian, memeriksa kebenaran dasar (ground truths), dan beriterasi. Proses kognitif yang kompleks ini menuntut komputasi yang jauh lebih besar secara eksponensial. Seperti yang diungkapkan Huang, "AI bukan lagi model bahasa dan AI adalah sistem dari model-model bahasa dan semuanya berjalan secara bersamaan mungkin menggunakan alat... dan semuanya multimodality." Pergeseran mendalam ini berarti selera komputasi AI tidak hanya besar, tetapi tak terpuaskan dan berkembang pesat, jauh melampaui apa yang banyak orang pahami saat ini.
Wawasan Utama:
- Inferensi AI mengalami peningkatan komputasi "miliar kali lipat" ("billionx") berkat kemunculan kemampuan "berpikir" dan rantai penalaran (chain-of-reasoning).
- Lanskap AI kini diatur oleh tiga hukum penskalaan yang berbeda: pra-pelatihan, pasca-pelatihan (AI berlatih), dan inferensi kompleks.
- Sistem multi-agen, AI multimodal, dan penggunaan alat yang ekstensif secara dramatis meningkatkan kebutuhan komputasi melampaui model bahasa sederhana.
OpenAI: Hyperscaler Triliun Dolar Berikutnya dan Langkah Strategis Nvidia
Inti dari visi Huang adalah kemitraan strategis Nvidia dengan OpenAI, yang mencakup investasi dan dukungan untuk membangun infrastruktur AI kolosal mereka sendiri. Ia melihat OpenAI bukan hanya sebagai pelanggan, tetapi sebagai "kemungkinan akan menjadi perusahaan hyperscale multi-triliun dolar berikutnya." Prediksi berani ini mendasari keputusan Nvidia untuk berinvestasi sebelum kenaikan pesat OpenAI yang diperkirakan, sebuah peluang yang disebut Huang sebagai "beberapa investasi terpintar yang bisa kita bayangkan."
Kemitraan ini juga menandakan pergeseran signifikan dalam lanskap AI. OpenAI, yang secara tradisional memanfaatkan hyperscaler seperti Microsoft Azure, kini membangun "infrastruktur AI yang dibangun sendiri" – secara efektif menjadi hyperscaler itu sendiri. Ini mencerminkan hubungan langsung Nvidia dengan raksasa seperti Meta dan Google, di mana mereka bekerja langsung di tingkat chip, perangkat lunak, dan sistem. OpenAI menavigasi "dua eksponensial" secara bersamaan: pertumbuhan eksponensial dalam penggunaan pelanggan dan peningkatan eksponensial dalam kebutuhan komputasi per kasus penggunaan (karena AI "berpikir"). Dukungan multi-arah Nvidia di Azure, OCI, CoreWeave, dan kini pembangunan langsung OpenAI dirancang untuk memenuhi permintaan yang berlipat ganda ini, semakin mengukuhkan peran Nvidia yang tak tergantikan.
Keputusan Utama:
- Investasi Nvidia di OpenAI adalah langkah strategis, bertaruh pada potensinya untuk menjadi entitas hyperscale multi-triliun dolar.
- Mendukung OpenAI dalam membangun infrastruktur AI sendiri membina hubungan full-stack yang langsung, mencerminkan keterlibatan Nvidia dengan raksasa teknologi lainnya.
- Kemitraan ini menjawab tantangan berlipat ganda dari adopsi pelanggan yang tumbuh secara eksponensial dan permintaan komputasi per pengguna di AI.
Benteng yang Tak Tergoyahkan: Co-Design Ekstrem dan Kecepatan Tahunan
Analis Wall Street saat ini memperkirakan pertumbuhan Nvidia akan mendatar sekitar tahun 2027-2030, sebuah perspektif yang menurut Huang tidak konsisten dengan pergeseran mendasar yang terjadi. Ia menyajikan tiga poin fundamental: Pertama, "komputasi tujuan umum sudah berakhir," dan triliunan dolar infrastruktur komputasi dunia harus diperbarui dengan komputasi AI yang dipercepat. Kedua, beban kerja hyperscale yang ada (mesin pencari, mesin rekomendasi) bermigrasi dengan cepat dari CPU ke GPU, sebuah pergeseran senilai "ratusan miliar dolar." Terakhir, dan yang paling mendalam, AI akan meningkatkan kecerdasan manusia, berdampak pada 50-65% PDB global.
Untuk memenuhi "eksponensial dari eksponensial" yang didorong oleh generasi token dan penggunaan pelanggan, Nvidia telah mengadopsi siklus rilis tahunan yang agresif untuk arsitekturnya (Hopper, Blackwell, Rubin, Fineman). Dengan Hukum Moore untuk kinerja sebagian besar mati, keunggulan kompetitif Nvidia berasal dari "co-design ekstrem." Ini bukan hanya tentang chip yang lebih cepat; ini tentang mengoptimalkan model, algoritma, sistem, dan chip secara bersamaan, berinovasi "di luar kebiasaan." Seperti yang dijelaskan Huang, pendekatan full-stack ini—yang mencakup CPU, GPU, chip jaringan, MVLink, dan Spectrum-X Ethernet—memungkinkan Nvidia mencapai peningkatan kinerja 30 kali lipat antar generasi (seperti Hopper ke Blackwell) yang tidak dapat diberikan oleh kemajuan silikon konvensional mana pun. Inovasi sistemik ini, dikombinasikan dengan skala investasi besar yang dibutuhkan dari Nvidia dan pelanggannya, menciptakan benteng pertahanan yang tangguh yang "lebih sulit dari sebelumnya" bagi pesaing untuk meniru.
Praktik Utama:
- Nvidia mempertahankan siklus rilis tahunan yang agresif untuk arsitekturnya guna mengimbangi peningkatan eksponensial dalam generasi token dan penggunaan AI.
- "Co-design ekstrem" melibatkan optimasi simultan di seluruh tumpukan pabrik AI: model, algoritma, sistem, chip, jaringan, dan perangkat lunak.
- Perusahaan telah bergerak melampaui inovasi chip individual untuk membangun sistem AI terintegrasi, full-stack yang memberikan peningkatan kinerja yang belum pernah terjadi sebelumnya.
- Skala penerapan pelanggan (misalnya, satu gigawatt membutuhkan 500.000 GPU) dan kapasitas rantai pasokan Nvidia menciptakan penghalang masuk yang besar.
Meningkatkan Kecerdasan Manusia: Pergeseran Ekonomi Triliun Dolar
Dampak jangka panjang AI yang sesungguhnya, Huang berpendapat, terletak pada kemampuannya untuk meningkatkan kecerdasan manusia. Mengambil analogi, ia menyatakan bahwa sama seperti motor yang menggantikan tenaga fisik, "superkomputer AI ini, pabrik-pabrik AI yang saya bicarakan, mereka akan menghasilkan token untuk meningkatkan kecerdasan manusia." Dengan kecerdasan manusia menyumbang potensi $50 triliun dari PDB global, bahkan peningkatan yang sederhana—seperti AI senilai $10.000 yang membuat karyawan senilai $100.000 dua kali lebih produktif—menciptakan pasar baru yang sangat besar.
Peningkatan ini, ia yakini, dapat menambahkan "10 triliun" ke PDB global, membutuhkan belanja modal tahunan "5 triliun" untuk infrastruktur AI. Ini bukan tentang "kekosongan (air pocket)" atau "kelebihan pasokan (glut)"; ini adalah pergeseran fundamental. Ia menepis kekhawatiran tentang kelebihan pasokan, menyatakan, "sampai kita sepenuhnya mengubah semua komputasi tujuan umum menjadi komputasi yang dipercepat dan AI... kemungkinan [kelebihan pasokan] sangat rendah." Sinyal permintaan dari pelanggan secara konsisten meremehkan kebutuhan sebenarnya, menjaga Nvidia dalam "mode terburu-buru" yang konstan. "Kebangkitan bagi industri energi" dan seluruh ekosistem infrastruktur ini menandakan percepatan PDB global, didorong oleh miliaran "rekan kerja" AI baru.
Wawasan Utama:
- Dampak ekonomi utama AI adalah meningkatkan kecerdasan manusia, yang mengarah pada percepatan pertumbuhan PDB global.
- Transisi dari komputasi tujuan umum ke komputasi yang dipercepat/AI, ditambah dengan migrasi beban kerja hyperscale yang ada ke AI, memastikan permintaan yang berkelanjutan.
- Rantai pasokan Nvidia didorong oleh permintaan, secara konsisten menanggapi perkiraan pelanggan yang secara rutin meremehkan kebutuhan komputasi yang sebenarnya.
"Satu-satunya penyesalan saya adalah mereka mengundang kami untuk berinvestasi sejak awal... dan kami sangat miskin, Anda tahu, kami sangat miskin, kami tidak berinvestasi cukup, Anda tahu, dan seharusnya saya memberikan semua uang saya kepada mereka." - Jensen Huang


