Panayam kay Jensen Huang

founder & CEO of NVIDIA

ni Bg2 Pod2025-09-25

Jensen Huang

Sa isang nakakabighaning talakayan, si Jensen Huang, ang bisyonaryong CEO ng Nvidia, ay nagbigay ng pambihirang sulyap sa hinaharap ng computing, AI, at maging sa pandaigdigang ekonomiya. Sa pakikipag-usap kina Bill Gurley at Brad Gerstner ng Bg2 Pod, malinaw na ipinaliwanag ni Huang kung paano ang isang napapansing aspeto ng artificial intelligence ay nakahandang magpabago sa mga industriya at magpakawala ng walang kaparis na paglago, hinahamon ang nakasanayang pananaw ng Wall Street.

The Billionx Boom: Redefining AI's Computational Demands

Isang taon na ang nakalipas, buong tapang na hinulaan ni Jensen Huang na ang AI inference ay hindi lang magiging 100x o 1000x, kundi isang nakakagulat na isang bilyong beses (billionx). Sa pagbabalik-tanaw sa prediksyon, inamin niya, "Nagkamali ako sa pagtantya. Gusto kong ipatala ito." Tumindi pa ang kanyang kumpiyansa, pinatibay ng mabilis na ebolusyon ng AI. Ang dating itinuturing na nag-iisang batas ng paglaki sa "pre-training" ay nahati sa tatlong magkakaibang puwersa na eksponensyal na lumalaki: pre-training, post-training (kung saan 'nagsasanay' ng kasanayan ang AI), at, pinakamahalaga, ang "pag-iisip" na inference.

Ang "pag-iisip" na inference na ito ang nagpapabago ng laro. Hindi tulad ng lumang one-shot inference model, ang modernong AI ay idinisenyo na ngayon na "mag-isip bago sumagot," nagsasagawa ng pananaliksik, tinitingnan ang mga katotohanan, at umuulit. Ang komplikadong prosesong kognitibo na ito ay nangangailangan ng mas maraming compute nang eksponensyal. Ayon kay Huang, "Ang AI ay hindi na lang isang language model at ang AI ay isang sistema ng mga language model na sabay-sabay na tumatakbo marahil ay gumagamit ng mga tool... at ito ay multimodality." Ang malalim na pagbabagong ito ay nangangahulugan na ang pagnanasa ng AI sa komputasyon ay hindi lang malaki, kundi hindi masisiyahan at mabilis na lumalawak, malayo sa naiintindihan ng marami sa kasalukuyan.

Key Insights:

  • Ang AI inference ay nakakaranas ng "billionx" na pagtaas sa komputasyon dahil sa pagdating ng "pag-iisip" at kakayahan sa chain-of-reasoning.
  • Ang AI landscape ay pinamamahalaan na ngayon ng tatlong natatanging batas ng paglaki: pre-training, post-training (pagsasanay ng AI), at kumplikadong inference.
  • Ang multi-agent systems, multimodal AI, at malawakang paggamit ng tool ay lubos na nagpapataas ng mga pangangailangan sa compute lampas sa simpleng language models.

OpenAI: The Next Trillion-Dollar Hyperscaler and Nvidia's Strategic Gambit

Pangunahing bahagi ng bisyon ni Huang ang estratehikong pakikipagtulungan ng Nvidia sa OpenAI, na kinabibilangan ng pamumuhunan at suporta sa pagtatayo ng sarili nilang napakalaking imprastraktura ng AI. Nakikita niya ang OpenAI hindi lang bilang isang customer, kundi bilang "malamang na maging susunod na multi-trillion dollar na hyperscale company." Ang matapang na prediksyon na ito ang batayan ng desisyon ng Nvidia na mamuhunan nang maaga sa inaasahang mabilis na pag-angat ng OpenAI, isang pagkakataon na tinawag ni Huang na "ilan sa mga pinakamatalinong pamumuhunan na maiisip natin."

Ang partnership na ito ay nagpapahiwatig din ng malaking pagbabago sa AI landscape. Ang OpenAI, na tradisyonal na gumagamit ng mga hyperscaler tulad ng Microsoft Azure, ay ngayon ay nagtatayo ng sarili nitong "self-build AI infrastructure" – epektibong nagiging isang hyperscaler mismo. Sumasalamin ito sa direktang relasyon ng Nvidia sa mga higante tulad ng Meta at Google, kung saan direkta silang nagtatrabaho sa antas ng chip, software, at sistema. Sabay na hinaharap ng OpenAI ang "dalawang exponentials": isang eksponensyal na paglago sa paggamit ng customer at isang eksponensyal na pagtaas sa computational requirements bawat use case (dahil sa "pag-iisip" ng AI). Ang malawak na suporta ng Nvidia sa Azure, OCI, CoreWeave, at ngayon sa direktang pagtatayo ng OpenAI ay idinisenyo upang matugunan ang pinagsama-samang pangangailangan na ito, lalong nagpapatibay sa hindi matatawarang papel ng Nvidia.

Key Decisions:

  • Ang pamumuhunan ng Nvidia sa OpenAI ay isang estratehikong hakbang, na tumataya sa potensyal nito na maging isang multi-trillion dollar na hyperscale entity.
  • Ang pagsuporta sa OpenAI sa pagtatayo ng sarili nitong AI infrastructure ay nagpapalakas ng direkta at full-stack na relasyon, na sumasalamin sa pakikipag-ugnayan ng Nvidia sa iba pang tech giants.
  • Tinutugunan ng partnership ang pinagsama-samang hamon ng eksponensyal na pagdami ng customer adoption at per-user computational demand sa AI.

The Unassailable Moat: Extreme Co-Design and Annual Velocity

Kasalukuyang hinuhulaan ng mga analyst ng Wall Street na titigil ang paglago ng Nvidia sa paligid ng 2027-2030, isang pananaw na ayon kay Huang ay hindi tugma sa mga nagaganap na pagbabago. Naglahad siya ng tatlong pangunahing punto: Una, "tapos na ang general purpose computing," at ang trilyun-trilyong dolyar na computing infrastructure ng mundo ay kailangan i-refresh gamit ang accelerated AI computing. Pangalawa, ang umiiral na hyperscale workloads (search, recommender engines) ay mabilis na lumilipat mula sa mga CPU patungo sa mga GPU, isang pagbabagong nagkakahalaga ng "daan-daang bilyong dolyar." Panghuli, at pinakamalalim, ang AI ay magpapalawak ng katalinuhan ng tao, na makakaapekto sa 50-65% ng pandaigdigang GDP.

Upang matugunan ang "eksponensyal ng mga eksponensyal" na hinihimok ng token generation at paggamit ng customer, ang Nvidia ay nagpatupad ng agresibong taunang siklo ng paglabas para sa mga arkitektura nito (Hopper, Blackwell, Rubin, Fineman). Dahil ang Moore's Law para sa performance ay halos wala na, ang competitive edge ng Nvidia ay nagmumula sa "extreme co-design." Hindi lang ito tungkol sa mas mabilis na chips; ito ay tungkol sa sabay-sabay na pag-optimize ng modelo, algorithm, sistema, at chip, na nagbabago "sa labas ng kahon." Ayon kay Huang, ang full-stack approach na ito—na sumasaklaw sa mga CPU, GPU, networking chips, MVLink, at Spectrum-X Ethernet—ay nagbibigay-daan sa Nvidia na makamit ang pagtaas ng performance na 30x sa pagitan ng mga henerasyon (tulad ng Hopper sa Blackwell) na hindi kayang ibigay ng anumang kumbensyonal na pag-unlad ng silicon. Ang sistematikong inobasyon na ito, kasama ng napakalaking pamumuhunan na kinakailangan mula sa Nvidia at sa mga customer nito, ay lumilikha ng isang matibay na pananggalang na "mas mahirap kopyahin kaysa dati" para sa mga kakumpitensya.

Key Practices:

  • Pinapanatili ng Nvidia ang isang agresibong taunang siklo ng paglabas para sa mga arkitektura nito upang makasabay sa eksponensyal na pagtaas ng token generation at paggamit ng AI.
  • Ang "Extreme co-design" ay nagsasangkot ng sabay-sabay na optimisasyon sa buong AI factory stack: mga modelo, algorithm, sistema, chips, networking, at software.
  • Lumampas na ang kumpanya sa indibidwal na inobasyon ng chip upang bumuo ng integrated, full-stack na AI systems na naghahatid ng walang kaparis na pagtaas ng performance.
  • Ang laki ng mga deployment ng customer (hal., isang gigawatt na nangangailangan ng 500,000 GPUs) at ang kapasidad ng supply chain ng Nvidia ay lumilikha ng isang malaking hadlang sa pagpasok.

Augmenting Humanity: The Trillion-Dollar Economic Shift

Ang tunay na pangmatagalang epekto ng AI, ayon kay Huang, ay nakasalalay sa kakayahan nitong dagdagan ang katalinuhan ng tao. Nagbigay siya ng analohiya, na kung paanong pinalitan ng mga motor ang pisikal na paggawa, "ang mga AI supercomputer na ito, ang mga AI factory na tinatalakay ko, ay magbubuo ng mga token upang dagdagan ang katalinuhan ng tao." Dahil ang katalinuhan ng tao ay bumubuo ng posibleng $50 trilyon ng pandaigdigang GDP, kahit na isang maliit na pagdaragdag—tulad ng isang $10,000 AI na nagpapagawa sa isang $100,000 na empleyado nang dalawang beses na mas produktibo—ay lumilikha ng napakalaking bagong merkado.

Ang pagdaragdag na ito, ayon sa kanya, ay maaaring magdagdag ng "10 trilyon" sa pandaigdigang GDP, na nangangailangan ng "5 trilyon" na taunang capital expenditure sa imprastraktura ng AI. Hindi ito tungkol sa isang "air pocket" o "glut"; ito ay isang pundasyong pagbabago. Pinuputol niya ang mga alalahanin tungkol sa oversupply, na sinasabing, "hanggang sa ganap nating ma-convert ang lahat ng general purpose computing sa accelerated computing at AI... ang posibilidad [ng isang glut] ay lubhang mababa." Ang mga signal ng demand mula sa mga customer ay patuloy na minamaliit ang aktwal na pangangailangan, pinapanatili ang Nvidia sa isang tuloy-tuloy na "scramble mode." Ang "renaissance na ito para sa industriya ng enerhiya" at ang buong ecosystem ng imprastraktura ay nagpapahiwatig ng pandaigdigang pagbilis ng GDP, na hinihimok ng bilyun-bilyong bagong AI "co-workers."

Key Insights:

  • Ang pangunahing epekto ng AI sa ekonomiya ay ang pagpapalawak ng katalinuhan ng tao, na magreresulta sa pagbilis ng paglago ng pandaigdigang GDP.
  • Ang paglipat mula sa general-purpose patungo sa accelerated/AI computing, kasama ang paglipat ng umiiral na hyperscale workloads sa AI, ay titiyak ng tuloy-tuloy na demand.
  • Ang supply chain ng Nvidia ay hinihimok ng demand, patuloy na tumutugon sa mga forecast ng customer na regular na nagkukulang sa aktwal na pangangailangan sa compute.

"Ang tanging pinagsisisihan ko ay inimbitahan nila kami na mamuhunan nang maaga... at kami ay napakahirap noon, alam mo, napakahirap namin, kaya hindi kami sapat na nakapag-invest, alam mo, at dapat binigay ko na lang sa kanila ang lahat ng pera ko." - Jensen Huang