Intervju med Jensen Huang

founder & CEO of NVIDIA

av Bg2 Pod2025-09-25

Jensen Huang

I en fängslande diskussion erbjöd Jensen Huang, den visionära VD:n för Nvidia, en sällsynt inblick i framtiden för databehandling, AI och till och med global ekonomi. I ett samtal med Bill Gurley och Brad Gerstner från Bg2 Pod, framhöll Huang med slående klarhet hur en förbisedd aspekt av artificiell intelligens är redo att omdefiniera branscher och släppa lös oöverträffad tillväxt, samtidigt som den utmanar konventionell Wall Street-visdom.

Billionx-boomen: Omdefinierar AI:s beräkningskrav

För ett år sedan förutspådde Jensen Huang djärvt att AI-inferens inte bara skulle öka med 100x eller 1000x, utan med häpnadsväckande en miljardx. När han återbesöker denna prognos medger han: "Jag underskattade. Låt mig bara slå fast det." Hans självförtroende har bara skjutit i höjden, drivet av AI:s snabba utveckling. Vad som en gång sågs som en enda skalningslag för "förträning" har nu brutits upp i tre distinkta, exponentiellt växande krafter: förträning, efterträning (där AI "övningar" färdigheter) och, avgörande, "tänkande" inferens.

Denna "tänkande" inferens är det som förändrar spelet. Till skillnad från den gamla "one-shot" inferensmodellen är modern AI nu utformad för att "tänka innan du svarar", utföra forskning, kontrollera grundläggande fakta och iterera. Denna komplexa kognitiva process kräver exponentiellt mer beräkningskraft. Som Huang uttrycker det: "AI är inte längre en språkmodell utan ett system av språkmodeller som alla körs samtidigt, kanske med hjälp av verktyg... och det är allt multimodalt." Denna djupgående förändring innebär att AI:s beräkningsaptit inte bara är stor, utan omättlig och snabbt växande, långt bortom vad många för närvarande förstår.

Viktiga insikter:

  • AI-inferens upplever en "miljardx" beräkningsökning tack vare uppkomsten av "tänkande" och kedje-av-resonemang-förmågor.
  • AI-landskapet styrs nu av tre distinkta skalningslagar: förträning, efterträning (AI som övar) och komplex inferens.
  • Multi-agentsystem, multimodal AI och omfattande verktygsanvändning eskalerar dramatiskt beräkningskraven bortom enkla språkmodeller.

OpenAI: Nästa Hyperscaler på biljoner dollar och Nvidias strategiska gambit

Centralt för Huangs vision är Nvidias strategiska partnerskap med OpenAI, vilket inkluderar en investering och stöd för att bygga deras egen kolossala AI-infrastruktur. Han ser OpenAI inte bara som en kund, utan som "troligen kommer att bli nästa multi-biljoner dollar hyperscale-företag." Denna djärva förutsägelse underbygger Nvidias beslut att investera före OpenAI:s förväntade meteoriska uppgång, en möjlighet som Huang kallar "några av de smartaste investeringar vi överhuvudtaget kan föreställa oss."

Detta partnerskap signalerar också en betydande förändring i AI-landskapet. OpenAI, som traditionellt har utnyttjat hyperscalers som Microsoft Azure, bygger nu sin egen "självbyggda AI-infrastruktur" – och blir därmed effektivt en hyperscaler i sig självt. Detta speglar de direkta relationer Nvidia har med jättar som Meta och Google, där de arbetar direkt på chip-, mjukvaru- och systemnivå. OpenAI navigerar samtidigt "två exponentialkurvor": en exponentiell tillväxt i kundanvändning och en exponentiell ökning av beräkningskrav per användningsfall (på grund av "tänkande" AI). Nvidias mångfacetterade stöd över Azure, OCI, CoreWeave och nu OpenAI:s direkta utbyggnad är utformat för att möta denna sammansatta efterfrågan, vilket ytterligare befäster Nvidias oumbärliga roll.

Viktiga beslut:

  • Nvidias investering i OpenAI är ett strategiskt drag, som satsar på dess potential att bli en multi-biljoner dollar hyperscale-enhet.
  • Att stödja OpenAI i att själv bygga sin AI-infrastruktur främjar direkta, full-stack relationer, vilket speglar Nvidias engagemang med andra teknikjättar.
  • Partnerskapet hanterar den sammansatta utmaningen med exponentiellt växande kundadoption och beräkningskrav per användare inom AI.

Den ogenomträngliga vallgraven: Extrem co-design och årlig hastighet

Wall Street-analytiker förutspår för närvarande att Nvidias tillväxt kommer att plana ut runt 2027-2030, en synvinkel som Huang anser vara oförenlig med de underliggande skiftena. Han presenterar tre grundläggande punkter: För det första är "allmän databehandling över", och världens biljoner dollar i datainfrastruktur måste förnyas med accelererad AI-databehandling. För det andra migrerar befintliga hyperscale-arbetsbelastningar (sök, rekommendationsmotorer) snabbt från processorer till grafikkort, ett skifte på "hundratals miljarder dollar". Slutligen, och mest djuplodande, kommer AI att förstärka mänsklig intelligens, vilket påverkar 50-65% av världens BNP.

För att möta "exponenten av exponenter" driven av token-generering och kundanvändning, har Nvidia antagit en aggressiv årlig släppcykel för sina arkitekturer (Hopper, Blackwell, Rubin, Fineman). Med Moore's lag för prestanda i stort sett död, kommer Nvidias konkurrensfördel från "extrem co-design". Detta handlar inte bara om snabbare chip; det handlar om att optimera modell, algoritm, system och chip samtidigt, och att innovera "utanför boxen". Som Huang förklarar, tillåter detta full-stack tillvägagångssätt – som omfattar processorer, grafikkort, nätverkschip, MVLink och Spectrum-X Ethernet – Nvidia att uppnå prestandavinster på 30x mellan generationer (som Hopper till Blackwell) som ingen konventionell kiselutveckling skulle kunna leverera. Denna systematiska innovation, i kombination med den enorma investeringsskala som krävs från både Nvidia och dess kunder, skapar en formidabel vallgrav som är "svårare än någonsin tidigare" för konkurrenter att replikera.

Viktiga metoder:

  • Nvidia upprätthåller en aggressiv årlig släppcykel för sina arkitekturer för att hålla jämna steg med exponentiella ökningar i token-generering och AI-användning.
  • "Extrem co-design" innebär samtidig optimering över hela AI-fabrikens stack: modeller, algoritmer, system, chip, nätverk och mjukvara.
  • Företaget har gått bortom individuell chip-innovation till att bygga integrerade, full-stack AI-system som levererar oöverträffade prestandavinster.
  • Skalan på kunddistributioner (t.ex. en gigawatt som kräver 500 000 grafikkort) och Nvidias leveranskedjekapacitet skapar en massiv inträdesbarriär.

Att förstärka mänskligheten: Det ekonomiska skiftet på biljoner dollar

AI:s verkliga långsiktiga inverkan, hävdar Huang, ligger i dess förmåga att förstärka mänsklig intelligens. Med en analogi hävdar han att precis som motorer ersatte fysiskt arbete, kommer "dessa AI-superdatorer, dessa AI-fabriker som jag talar om, att generera tokens för att förstärka mänsklig intelligens". Med mänsklig intelligens som potentiellt står för 50 biljoner dollar av världens BNP, skapar även en blygsam förstärkning – som en AI för 10 000 dollar som gör en anställd för 100 000 dollar dubbelt så produktiv – en enorm ny marknad.

Denna förstärkning, menar han, skulle kunna lägga till "10 biljoner" till världens BNP, vilket kräver en årlig kapitalutgift på "5 biljoner" på AI-infrastruktur. Detta handlar inte om en "luftficka" eller "överflöd"; det är en grundläggande förändring. Han avfärdar farhågor om överutbud och säger: "tills vi fullt ut konverterar all allmän databehandling till accelererad databehandling och AI... är chanserna [för ett överflöd] extremt låga." Efterfrågesignalerna från kunder underskattar konsekvent det faktiska behovet, vilket håller Nvidia i ett konstant "rusningsläge". Denna "renässans för energibranschen" och hela infrastrukturekosystemet signalerar en global acceleration av BNP, driven av miljarder nya AI-"medarbetare".

Viktiga insikter:

  • AI:s primära ekonomiska inverkan kommer att vara att förstärka mänsklig intelligens, vilket leder till en acceleration av den globala BNP-tillväxten.
  • Övergången från allmän databehandling till accelererad/AI-databehandling, i kombination med migreringen av befintliga hyperscale-arbetsbelastningar till AI, säkerställer kontinuerlig efterfrågan.
  • Nvidias leveranskedja är efterfrågestyrd och svarar konsekvent på kundprognoser som rutinmässigt underskattar det faktiska beräkningsbehovet.

"Min enda ånger är att de bjöd in oss att investera tidigt... och vi var så fattiga, du vet, att vi var så fattiga, vi investerade inte tillräckligt, du vet, och jag borde ha gett dem alla mina pengar." - Jensen Huang