Wywiad z Jensen Huang
founder & CEO of NVIDIA
przez Bg2 Pod • 2025-09-25

W porywającej dyskusji Jensen Huang, wizjonerski CEO Nvidii, zaoferował rzadkie spojrzenie w przyszłość informatyki, sztucznej inteligencji, a nawet globalnej ekonomii. Spotykając się z Billem Gurleyem i Bradem Gerstnerem z Bg2 Pod, Huang z uderzającą jasnością przedstawił, w jaki sposób niedoceniany aspekt sztucznej inteligencji jest gotów na nowo zdefiniować branże i uwolnić bezprecedensowy wzrost, podważając po drodze konwencjonalną mądrość Wall Street.
Boom "Miliardx": Redefiniowanie wymagań obliczeniowych AI
Rok temu Jensen Huang śmiało przewidział, że wnioskowanie AI (inference) nie wzrośnie zaledwie stukrotnie czy tysiąckrotnie, ale oszałamiająco miliardkrotnie. Powracając do tej prognozy, przyznaje: "Zaniżyłem. Chcę, żeby to zostało oficjalnie odnotowane." Jego pewność siebie tylko wzrosła, napędzana szybką ewolucją AI. To, co kiedyś uważano za pojedyncze prawo skalowania "pre-treningu" (pre-training), rozpadło się na trzy odrębne, wykładniczo rosnące siły: pre-trening, post-trening (gdzie AI "ćwiczy" umiejętności) i, co kluczowe, wnioskowanie "myślące" (thinking inference).
To "myślące" wnioskowanie (thinking inference) to przełom. W przeciwieństwie do starego modelu wnioskowania jednorazowego (one-shot inference), nowoczesna AI jest teraz zaprojektowana tak, aby "pomyśleć, zanim odpowiesz", przeprowadzając badania, sprawdzając prawdy podstawowe (ground truths) i iterując. Ten złożony proces poznawczy wymaga wykładniczo większej mocy obliczeniowej. Jak to ujął Huang: "AI to już nie model językowy, a system modeli językowych, które wszystkie działają równocześnie, być może używając narzędzi... i to wszystko jest multimodalnością (multimodality)." Ta głęboka zmiana oznacza, że apetyt AI na moc obliczeniową jest nie tylko duży, ale nienasycony i szybko rosnący, daleko wykraczający poza to, co wielu obecnie rozumie.
Kluczowe spostrzeżenia:
- Wnioskowanie AI doświadcza "miliardkrotnego" wzrostu obliczeniowego dzięki pojawieniu się możliwości "myślenia" i łańcuchowego rozumowania (chain-of-reasoning).
- Krajobraz AI jest teraz rządzony przez trzy odrębne prawa skalowania: pre-trening, post-trening (AI ćwicząca) i złożone wnioskowanie.
- Systemy wieloagentowe (multi-agent systems), multimodalna AI i szerokie wykorzystanie narzędzi drastycznie zwiększają wymagania obliczeniowe poza proste modele językowe.
OpenAI: Kolejny hiperskaler o wartości biliona dolarów i strategiczny gambit Nvidii
Kluczowym elementem wizji Huanga jest strategiczne partnerstwo Nvidii z OpenAI, obejmujące inwestycję i wsparcie w budowie ich własnej, kolosalnej infrastruktury AI. Postrzega OpenAI nie tylko jako klienta, ale jako "prawdopodobnie kolejną firmę hiperskalową o wartości wielu bilionów dolarów". Ta śmiała prognoza leży u podstaw decyzji Nvidii o zainwestowaniu przed spodziewanym, błyskawicznym wzrostem OpenAI, co Huang nazywa "jednymi z najmądrzejszych inwestycji, jakie możemy sobie wyobrazić".
Partnerstwo to sygnalizuje również znaczącą zmianę w krajobrazie AI. OpenAI, tradycyjnie korzystające z hiperskalerów takich jak Microsoft Azure, buduje teraz własną "infrastrukturę AI do samodzielnej budowy" – skutecznie stając się samym hiperskalerem. Odzwierciedla to bezpośrednie relacje Nvidii z gigantami takimi jak Meta i Google, gdzie współpracują oni bezpośrednio na poziomach chipów, oprogramowania i systemów. OpenAI jednocześnie radzi sobie z "dwoma wykładniczymi wzrostami": wykładniczym wzrostem wykorzystania przez klientów oraz wykładniczym wzrostem wymagań obliczeniowych na przypadek użycia (ze względu na "myślącą" AI). Wielostronne wsparcie Nvidii dla Azure, OCI, CoreWeave, a teraz bezpośredniej rozbudowy OpenAI, ma na celu sprostanie temu złożonemu zapotrzebowaniu, dodatkowo umacniając niezastąpioną rolę Nvidii.
Kluczowe decyzje:
- Inwestycja Nvidii w OpenAI to strategiczny ruch, stawiający na jej potencjał stania się hiperskalowym podmiotem o wartości wielu bilionów dolarów.
- Wspieranie OpenAI w samodzielnej budowie jej infrastruktury AI sprzyja bezpośrednim, pełnozakresowym relacjom (full-stack relationships), odzwierciedlając zaangażowanie Nvidii z innymi gigantami technologicznymi.
- Partnerstwo odpowiada na złożone wyzwanie wykładniczo rosnącego przyjęcia przez klientów i zapotrzebowania na moc obliczeniową na użytkownika w AI.
Nienaruszalna fosa: Ekstremalne współprojektowanie i roczna prędkość
Analitycy z Wall Street obecnie prognozują spłaszczenie wzrostu Nvidii około lat 2027-2030, co Huang uważa za niezgodne z fundamentalnymi zmianami. Przedstawia trzy fundamentalne punkty: Po pierwsze, "obliczenia ogólnego przeznaczenia (general purpose computing) dobiegły końca", a światowa infrastruktura obliczeniowa warta biliony dolarów musi zostać odświeżona obliczeniami AI z akceleracją. Po drugie, istniejące obciążenia hiperskalowe (wyszukiwanie, silniki rekomendacji) szybko migrują z procesorów (CPU) na procesory graficzne (GPU), co jest zmianą "wartą setki miliardów dolarów". Po trzecie, i co najważniejsze, AI będzie wspomagać ludzką inteligencję, wpływając na 50-65% światowego PKB.
Aby sprostać "wykładniczej wykładniczości" (exponential of exponentials) napędzanej generowaniem tokenów i wykorzystaniem przez klientów, Nvidia przyjęła agresywny roczny cykl wydawniczy dla swoich architektur (Hopper, Blackwell, Rubin, Fineman). Ponieważ Prawo Moore'a dla wydajności w dużej mierze umarło, przewaga konkurencyjna Nvidii wynika z "ekstremalnego współprojektowania" (extreme co-design). Nie chodzi tu tylko o szybsze chipy; chodzi o jednoczesną optymalizację modelu, algorytmu, systemu i chipu, wprowadzając innowacje "poza schematem". Jak wyjaśnia Huang, to podejście pełnego stosu (full-stack approach) – obejmujące procesory (CPU), procesory graficzne (GPU), chipy sieciowe, MVLink i Spectrum-X Ethernet – pozwala Nvidii osiągać 30-krotne wzrosty wydajności między generacjami (jak od Hoppera do Blackwella), których żaden konwencjonalny postęp w dziedzinie krzemu nie byłby w stanie zapewnić. Ta systemowa innowacja, w połączeniu z samą skalą inwestycji wymaganych zarówno od Nvidii, jak i jej klientów, tworzy potężną fosę, którą "trudniej niż kiedykolwiek" jest konkurentom powielić.
Kluczowe praktyki:
- Nvidia utrzymuje agresywny roczny cykl wydawniczy dla swoich architektur, aby nadążyć za wykładniczym wzrostem generowania tokenów i wykorzystania AI.
- "Ekstremalne współprojektowanie" (extreme co-design) obejmuje jednoczesną optymalizację w całym stosie "fabryki AI": modeli, algorytmów, systemów, chipów, sieci i oprogramowania.
- Firma przeszła od innowacji pojedynczych chipów do budowania zintegrowanych, pełnozakresowych systemów AI, które zapewniają bezprecedensowe wzrosty wydajności.
- Skala wdrożeń u klientów (np. gigawat wymagający 500 000 procesorów graficznych) oraz zdolności łańcucha dostaw Nvidii tworzą ogromną barierę wejścia.
Wspomaganie ludzkości: Gospodarcza zmiana warta bilion dolarów
Prawdziwy długoterminowy wpływ AI, jak twierdzi Huang, leży w jej zdolności do wspomagania ludzkiej inteligencji. Kreśląc analogię, stwierdza, że tak jak silniki zastąpiły pracę fizyczną, tak "te superkomputery AI, te fabryki AI, o których mówię, będą generować tokeny, aby wspomagać ludzką inteligencję". Ponieważ ludzka inteligencja odpowiada za potencjalnie 50 bilionów dolarów światowego PKB, nawet skromne wspomaganie – takie jak AI za 10 000 dolarów, która sprawia, że pracownik zarabiający 100 000 dolarów staje się dwukrotnie bardziej produktywny – tworzy ogromny nowy rynek.
To wspomaganie, jak uważa, mogłoby dodać "10 bilionów" do światowego PKB, wymagając "5 bilionów" rocznych nakładów inwestycyjnych na infrastrukturę AI. Nie chodzi tu o "lukę" ani "nadmiar"; to fundamentalna zmiana. Odrzuca obawy dotyczące nadwyżki podaży, twierdząc, że "dopóki w pełni nie przekształcimy wszystkich obliczeń ogólnego przeznaczenia w obliczenia akcelerowane i AI... szanse [na nadmiar] są niezwykle niskie". Sygnały popytu od klientów konsekwentnie zaniżają rzeczywiste zapotrzebowanie, utrzymując Nvidię w ciągłym "trybie gorączkowych działań" (scramble mode). Ten "renesans dla przemysłu energetycznego" i całego ekosystemu infrastruktury oznacza globalne przyspieszenie PKB, napędzane miliardami nowych "współpracowników" AI.
Kluczowe spostrzeżenia:
- Głównym ekonomicznym wpływem AI będzie wspomaganie ludzkiej inteligencji, co doprowadzi do przyspieszenia wzrostu światowego PKB.
- Przejście od obliczeń ogólnego przeznaczenia do obliczeń akcelerowanych/AI, w połączeniu z migracją istniejących obciążeń hiperskalowych do AI, zapewnia ciągły popyt.
- Łańcuch dostaw Nvidii jest napędzany popytem, konsekwentnie reagując na prognozy klientów, które rutynowo zaniżają rzeczywiste potrzeby obliczeniowe.
"Żałuję tylko, że zaprosili nas do wczesnego zainwestowania... a my byliśmy tacy biedni, wiecie, tak biedni, że nie zainwestowaliśmy wystarczająco, wiecie, i powinienem był dać im wszystkie moje pieniądze." - Jensen Huang


