Interview mit Jensen Huang

founder & CEO of NVIDIA

von Bg2 Pod2025-09-25

Jensen Huang

In einem fesselnden Gespräch gewährte Jensen Huang, der visionäre CEO von Nvidia, einen seltenen Einblick in die Zukunft des Computings, der KI und sogar der globalen Wirtschaft. Im Gespräch mit Bill Gurley und Brad Gerstner vom Bg2 Pod erläuterte Huang mit beeindruckender Klarheit, wie ein oft übersehener Aspekt der künstlichen Intelligenz (KI) im Begriff ist, Industrien neu zu definieren und ein beispielloses Wachstum freizusetzen, wobei konventionelle Wall-Street-Weisheiten auf dem Weg dorthin in Frage gestellt werden.

The Billionx Boom: Redefining AI's Computational Demands

Vor einem Jahr sagte Jensen Huang kühn voraus, dass die KI-Inferenz nicht nur um das 100- oder 1000-fache, sondern um erstaunliche eine Milliarde Mal ansteigen würde. Als er diese Prognose erneut aufgreift, gibt er zu: „Ich habe unterschätzt. Das möchte ich hiermit offiziell festhalten.“ Sein Vertrauen ist, befeuert durch die rasante Entwicklung der KI, nur noch gewachsen. Was einst als ein einziges „Pre-Training“-Skalierungsgesetz betrachtet wurde, hat sich in drei unterschiedliche, exponentiell wachsende Kräfte aufgespalten: Pre-Training, Post-Training (wo KI Fähigkeiten „übt“) und, entscheidend, „denkende“ Inferenz.

Diese „denkende“ Inferenz ist der Wendepunkt. Im Gegensatz zum alten One-Shot-Inferenzmodell ist moderne KI jetzt darauf ausgelegt, „zu denken, bevor man antwortet“, indem sie recherchiert, Fakten überprüft und iteriert. Dieser komplexe kognitive Prozess erfordert exponentiell mehr Rechenleistung. Wie Huang es ausdrückt: „KI ist kein Sprachmodell mehr, sondern ein System von Sprachmodellen, die alle gleichzeitig laufen, vielleicht Tools verwenden... und es ist alles Multimodalität.“ Diese tiefgreifende Verschiebung bedeutet, dass der Rechenhunger der KI nicht nur groß, sondern unersättlich und schnell wachsend ist, weit über das hinaus, was viele derzeit begreifen.

Key Insights:

  • KI-Inferenz erlebt aufgrund des Aufkommens von „Denk“- und Kausalkettenfähigkeiten eine „milliardenfache“ Erhöhung der Rechenleistung.
  • Die KI-Landschaft wird nun von drei unterschiedlichen Skalierungsgesetzen bestimmt: Pre-Training, Post-Training (KI übt) und komplexer Inferenz.
  • Multi-Agenten-Systeme, multimodale KI und der umfassende Einsatz von Tools erhöhen die Rechenanforderungen dramatisch über einfache Sprachmodelle hinaus.

OpenAI: The Next Trillion-Dollar Hyperscaler and Nvidia's Strategic Gambit

Im Mittelpunkt von Huangs Vision steht Nvidias strategische Partnerschaft mit OpenAI, die eine Investition und Unterstützung beim Aufbau einer eigenen kolossalen KI-Infrastruktur umfasst. Er sieht OpenAI nicht nur als Kunden, sondern als „wahrscheinlich das nächste Multi-Billionen-Dollar-Hyperscale-Unternehmen“. Diese kühne Prognose untermauert Nvidias Entscheidung, vor dem erwarteten kometenhaften Aufstieg von OpenAI zu investieren – eine Gelegenheit, die Huang als „einige der klügsten Investitionen, die wir uns überhaupt vorstellen können“, bezeichnet.

Diese Partnerschaft signalisiert auch eine signifikante Verschiebung in der KI-Landschaft. OpenAI, das traditionell Hyperscaler wie Microsoft Azure nutzte, baut nun seine eigene „Self-Build KI-Infrastruktur“ auf – und wird damit selbst zu einem Hyperscaler. Dies spiegelt die direkten Beziehungen wider, die Nvidia zu Giganten wie Meta und Google pflegt, wo sie direkt auf Chip-, Software- und Systemebene zusammenarbeiten. OpenAI navigiert gleichzeitig durch „zwei Exponentialen“: ein exponentielles Wachstum der Kundennutzung und einen exponentiellen Anstieg der Rechenanforderungen pro Anwendungsfall (aufgrund der „denkenden“ KI). Nvidias vielschichtige Unterstützung über Azure, OCI, CoreWeave und jetzt OpenAIs direkten Aufbau ist darauf ausgelegt, dieser sich verstärkenden Nachfrage gerecht zu werden und Nvidias unverzichtbare Rolle weiter zu festigen.

Key Decisions:

  • Nvidias Investition in OpenAI ist ein strategischer Schachzug, der auf dessen Potenzial setzt, ein Multi-Billionen-Dollar-Hyperscale-Unternehmen zu werden.
  • Die Unterstützung von OpenAI beim Eigenaufbau seiner KI-Infrastruktur fördert direkte, Full-Stack-Beziehungen, die Nvidias Engagements mit anderen Tech-Giganten widerspiegeln.
  • Die Partnerschaft begegnet der komplexen Herausforderung exponentiell wachsender Kundenakzeptanz und des Rechenbedarfs pro Nutzer in der KI.

The Unassailable Moat: Extreme Co-Design and Annual Velocity

Wall-Street-Analysten prognostizieren derzeit, dass Nvidias Wachstum zwischen 2027 und 2030 stagnieren wird, eine Perspektive, die Huang mit den zugrunde liegenden Veränderungen für unvereinbar hält. Er präsentiert drei grundlegende Punkte: Erstens ist „General Purpose Computing vorbei“, und die Billionen von Dollar an Recheninfrastruktur der Welt müssen mit beschleunigtem KI-Computing erneuert werden. Zweitens migrieren bestehende Hyperscale-Workloads (Suche, Empfehlungssysteme) schnell von CPUs zu GPUs, eine Verschiebung im Wert von „Hunderten von Milliarden Dollar“. Und drittens, und am tiefgreifendsten, wird KI die menschliche Intelligenz erweitern und 50-65% des globalen BIP beeinflussen.

Um dem „Exponentiellen der Exponentialen“ gerecht zu werden, das durch Token-Generierung und Kundennutzung angetrieben wird, hat Nvidia einen aggressiven jährlichen Release-Zyklus für seine Architekturen (Hopper, Blackwell, Rubin, Fineman) eingeführt. Da das Mooresche Gesetz für Leistung weitgehend tot ist, ergibt sich Nvidias Wettbewerbsvorteil aus „extremem Co-Design“. Es geht nicht nur um schnellere Chips; es geht darum, Modell, Algorithmus, System und Chip gleichzeitig zu optimieren, „out of the box“ zu innovieren. Wie Huang erklärt, ermöglicht dieser Full-Stack-Ansatz – umfassend CPUs, GPUs, Netzwerkchips, MVLink und Spectrum-X Ethernet – Nvidia Leistungssteigerungen um das 30-fache zwischen den Generationen (wie von Hopper zu Blackwell) zu erzielen, die kein konventioneller Silizium-Fortschritt liefern könnte. Diese systemische Innovation, kombiniert mit dem schieren Investitionsumfang, der sowohl von Nvidia als auch von seinen Kunden erforderlich ist, schafft einen gewaltigen Burggraben, der für Wettbewerber „schwerer als je zuvor“ zu replizieren ist.

Key Practices:

  • Nvidia pflegt einen aggressiven jährlichen Release-Zyklus für seine Architekturen, um mit den exponentiellen Anstiegen der Token-Generierung und KI-Nutzung Schritt zu halten.
  • „Extremes Co-Design“ umfasst die gleichzeitige Optimierung über den gesamten AI-Factory-Stack: Modelle, Algorithmen, Systeme, Chips, Netzwerke und Software.
  • Das Unternehmen hat sich von der individuellen Chip-Innovation hin zum Aufbau integrierter, Full-Stack-KI-Systeme entwickelt, die beispiellose Leistungssteigerungen liefern.
  • Der Umfang der Kundenbereitstellungen (z.B. ein Gigawatt, der 500.000 GPUs erfordert) und Nvidias Lieferkettenkapazität schaffen eine massive Eintrittsbarriere.

Augmenting Humanity: The Trillion-Dollar Economic Shift

Der wahre langfristige Einfluss der KI, so Huang, liegt in ihrer Fähigkeit, die menschliche Intelligenz zu erweitern. Er zieht eine Analogie und postuliert, dass so wie Motoren körperliche Arbeit ersetzten, „diese KI-Supercomputer, diese KI-Fabriken, über die ich spreche, Token generieren werden, um die menschliche Intelligenz zu erweitern.“ Da die menschliche Intelligenz potenziell 50 Billionen Dollar des globalen BIP ausmacht, schafft selbst eine bescheidene Erweiterung – wie eine 10.000-Dollar-KI, die einen 100.000-Dollar-Mitarbeiter doppelt so produktiv macht – einen enormen neuen Markt.

Diese Erweiterung, so glaubt er, könnte das globale BIP um „10 Billionen“ erhöhen und eine jährliche Investition von „5 Billionen“ in die KI-Infrastruktur erfordern. Hierbei handelt es sich nicht um eine „Luftblase“ oder ein „Überangebot“; es ist eine grundlegende Verschiebung. Er weist Bedenken hinsichtlich eines Überangebots zurück und erklärt: „Solange wir nicht das gesamte General-Purpose-Computing vollständig auf Accelerated Computing und KI umgestellt haben… sind die Chancen [auf ein Überangebot] extrem gering.“ Die Nachfragesignale der Kunden unterschätzen durchweg den tatsächlichen Bedarf und halten Nvidia in einem konstanten „Scramble-Modus“. Diese „Renaissance für die Energieindustrie“ und das gesamte Infrastruktur-Ökosystem bedeutet eine globale Beschleunigung des BIP, angetrieben durch Milliarden neuer KI-„Mitarbeiter“.

Key Insights:

  • Der primäre wirtschaftliche Einfluss der KI wird in der Erweiterung der menschlichen Intelligenz liegen, was zu einer Beschleunigung des globalen BIP-Wachstums führt.
  • Der Übergang von General-Purpose- zu Accelerated/KI-Computing, gepaart mit der Migration bestehender Hyperscale-Workloads zu KI, sichert eine kontinuierliche Nachfrage.
  • Nvidias Lieferkette ist nachfrageorientiert und reagiert konsequent auf Kundenprognosen, die den tatsächlichen Rechenbedarf routinemäßig unterschätzen.

„Mein einziges Bedauern ist, dass sie uns frühzeitig eingeladen haben zu investieren... und wir waren so arm, wissen Sie, wir waren so arm, dass wir nicht genug investiert haben, wissen Sie, und ich hätte ihnen mein ganzes Geld geben sollen.“ - Jensen Huang