Entretien avec Jensen Huang
founder & CEO of NVIDIA
par Bg2 Pod • 2025-09-25

Dans une discussion captivante, Jensen Huang, le PDG visionnaire de Nvidia, a offert un rare aperçu de l'avenir de l'informatique, de l'IA et même de l'économie mondiale. S'entretenant avec Bill Gurley et Brad Gerstner du Bg2 Pod, Huang a expliqué avec une clarté saisissante comment un aspect souvent négligé de l'intelligence artificielle est sur le point de redéfinir les industries et de générer une croissance sans précédent, remettant en question les idées reçues de Wall Street en chemin.
L'explosion Billionx : Redéfinir les exigences computationnelles de l'IA
Il y a un an, Jensen Huang avait audacieusement prédit que l'inférence d'IA ne ferait pas seulement 100x ou 1000x, mais un stupéfiant milliard de fois. Revenant sur cette prédiction, il admet : « J'ai sous-estimé. Je tiens à le dire officiellement. » Sa confiance n'a fait que croître, alimentée par l'évolution rapide de l'IA. Ce qui était autrefois considéré comme une loi d'échelle unique du « pré-entraînement » s'est fragmenté en trois forces distinctes et à croissance exponentielle : le pré-entraînement, le post-entraînement (où l'IA « pratique » des compétences), et, de manière cruciale, l'inférence de « réflexion ».
Cette inférence de « réflexion » est l'élément qui change la donne. Contrairement à l'ancien modèle d'inférence à un seul essai, l'IA moderne est désormais conçue pour « réfléchir avant de répondre », effectuant des recherches, vérifiant les faits et itérant. Ce processus cognitif complexe exige exponentiellement plus de puissance de calcul. Comme le dit Huang : « L'IA n'est plus un modèle de langage, et l'IA est un système de modèles de langage qui fonctionnent tous simultanément, peut-être en utilisant des outils... et tout cela est multimodalité. » Ce changement profond signifie que l'appétit computationnel de l'IA n'est pas seulement grand, mais insatiable et en pleine expansion, bien au-delà de ce que beaucoup comprennent actuellement.
Points clés :
- L'inférence d'IA connaît une augmentation computationnelle de « billionx » (milliard de fois) grâce à l'avènement des capacités de « réflexion » et de chaîne de raisonnement.
- Le paysage de l'IA est désormais régi par trois lois d'échelle distinctes : le pré-entraînement, le post-entraînement (IA en pratique) et l'inférence complexe.
- Les systèmes multi-agents, l'IA multimodale et l'utilisation intensive d'outils augmentent considérablement les besoins en calcul au-delà des simples modèles de langage.
OpenAI : Le prochain Hyperscaler d'un billion de dollars et le coup stratégique de Nvidia
Au cœur de la vision de Huang se trouve le partenariat stratégique de Nvidia avec OpenAI, qui comprend un investissement et un soutien pour la construction de leur propre infrastructure d'IA colossale. Il considère OpenAI non seulement comme un client, mais comme « probablement la prochaine entreprise hyperscale de plusieurs billions de dollars ». Cette prédiction audacieuse sous-tend la décision de Nvidia d'investir avant l'ascension fulgurante prévue d'OpenAI, une opportunité que Huang qualifie d'« un des investissements les plus intelligents que nous puissions imaginer ».
Ce partenariat signale également un changement significatif dans le paysage de l'IA. OpenAI, s'appuyant traditionnellement sur des hyperscalers comme Microsoft Azure, construit maintenant sa propre « infrastructure d'IA auto-construite » – devenant ainsi elle-même un hyperscaler. Cela reflète les relations directes que Nvidia entretient avec des géants comme Meta et Google, où ils travaillent directement au niveau des puces, des logiciels et des systèmes. OpenAI navigue simultanément « deux exponentielles » : une croissance exponentielle de l'utilisation par les clients et une augmentation exponentielle des besoins en calcul par cas d'utilisation (en raison de l'IA de « réflexion »). Le soutien à plusieurs volets de Nvidia via Azure, OCI, CoreWeave, et maintenant le déploiement direct d'OpenAI, est conçu pour répondre à cette demande cumulative, solidifiant davantage le rôle indispensable de Nvidia.
Décisions clés :
- L'investissement de Nvidia dans OpenAI est une décision stratégique, pariant sur son potentiel à devenir une entité hyperscale de plusieurs billions de dollars.
- Le soutien à OpenAI pour la construction de son infrastructure d'IA favorise des relations directes et "full-stack", reflétant les engagements de Nvidia avec d'autres géants de la technologie.
- Le partenariat relève le défi composé de l'adoption exponentielle croissante par les clients et de la demande computationnelle par utilisateur dans l'IA.
Le Fossé Imprenable : Co-Conception Extrême et Cadence Annuelle
Les analystes de Wall Street prévoient actuellement une stagnation de la croissance de Nvidia vers 2027-2030, une perspective que Huang juge incompatible avec les changements sous-jacents. Il présente trois points fondamentaux : Premièrement, « le calcul à usage général est révolu », et les billions de dollars d'infrastructure informatique mondiale doivent être renouvelés avec le calcul accéléré basé sur l'IA. Deuxièmement, les charges de travail hyperscale existantes (moteurs de recherche, moteurs de recommandation) migrent rapidement des CPU vers les GPU, un changement de « centaines de milliards de dollars ». Enfin, et c'est le plus profond, l'IA augmentera l'intelligence humaine, impactant 50 à 65 % du PIB mondial.
Pour répondre à l'« exponentielle des exponentielles » alimentée par la génération de tokens et l'utilisation par les clients, Nvidia a adopté un cycle de sortie annuel agressif pour ses architectures (Hopper, Blackwell, Rubin, Fineman). La loi de Moore pour la performance étant largement dépassée, l'avantage concurrentiel de Nvidia provient de la « co-conception extrême ». Il ne s'agit pas seulement de puces plus rapides ; il s'agit d'optimiser simultanément le modèle, l'algorithme, le système et la puce, en innovant « hors des sentiers battus ». Comme l'explique Huang, cette approche « full-stack » — englobant les CPU, les GPU, les puces de réseau, MVLink et Spectrum-X Ethernet — permet à Nvidia d'atteindre des gains de performance de 30x entre les générations (comme de Hopper à Blackwell) qu'aucun progrès conventionnel du silicium ne pourrait offrir. Cette innovation systémique, combinée à l'ampleur des investissements requis tant par Nvidia que par ses clients, crée un fossé redoutable qu'il est « plus difficile que jamais » pour les concurrents de répliquer.
Pratiques clés :
- Nvidia maintient un cycle de sortie annuel agressif pour ses architectures afin de suivre les augmentations exponentielles de la génération de tokens et de l'utilisation de l'IA.
- La « co-conception extrême » implique une optimisation simultanée sur l'ensemble de la pile de l'usine d'IA : modèles, algorithmes, systèmes, puces, réseau et logiciels.
- L'entreprise a dépassé l'innovation des puces individuelles pour construire des systèmes d'IA intégrés et « full-stack » qui offrent des gains de performance sans précédent.
- L'échelle des déploiements clients (par exemple, un gigawatt nécessitant 500 000 GPU) et la capacité de la chaîne d'approvisionnement de Nvidia créent une énorme barrière à l'entrée.
Augmenter l'Humanité : Le Changement Économique d'un Billion de Dollars
Le véritable impact à long terme de l'IA, soutient Huang, réside dans sa capacité à augmenter l'intelligence humaine. Faisant une analogie, il avance que tout comme les moteurs ont remplacé le travail physique, « ces superordinateurs d'IA, ces usines d'IA dont je parle, vont générer des tokens pour augmenter l'intelligence humaine ». L'intelligence humaine représentant potentiellement 50 billions de dollars du PIB mondial, même une augmentation modeste — comme une IA de 10 000 $ rendant un employé à 100 000 $ deux fois plus productif — crée un marché nouveau et gigantesque.
Cette augmentation, croit-il, pourrait ajouter « 10 billions » au PIB mondial, nécessitant une dépense en capital annuelle de « 5 billions » pour l'infrastructure d'IA. Il ne s'agit pas d'un « creux » ou d'un « surplus » ; c'est un changement fondamental. Il écarte les inquiétudes concernant la surabondance, déclarant : « tant que nous n'aurons pas entièrement converti tout le calcul à usage général en calcul accéléré et en IA... les chances [d'un surplus] sont extrêmement faibles. » Les signaux de demande des clients sous-estiment systématiquement le besoin réel, maintenant Nvidia dans un « mode de course effrénée » constant. Cette « renaissance pour l'industrie de l'énergie » et l'ensemble de l'écosystème d'infrastructure signifie une accélération mondiale du PIB, alimentée par des milliards de nouveaux « collaborateurs » IA.
Points clés :
- L'impact économique principal de l'IA sera d'augmenter l'intelligence humaine, entraînant une accélération de la croissance du PIB mondial.
- La transition du calcul à usage général vers le calcul accéléré/IA, couplée à la migration des charges de travail hyperscale existantes vers l'IA, assure une demande continue.
- La chaîne d'approvisionnement de Nvidia est axée sur la demande, répondant constamment aux prévisions des clients qui sous-estiment régulièrement les besoins réels en calcul.
« Mon seul regret est qu'ils nous aient invités à investir très tôt... et nous étions si pauvres, vous savez, si pauvres, que nous n'avons pas assez investi, vous savez, et j'aurais dû leur donner tout mon argent. » – Jensen Huang


