Intervista con Jensen Huang
founder & CEO of NVIDIA
di Bg2 Pod • 2025-09-25

In un'affascinante discussione, Jensen Huang, il CEO visionario di Nvidia, ha offerto una rara anteprima sul futuro dell'informatica, dell'AI e persino dell'economia globale. In un incontro con Bill Gurley e Brad Gerstner del Bg2 Pod, Huang ha articolato con sorprendente chiarezza come un aspetto trascurato dell'intelligenza artificiale sia destinato a ridefinire le industrie e a scatenare una crescita senza precedenti, sfidando la saggezza convenzionale di Wall Street lungo il percorso.
Il boom del miliardo di volte: ridefinire le esigenze computazionali dell'AI
Un anno fa, Jensen Huang predisse audacemente che l'inferenza AI non sarebbe aumentata solo di 100 o 1000 volte, ma di un incredibile miliardo di volte. Rivedendo questa proiezione, ammette: "Ho sottovalutato. Lo dico ufficialmente". La sua fiducia è solo cresciuta, alimentata dalla rapida evoluzione dell'AI. Ciò che una volta era visto come un'unica legge di scaling del "pre-training" si è fratturato in tre forze distinte, in crescita esponenziale: il pre-training, il post-training (dove l'AI "pratica" le sue abilità) e, in modo cruciale, l'inferenza di "pensiero".
Questa inferenza di "pensiero" cambia le carte in tavola. A differenza del vecchio modello di inferenza one-shot, l'AI moderna è ora progettata per "pensare prima di rispondere", conducendo ricerche, verificando le verità fondamentali e iterando. Questo complesso processo cognitivo richiede una potenza di calcolo esponenzialmente maggiore. Come dice Huang, "L'AI non è più un modello linguistico, bensì un sistema di modelli linguistici e stanno tutti eseguendo contemporaneamente, magari usando strumenti... ed è tutta multimodalità". Questo profondo cambiamento significa che l'appetito computazionale dell'AI non è solo grande, ma insaziabile e in rapida espansione, ben oltre ciò che molti attualmente comprendono.
Key Insights:
- L'inferenza AI sta vivendo un aumento computazionale di un "miliardo di volte" grazie all'avvento di capacità di "pensiero" e di catene di ragionamento.
- Il panorama dell'AI è ora governato da tre distinte leggi di scaling: pre-training, post-training (l'AI che pratica) e inferenza complessa.
- Sistemi multi-agente, AI multimodale e un uso estensivo di strumenti aumentano drasticamente i requisiti di calcolo oltre i semplici modelli linguistici.
OpenAI: Il prossimo hyperscaler da mille miliardi di dollari e l'azzardo strategico di Nvidia
Al centro della visione di Huang c'è la partnership strategica di Nvidia con OpenAI, che include un investimento e un supporto per la costruzione della loro colossale infrastruttura AI. Vede OpenAI non solo come un cliente, ma come "probabilmente la prossima azienda hyperscale da diversi trilioni di dollari". Questa audace previsione sostiene la decisione di Nvidia di investire in anticipo rispetto alla prevista ascesa meteorica di OpenAI, un'opportunità che Huang definisce "alcuni degli investimenti più intelligenti che possiamo immaginare".
Questa partnership segnala anche un cambiamento significativo nel panorama dell'AI. OpenAI, che tradizionalmente si appoggiava a hyperscaler come Microsoft Azure, sta ora costruendo la propria "infrastruttura AI autocostruita" – diventando di fatto essa stessa un hyperscaler. Questo rispecchia le relazioni dirette che Nvidia ha con giganti come Meta e Google, dove lavorano direttamente a livello di chip, software e sistema. OpenAI sta navigando simultaneamente "due esponenziali": una crescita esponenziale nell'uso da parte dei clienti e un aumento esponenziale dei requisiti computazionali per caso d'uso (dovuti all'AI "pensante"). Il supporto multi-sfaccettato di Nvidia attraverso Azure, OCI, CoreWeave, e ora la costruzione diretta di OpenAI, è progettato per soddisfare questa domanda crescente e composita, solidificando ulteriormente il ruolo indispensabile di Nvidia.
Key Decisions:
- L'investimento di Nvidia in OpenAI è una mossa strategica, scommettendo sul suo potenziale di diventare un'entità hyperscale da diversi trilioni di dollari.
- Supportare OpenAI nella costruzione della propria infrastruttura AI favorisce relazioni dirette e full-stack, rispecchiando gli impegni di Nvidia con altri giganti della tecnologia.
- La partnership affronta la sfida composita della crescita esponenziale dell'adozione da parte dei clienti e della domanda computazionale per utente nell'AI.
Il fossato inespugnabile: Co-design estremo e velocità annuale
Gli analisti di Wall Street attualmente prevedono che la crescita di Nvidia si stabilizzi intorno al 2027-2030, una prospettiva che Huang trova incoerente con i cambiamenti sottostanti. Presenta tre punti fondamentali: In primo luogo, "il calcolo per scopi generici è finito", e i trilioni di dollari di infrastruttura informatica mondiale devono essere aggiornati con il calcolo AI accelerato. In secondo luogo, i carichi di lavoro hyperscale esistenti (motori di ricerca, motori di raccomandazione) stanno migrando rapidamente dalle CPU alle GPU, un cambiamento da "centinaia di miliardi di dollari". Infine, e in modo più profondo, l'AI aumenterà l'intelligenza umana, influenzando il 50-65% del PIL globale.
Per affrontare l'"esponenziale degli esponenziali" guidato dalla generazione di token e dall'uso da parte dei clienti, Nvidia ha adottato un ciclo di rilascio annuale aggressivo per le sue architetture (Hopper, Blackwell, Rubin, Fineman). Con la Legge di Moore per le prestazioni in gran parte superata, il vantaggio competitivo di Nvidia deriva dal "co-design estremo". Non si tratta solo di chip più veloci; si tratta di ottimizzare contemporaneamente modello, algoritmo, sistema e chip, innovando "fuori dagli schemi". Come spiega Huang, questo approccio full-stack – che comprende CPU, GPU, chip di rete, MVLink e Spectrum-X Ethernet – consente a Nvidia di ottenere miglioramenti di prestazioni di 30 volte tra le generazioni (come da Hopper a Blackwell) che nessun progresso convenzionale del silicio potrebbe offrire. Questa innovazione sistemica, combinata con l'enorme scala di investimenti richiesta sia da Nvidia che dai suoi clienti, crea un formidabile fossato che è "più difficile che mai" per i concorrenti da replicare.
Key Practices:
- Nvidia mantiene un ciclo di rilascio annuale aggressivo per le sue architetture per tenere il passo con gli aumenti esponenziali nella generazione di token e nell'uso dell'AI.
- Il "co-design estremo" implica un'ottimizzazione simultanea attraverso l'intera pila della "fabbrica AI": modelli, algoritmi, sistemi, chip, networking e software.
- L'azienda è andata oltre l'innovazione dei singoli chip per costruire sistemi AI integrati e full-stack che offrono guadagni di prestazioni senza precedenti.
- La scala delle implementazioni dei clienti (es. un gigawatt che richiede 500.000 GPU) e la capacità della catena di fornitura di Nvidia creano una massiccia barriera all'ingresso.
Aumentare l'Umanità: Il cambiamento economico da mille miliardi di dollari
Il vero impatto a lungo termine dell'AI, sostiene Huang, risiede nella sua capacità di aumentare l'intelligenza umana. Facendo un'analogia, egli postula che, proprio come i motori hanno sostituito il lavoro fisico, "questi supercomputer AI, queste fabbriche AI di cui parlo, genereranno token per aumentare l'intelligenza umana". Con l'intelligenza umana che rappresenta potenzialmente 50 trilioni di dollari del PIL globale, anche un modesto aumento – come un'AI da 10.000 dollari che rende un dipendente da 100.000 dollari due volte più produttivo – crea un nuovo enorme mercato.
Questo aumento, egli crede, potrebbe aggiungere "10 trilioni" al PIL globale, richiedendo una spesa annuale di capitale di "5 trilioni" per l'infrastruttura AI. Non si tratta di una "bolla" o di un "eccesso"; è un cambiamento fondamentale. Respinge le preoccupazioni sull'eccesso di offerta, affermando: "finché non convertiremo completamente tutto il calcolo per scopi generici al calcolo accelerato e all'AI... le probabilità [di un eccesso] sono estremamente basse". I segnali di domanda da parte dei clienti sottovalutano costantemente il fabbisogno reale, mantenendo Nvidia in una costante "modalità di affannosa ricerca". Questa "rinascita per l'industria energetica" e l'intero ecosistema infrastrutturale significa un'accelerazione globale del PIL, guidata da miliardi di nuovi "colleghi" AI.
Key Insights:
- Il principale impatto economico dell'AI sarà l'aumento dell'intelligenza umana, portando a un'accelerazione della crescita del PIL globale.
- La transizione dal calcolo per scopi generici al calcolo accelerato/AI, unita alla migrazione dei carichi di lavoro hyperscale esistenti all'AI, garantisce una domanda continua.
- La catena di fornitura di Nvidia è guidata dalla domanda, rispondendo costantemente alle previsioni dei clienti che regolarmente sottovalutano le reali esigenze di calcolo.
"Il mio unico rimpianto è che ci abbiano invitato a investire all'inizio... ed eravamo così poveri, sai, eravamo così poveri che non abbiamo investito abbastanza, sai, e avrei dovuto dare loro tutti i miei soldi." - Jensen Huang


