สัมภาษณ์กับ Jensen Huang
founder & CEO of NVIDIA
โดย Bg2 Pod • 2025-09-25

ในการสนทนาที่น่าติดตาม Jensen Huang ซีอีโอผู้มีวิสัยทัศน์ของ Nvidia ได้เปิดเผยภาพอนาคตของการประมวลผล, AI และแม้แต่เศรษฐกิจโลก ซึ่งไม่เคยมีใครได้เห็นมาก่อน ในการพูดคุยกับ Bill Gurley และ Brad Gerstner จาก Bg2 Pod, Huang ได้อธิบายไว้อย่างชัดเจนและน่าทึ่งว่าแง่มุมที่ถูกมองข้ามของปัญญาประดิษฐ์กำลังจะกำหนดนิยามใหม่ให้กับอุตสาหกรรม และปลดล็อกการเติบโตที่ไม่เคยมีมาก่อน พร้อมท้าทายแนวคิดดั้งเดิมของ Wall Street ไปพร้อมกัน
The Billionx Boom: Redefining AI's Computational Demands
หนึ่งปีที่แล้ว Jensen Huang ได้ทำนายไว้อย่างกล้าหาญว่า AI inference จะไม่เพียงแค่เพิ่มขึ้น 100 เท่า หรือ 1,000 เท่า แต่จะเพิ่มขึ้นถึงหนึ่งพันล้านเท่าอย่างน่าตกใจ เมื่อทบทวนการคาดการณ์นี้ เขายอมรับว่า "ผมประเมินต่ำไป ขอพูดให้เป็นทางการไว้ตรงนี้เลย" ความมั่นใจของเขาพุ่งสูงขึ้นกว่าเดิม ได้รับแรงหนุนจากการพัฒนา AI ที่รวดเร็ว สิ่งที่เคยถูกมองว่าเป็นกฎการปรับขนาด (scaling law) ของ "pre-training" ที่เป็นหนึ่งเดียว ได้แตกออกเป็นสามพลังที่แตกต่างกันและเติบโตแบบทวีคูณ ได้แก่ pre-training, post-training (ที่ AI "ฝึกฝน" ทักษะต่างๆ) และที่สำคัญคือ การอนุมานแบบ "คิด" (thinking inference)
การอนุมานแบบ "คิด" (thinking inference) นี้คือสิ่งที่พลิกโฉมวงการ ไม่เหมือนโมเดล inference แบบ one-shot แบบเก่า AI สมัยใหม่ได้รับการออกแบบมาให้ "คิดก่อนตอบ" โดยทำการวิจัย ตรวจสอบข้อมูลพื้นฐาน และทำการวนซ้ำ กระบวนการคิดที่ซับซ้อนนี้ต้องการพลังประมวลผลที่เพิ่มขึ้นแบบทวีคูณ ดังที่ Huang กล่าวไว้ว่า "AI ไม่ใช่แค่ language model อีกต่อไปแล้ว และ AI คือระบบของ language model หลายตัวที่ทำงานพร้อมกัน อาจใช้เครื่องมือต่างๆ... และทั้งหมดก็เป็นแบบ multimodality" การเปลี่ยนแปลงครั้งใหญ่นี้หมายความว่าความต้องการพลังประมวลผลของ AI ไม่ได้แค่ใหญ่โต แต่ยังไม่รู้จักพอและขยายตัวอย่างรวดเร็ว เกินกว่าที่หลายคนในปัจจุบันจะเข้าใจ
ข้อมูลเชิงลึกที่สำคัญ:
- AI inference กำลังประสบกับการเพิ่มขึ้นของการประมวลผลแบบ "พันล้านเท่า" เนื่องมาจากการถือกำเนิดของความสามารถในการ "คิด" และการให้เหตุผลแบบลูกโซ่ (chain-of-reasoning)
- ภูมิทัศน์ของ AI ในปัจจุบันถูกควบคุมโดยกฎการปรับขนาด (scaling laws) สามแบบที่แตกต่างกัน ได้แก่ pre-training, post-training (การฝึกฝนของ AI) และ complex inference
- ระบบหลายเอเจนต์ (Multi-agent systems), AI แบบ multimodal และการใช้เครื่องมืออย่างกว้างขวาง ทำให้ความต้องการพลังประมวลผลเพิ่มขึ้นอย่างมาก เกินกว่า language model ทั่วไป
OpenAI: The Next Trillion-Dollar Hyperscaler and Nvidia's Strategic Gambit
หัวใจสำคัญของวิสัยทัศน์ของ Huang คือความร่วมมือเชิงกลยุทธ์ระหว่าง Nvidia กับ OpenAI ซึ่งรวมถึงการลงทุนและการสนับสนุนการสร้างโครงสร้างพื้นฐาน AI ขนาดมหึมาของ OpenAI เอง เขาไม่ได้มอง OpenAI เป็นเพียงลูกค้าเท่านั้น แต่ยังมองว่าเป็น "บริษัท hyperscale แห่งต่อไปที่มีมูลค่าหลายล้านล้านดอลลาร์" การคาดการณ์ที่กล้าหาญนี้เป็นรากฐานของการตัดสินใจของ Nvidia ที่จะลงทุนล่วงหน้าก่อนการเติบโตอย่างรวดเร็วของ OpenAI ที่คาดว่าจะเกิดขึ้น ซึ่งเป็นโอกาสที่ Huang เรียกว่า "การลงทุนที่ฉลาดที่สุดเท่าที่เราจะจินตนาการได้"
ความร่วมมือครั้งนี้ยังส่งสัญญาณการเปลี่ยนแปลงครั้งสำคัญในภูมิทัศน์ของ AI OpenAI ซึ่งโดยปกติจะใช้บริการจาก hyperscaler อย่าง Microsoft Azure กำลังสร้าง "โครงสร้างพื้นฐาน AI ที่สร้างเอง" — ซึ่งเท่ากับว่าตัวเองกำลังจะกลายเป็น hyperscaler สิ่งนี้สะท้อนถึงความสัมพันธ์โดยตรงที่ Nvidia มีกับยักษ์ใหญ่เช่น Meta และ Google ซึ่งพวกเขาทำงานโดยตรงในระดับชิป ซอฟต์แวร์ และระบบ OpenAI กำลังรับมือกับ "การเติบโตแบบทวีคูณสองด้าน" ไปพร้อมกัน: การเติบโตแบบทวีคูณในการใช้งานของลูกค้า และความต้องการพลังประมวลผลที่เพิ่มขึ้นแบบทวีคูณต่อกรณีการใช้งาน (เนื่องจาก AI แบบ "คิด") การสนับสนุนหลากหลายช่องทางของ Nvidia ทั้งจาก Azure, OCI, CoreWeave และตอนนี้การสร้างโดยตรงของ OpenAI ได้รับการออกแบบมาเพื่อตอบสนองความต้องการที่เพิ่มพูนขึ้นนี้ ซึ่งจะตอกย้ำบทบาทที่ขาดไม่ได้ของ Nvidia ให้แข็งแกร่งยิ่งขึ้น
การตัดสินใจที่สำคัญ:
- การลงทุนของ Nvidia ใน OpenAI เป็นการเคลื่อนไหวเชิงกลยุทธ์ โดยวางเดิมพันกับศักยภาพของ OpenAI ที่จะกลายเป็นองค์กร hyperscale มูลค่าหลายล้านล้านดอลลาร์
- การสนับสนุน OpenAI ในการสร้างโครงสร้างพื้นฐาน AI ของตัวเอง ส่งเสริมความสัมพันธ์แบบ full-stack โดยตรง ซึ่งสะท้อนการมีส่วนร่วมของ Nvidia กับยักษ์ใหญ่ด้านเทคโนโลยีอื่นๆ
- ความร่วมมือนี้ตอบสนองความท้าทายที่ซับซ้อนของการรับบริการจากลูกค้าที่เติบโตแบบทวีคูณ และความต้องการพลังประมวลผลต่อผู้ใช้ที่เพิ่มขึ้นใน AI
The Unassailable Moat: Extreme Co-Design and Annual Velocity
นักวิเคราะห์ของ Wall Street ปัจจุบันคาดการณ์ว่าการเติบโตของ Nvidia จะคงที่ประมาณปี 2027-2030 ซึ่งเป็นมุมมองที่ Huang มองว่าไม่สอดคล้องกับการเปลี่ยนแปลงพื้นฐานที่กำลังเกิดขึ้น เขาเสนอสามประเด็นหลัก: ประการแรก "การประมวลผลทั่วไป (general purpose computing) สิ้นสุดลงแล้ว" และโครงสร้างพื้นฐานการประมวลผลมูลค่าหลายล้านล้านดอลลาร์ทั่วโลก ต้อง ถูกปรับปรุงด้วยการประมวลผล AI แบบเร่งความเร็ว ประการที่สอง เวิร์กโหลด hyperscale ที่มีอยู่ (เช่น การค้นหา, เครื่องมือแนะนำ) กำลังย้ายจาก CPU ไปยัง GPU อย่างรวดเร็ว ซึ่งเป็นการเปลี่ยนแปลงมูลค่า "หลายแสนล้านดอลลาร์" และประการสุดท้ายที่สำคัญที่สุด AI จะเสริมสร้างสติปัญญาของมนุษย์ ส่งผลกระทบต่อ GDP โลก 50-65%
เพื่อตอบสนองต่อ "การเติบโตแบบทวีคูณของทวีคูณ" ที่ขับเคลื่อนโดยการสร้างโทเค็นและการใช้งานของลูกค้า Nvidia ได้นำวงจรการเปิดตัวสถาปัตยกรรมประจำปีที่รวดเร็วมาใช้ (Hopper, Blackwell, Rubin, Fineman) เมื่อกฎของมัวร์สำหรับประสิทธิภาพส่วนใหญ่ได้สิ้นสุดลงแล้ว ความได้เปรียบทางการแข่งขันของ Nvidia จึงมาจากการออกแบบร่วม (co-design) แบบ "สุดขีด" (extreme co-design) นี่ไม่ใช่แค่เรื่องของชิปที่เร็วขึ้นเท่านั้น แต่เป็นการเพิ่มประสิทธิภาพโมเดล, อัลกอริทึม, ระบบ และชิปไปพร้อมกัน สร้างสรรค์สิ่งใหม่ "นอกกรอบ" ดังที่ Huang อธิบาย แนวทางแบบ full-stack นี้ — ซึ่งครอบคลุมทั้ง CPU, GPU, ชิปเครือข่าย, MVLink และ Spectrum-X Ethernet — ช่วยให้ Nvidia บรรลุการเพิ่มประสิทธิภาพ 30 เท่าระหว่างรุ่น (เช่นจาก Hopper ไป Blackwell) ซึ่งความก้าวหน้าของซิลิคอนแบบเดิมไม่สามารถทำได้ นวัตกรรมเชิงระบบนี้ เมื่อรวมกับขนาดของการลงทุนที่มหาศาลจากทั้ง Nvidia และลูกค้าของบริษัท สร้างข้อได้เปรียบที่แข็งแกร่งที่ "ยากกว่าที่เคยเป็นมา" สำหรับคู่แข่งที่จะลอกเลียนแบบ
แนวทางปฏิบัติที่สำคัญ:
- Nvidia รักษาวงจรการเปิดตัวสถาปัตยกรรมประจำปีที่รวดเร็ว เพื่อก้าวให้ทันกับการเพิ่มขึ้นแบบทวีคูณของการสร้างโทเค็นและการใช้งาน AI
- "Extreme co-design" เกี่ยวข้องกับการเพิ่มประสิทธิภาพพร้อมกันทั่วทั้งระบบ AI factory แบบเต็มสแตก: โมเดล, อัลกอริทึม, ระบบ, ชิป, เครือข่าย และซอฟต์แวร์
- บริษัทได้ก้าวข้ามขีดจำกัดของนวัตกรรมชิปแต่ละตัว ไปสู่การสร้างระบบ AI แบบ full-stack แบบบูรณาการที่มอบประสิทธิภาพที่เพิ่มขึ้นอย่างไม่เคยมีมาก่อน
- ขนาดของการติดตั้งใช้งานของลูกค้า (เช่น หนึ่งกิกะวัตต์ที่ต้องใช้ GPU 500,000 ตัว) และความสามารถในการจัดหาของ Nvidia สร้างอุปสรรคสำคัญในการเข้าสู่ตลาด
Augmenting Humanity: The Trillion-Dollar Economic Shift
Huang ยืนยันว่าผลกระทบระยะยาวที่แท้จริงของ AI อยู่ที่ความสามารถในการเสริมสร้างสติปัญญาของมนุษย์ โดยการเปรียบเทียบ เขากล่าวว่าเช่นเดียวกับที่มอเตอร์เข้ามาแทนที่แรงงานทางกายภาพ "ซูเปอร์คอมพิวเตอร์ AI เหล่านี้ โรงงาน AI ที่ผมพูดถึงนี้ จะสร้างโทเค็นเพื่อเสริมสร้างสติปัญญาของมนุษย์" ด้วยสติปัญญาของมนุษย์ที่คิดเป็นสัดส่วนถึง 50 ล้านล้านดอลลาร์ของ GDP โลก การเสริมสร้างเพียงเล็กน้อย — เช่น AI ราคา 10,000 ดอลลาร์ที่ทำให้พนักงานเงินเดือน 100,000 ดอลลาร์ มีประสิทธิภาพเพิ่มขึ้นเป็นสองเท่า — ก็สามารถสร้างตลาดใหม่ขนาดมหาศาลได้
Huang เชื่อว่าการเสริมสร้างนี้สามารถเพิ่ม GDP โลกได้ถึง "10 ล้านล้าน" ดอลลาร์ ซึ่งต้องใช้เงินลงทุนด้านโครงสร้างพื้นฐาน AI ปีละ "5 ล้านล้าน" ดอลลาร์ นี่ไม่ใช่เรื่องของ "ช่องว่าง" หรือ "ความอิ่มตัว" แต่มันคือการเปลี่ยนแปลงเชิงรากฐาน เขาปัดทิ้งความกังวลเกี่ยวกับการผลิตที่มากเกินไป โดยกล่าวว่า "จนกว่าเราจะเปลี่ยนการประมวลผลทั่วไปทั้งหมดให้เป็นการประมวลผลแบบเร่งความเร็วและ AI โดยสมบูรณ์... โอกาส [ที่จะเกิดความอิ่มตัว] นั้นต่ำมาก" สัญญาณความต้องการจากลูกค้ามักจะ ประเมินต่ำกว่า ความต้องการจริงเสมอ ทำให้ Nvidia อยู่ใน "โหมดเร่งรีบ" ตลอดเวลา "การฟื้นฟูสำหรับอุตสาหกรรมพลังงาน" และระบบนิเวศโครงสร้างพื้นฐานทั้งหมดนี้ บ่งชี้ถึงการเร่งตัวของ GDP ทั่วโลก ซึ่งขับเคลื่อนโดย "เพื่อนร่วมงาน" AI ใหม่นับพันล้านคน
ข้อมูลเชิงลึกที่สำคัญ:
- ผลกระทบทางเศรษฐกิจหลักของ AI จะเป็นการเสริมสร้างสติปัญญาของมนุษย์ ซึ่งนำไปสู่การเร่งตัวของการเติบโตของ GDP โลก
- การเปลี่ยนผ่านจากการประมวลผลทั่วไปไปสู่การประมวลผลแบบเร่งความเร็ว/AI ควบคู่ไปกับการย้ายเวิร์กโหลด hyperscale ที่มีอยู่ไปยัง AI รับประกันความต้องการที่ต่อเนื่อง
- ห่วงโซ่อุปทานของ Nvidia ถูกขับเคลื่อนด้วยความต้องการ โดยตอบสนองต่อการคาดการณ์ของลูกค้าที่มักจะประเมินความต้องการพลังประมวลผลที่แท้จริงต่ำกว่าเสมอ
"สิ่งเดียวที่ผมเสียใจคือพวกเขาเชิญให้เราลงทุนตั้งแต่เนิ่นๆ... และเรารู้ไหมว่าเราจนมาก เราไม่ได้ลงทุนมากพอ แล้วผมก็น่าจะให้เงินทั้งหมดของผมไป" - Jensen Huang


