採訪 Emad Mostaque

former CEO and Co-Founder of Stability AI

採訪者 Peter H. Diamandis2024-03-29

Emad Mostaque

在 Abundance 360 的活動上,Emad Mostaque 才剛以他對開源 AI 的願景讓聽眾為之驚豔,幾天後這位 Stability AI 的高瞻遠矚創辦人就發布了一則震撼性消息:他將辭去 CEO 一職。此決定在科技界掀起波瀾,許多人不禁好奇,為何一位正帶領著這樣一家開創性公司在巔峰時期向前邁進的領導人,會選擇此時離開。在與 Peter H. Diamandis 的一次坦誠訪談中,Mostaque 揭露了幕後原因,表達了他深切的急迫感,以及在深切擔憂 AI 時代人類未來命運的驅動下,所採取的徹底新方向。

創辦人的天命:從 CEO 的深淵中抽身

對許多人而言,擔任 CEO 是野心的最高峰,但對 Emad Mostaque 來說,這個職位已成為他偏離更重要使命的干擾。他用一個生動的比喻來形容自己的經驗:「Elon Musk 曾將 CEO 的職務形容為『凝視深淵並咀嚼玻璃』。」Mostaque 從零開始建立 Stability AI,短短兩年前才聘請了第一位開發者,他已帶領公司打造出「幾乎所有類型中最出色的模型」——包括圖像、音訊、3D——並累積超過 3 億次下載。然而,這種飛速發展也帶來了巨大的壓力,從與全球領導人進行政策辯論,到快速成長帶來的無情要求。

Mostaque 意識到自己的強項在於願景和策略,在於激勵創意人才和研究人員充分發揮潛力,而不是人資和業務發展的營運細節。「我認為每個人都有自己獨特的技能組合,」他反思道,承認自己擅長「設計系統」,但其他人更適合經營日常業務。這個決定對一位創辦人來說,儘管情感上沉重,卻也帶來了巨大的解脫感,讓他能夠去追求他認為對 AI 未來最具槓桿作用的貢獻。

Key Learnings:

  • 創辦人與 CEO: 並非所有創辦人都最適合繼續擔任 CEO,特別是當公司擴張且營運需求加劇時。
  • 指數級成長的挑戰: 以史無前例的速度建立一家深科技公司,會帶來獨特的挑戰,包括治理、人才留存以及全球政策辯論。
  • 「咀嚼玻璃」的現實: CEO 的職位,特別是在生成式 AI 等快速發展的領域中,涉及不斷面對不確定性和不可預見的問題。

中心化權力的危險:對 AI 未來的警鐘

Mostaque 的離職不僅僅是個人的職業轉變;這是一項深具戰略意義的舉動,源於他對 AI 產業權力集中的擔憂。他提到了「OpenAI 的動盪」,以及 Mustafa Suleyman 加入 Microsoft 這家科技巨頭等事例,說明了 Microsoft 等巨頭迅速吸納人才的現象。「公司就像緩慢的笨拙 AI,它們過度優化各種不一定符合人類最佳利益的事物。」他警告說,當「未來的基礎設施……就像機場、鐵路和道路」由少數「目標功能不明確」的私人實體所控制時,存在著固有的危險。

他的核心擔憂圍繞著治理:「誰應該管理推動人類發展、教育每個孩子以及管理我們政府的技術?」Mostaque 認為,我們僅有「一到兩年的狹窄窗口」來建立去中心化的替代方案,否則預設將變成政府必然會尋求的自上而下的中心化控制。他挑戰盛行的「AI 上帝」敘事,該敘事常由一些領先組織提出,Mostaque 更傾向於一個放大人類智慧的未來,而不是一個旨在控制的具身 AI。

Key Insights:

  • 整合風險: AI 人才、運算能力和模型迅速集中在少數市值達萬億美元的公司手中,對全球利益構成重大威脅。
  • 無道德組織: 為優化用戶參與度和廣告而運作的大型科技公司,可能會成為「無道德公司」,即使懷有良好意圖,其行為也可能與人類的最佳利益不符。
  • 治理真空: 強大 AI 技術缺乏清晰、民主的治理結構,使得未來容易受到不受制約的權力以及潛在的反烏托邦結果的威脅。

繪製新航線:去中心化智慧的願景

Emad Mostaque 應對中心化 AI 威脅的解決方案,是徹底擁抱「去中心化智慧」——一個遠不止於開源軟體的概念。他將其定義為三個關鍵組成部分:「可用性和可近性」,確保每個人都能接觸到這項技術;「治理」,確立由誰來管理教育孩子或運行政府的資料;以及「模組化」,建立一個人們可以持續建構的基礎設施,而不是依賴單一、中心的服務。

他預見未來「每個國家都需要一個 AI 策略」,建立反映當地文化和知識的國家級資料集,以訓練出為所有公民客製化且可近用的 AI「畢業生」。這種去中心化的方法利用 AI 訓練日益提高的效率,預測像 Llama 70B 這樣的模型,在一兩年內訓練成本可能低於 1 萬美元。Mostaque 將 Web3 原則——不是用於投機代幣,而是用於身份識別、歸因和資料證明——視為協調這個全球智慧網路的基礎「人類作業系統」,為集體利益創造一個「資料公地」。

Key Practices:

  • 國家 AI 策略: 政府應主動收集國家級資料集(廣播資料、課程、法律資訊),以訓練本地化的 AI 模型。
  • 資料透明度和標準: 對於確保模型(尤其是語言模型)的品質和倫理一致性至關重要。
  • Web3 協調協議: 利用 Web3 在身份識別、歸因和可驗證資料方面的優勢,為集體智慧建立一個強大、去中心化的基礎設施。

民主的未來:自主權還是控制?

Mostaque 認為,這一轉變的利害關係再高不過了。他相信 AI 將從根本上重塑民主本身:「我不認為民主以目前的形式能在這項技術下存活下來,它要麼會變得更好,要麼就會終結。」他描繪了一個鮮明的二分法:一方面,一個由超級說服性 AI 驅動的「類《1984》式的、強化版全景監控」的未來,其中「優化後的言論」和視覺操弄創造了一種持續不斷、陰險的宣傳狀態。另一方面,一個由 AI 增強的「更好的民主」,允許「公民大會、諮詢式民主」,以及「解構法律」並賦予個人自主權。

這不是為了保護民主本身,而是維護「個人自由、獨立和自主權」。他倡導「放大的人類智慧」,讓每個個體都擁有個人化的 AI 助手,形成一個反映人類最優良特質的「集體智慧」。他的最終目標是在「每個國家建立一個 AI 領頭羊」,並為「每個主要行業建立一家生成式 AI 優先的基礎設施公司」,以協調這個龐大的網路,確保這項強大技術能夠提升每個孩子的潛力,而不是成為控制的工具。

Key Insights:

  • AI 作為民主顛覆者: AI 生成深度偽造內容和優化、說服性言論的能力威脅到代議制民主,可能導致增強的直接民主,或前所未有的威權控制。
  • 個人化操弄: AI 可以根據個人量身定制資訊和說服性內容,繞過人類自然的防禦機制,以前所未有的規模塑造信念。
  • 作為通用人工智慧(AGI)的集體智慧: Mostaque 倡導一種從放大的人類智慧和多元、具文化相關性的資料集中湧現的 AGI,賦予個人權力,而非一個中心化、控制性的「AI 上帝」。

「是我們控制科技,還是這些組織控制著控制我們的科技?」—— Emad Mostaque