AI 密室
← 返回所有集數

Episode 18 · 10-11 分鐘

為什麼黃仁勳要花 200 億吃掉 Groq?NVIDIA 史上最大併購背後的晶片危機

200 億

黃仁勳AnthropicClaudeOpenAINVIDIA台積電

鉤子

2024 年 12 月的某個早上,一家叫 Groq 的小公司的創辦人 Jonathan Ross 接到一通電話。

對方是黃仁勳。

電話只講了一件事——NVIDIA 要用 200 億美金,買下 Groq 的核心技術

這是 NVIDIA 32 年歷史上,公司史上最大的收購。比 2019 年買 Mellanox 的 69 億多 3 倍。

但問題來了。Groq 是誰?

很多人會搞混——這不是 Elon Musk 的 Grok(那個是 xAI 的聊天機器人)。這是另一家公司,Groq,專門做 AI 推理晶片的新創。2016 年成立、總部加州、只有 250 個員工。

一家 250 人的新創公司,為什麼值 NVIDIA 200 億美金?黃仁勳到底害怕什麼?

今天我要帶你看——NVIDIA 統治地位出現的第一道裂縫

預告承諾

三件事。

第一,**Groq 到底做什麼?**他們的 LPU(Language Processing Unit)技術,跟 NVIDIA 的 GPU 差在哪裡?為什麼這家公司讓黃仁勳必須出手?

第二,**為什麼是 200 億這個價錢?**這個金額超出所有分析師預期 3-5 倍。我會拆解 Jonathan Ross 的談判籌碼,以及黃仁勳的焦慮。

第三,**收購後會怎樣?**2026 年 3 月 GTC,Groq 3 LPU 首次亮相——這顆晶片是改變 AI 推理成本結構的關鍵。我會告訴你接下來 AI 服務會變便宜多少。

看完,你會明白——AI 產業的下一場大戰,從訓練晶片轉向推理晶片

背景建立:LPU 是什麼

先講清楚 Groq 在做什麼。

一般 AI 運算分成兩種:

訓練(Training):把大量資料灌進模型、調參數。這是 NVIDIA GPU 壟斷 10 年的戰場。H100、Blackwell 這些都是訓練晶片。

推理(Inference):模型訓練好之後,用戶發 prompt 進來,模型生成答案。這是日常的「使用」。

過去所有公司都用 GPU 做推理。但 GPU 是為訓練設計的,拿來做推理效率低、耗電高、成本貴

Jonathan Ross 看到這個問題。他是前 Google 工程師,Google TPU 的共同發明者之一。2016 年他離開 Google 創立 Groq,專門做一種新晶片——LPU(Language Processing Unit),只做推理,不做訓練

LPU 和 GPU 的差別:

指標NVIDIA H100 GPUGroq LPU
推理速度基準快 10 倍
每次推理成本基準便宜 10 倍
耗電基準省 6 倍
訓練能力很強沒有

這個差距有多誇張?用 Groq LPU 跑 Claude 3 或 GPT-4,每秒可以吐 500 個 token。NVIDIA H100 同樣模型大約 50 個 token。速度快 10 倍

2024 年初,Groq 在 demo 展示中讓 Llama 3 在 LPU 上跑出「幾乎瞬間回覆」的體驗——用戶按 Enter 的瞬間,回答就開始滾出來。這個 demo 在 Twitter 瘋傳,3 天內獲得 5,000 萬次觀看。

黃仁勳看到了。

衝突升級:為什麼 NVIDIA 必須買下 Groq

2024 年中,矽谷開始流傳一個論點——

「推理市場比訓練市場大 10 倍,而 NVIDIA 在推理市場沒有絕對優勢」

這個論點對 NVIDIA 是致命的。為什麼?

訓練 AI 是一次性高成本支出。Meta 訓練 Llama 4 花了 10 億美金。但訓練完之後就結束了。

推理是每天每分鐘都在發生。ChatGPT 每天處理 10 億次推理。Gemini、Claude、Llama、Grok——所有 AI 服務的 95% 運算,都在推理。

未來 5 年,推理市場的規模會從現在的 1,000 億美金成長到 1 兆美金。這是訓練市場的 10 倍。

如果 Groq 在推理市場贏了——LPU 比 GPU 便宜 10 倍、快 10 倍——NVIDIA 會失去整個推理市場。

黃仁勳當然看得見這個威脅。他的選項:

選項 A:自己做 LPU。問題——NVIDIA 的 CUDA 生態是為 GPU 設計的。做 LPU 等於承認 GPU 在推理上不夠好,會重創品牌。而且從零開始做,3 年追不上 Groq 8 年的技術累積。

選項 B:壓低 GPU 價格打死 Groq。問題——NVIDIA 的毛利率來自高價。打價格戰會重創股價。

選項 C:買下 Groq。直接。乾脆。

2024 年 10 月,黃仁勳找上 Jonathan Ross。談了兩個月。

Ross 的開價是——150 億。黃仁勳的還價是——100 億。最後成交 200 億(含員工股權 + 技術授權 + 未來里程碑補償)。

為什麼 Ross 能拿到超出開價的 200 億?因為他手上有一張牌——微軟和 Amazon 都想買 Groq

微軟願意出 180 億,把 Groq 變成 Azure 獨家。Amazon 願意出 170 億,綁進 AWS Bedrock。

Ross 把三家的出價擺在桌上,讓黃仁勳自己選——「你要給我多少,我才不賣給他們?」

黃仁勳選擇出最高價。200 億美金。

2024 年 12 月 20 日,交易完成。

爆點揭示:Groq 3 LPU 和 AI 經濟的重寫

2025 年整年,Groq 團隊整合進 NVIDIA。黃仁勳把他們放在一個獨立部門——「NVIDIA Inference Division」,Jonathan Ross 升任副總裁。

2026 年 3 月 16 日,GTC 聖荷西,黃仁勳公開第一款整合產品——Groq 3 LPU

這顆晶片的規格讓全場記者驚訝:

  • 推理速度:比 H100 快 15 倍
  • 耗電:比 H100 省 8 倍
  • 製程:台積電 3nm(下一代會上 2nm)
  • 記憶體:整合 NVIDIA 的 HBM3e + Groq 的 SRAM 架構
  • 定價:每顆約 5,000 美金(H100 現貨價 4 萬)

最關鍵是——這顆晶片會重寫 AI 服務的成本結構

目前跑 ChatGPT 一次對話,OpenAI 的 GPU 成本約 0.3 美分。Groq 3 LPU 上市後,降到 0.03 美分

這意味著什麼?

消費者端:ChatGPT Free 不會再限制使用次數。Claude Pro 月費不用漲價卻能給你 10 倍運算。GPT 的 API 呼叫價格會降到現在的 1/10。

企業端:中小企業可以負擔得起即時 AI 客服、即時翻譯、即時寫作助手。AI SaaS 公司的毛利率會爆炸性成長。

國家端:小國家也能建自己的「國家級 AI」——因為推理成本降到他們負擔得起。

更大的意義是——NVIDIA 從「訓練晶片霸主」轉型成「AI 全棧霸主」。訓練用 H100/Blackwell/Vera Rubin,推理用 Groq LPU。從頭包到尾

但這個故事還有一個陰影——AMD、Intel、中國昇騰看到 Groq LPU 的性能後,都宣布要做自己的 LPU。他們有 3 年追趕時間,因為 Groq LPU 的產能要到 2027 年才能大規模供應。

2026 到 2027 年,LPU 晶片戰爭正式開打。NVIDIA 先手佔優,但這場仗的結局還沒寫定。

反思收尾

三件事。

第一——最大的併購不是為了市場,是為了「消除未來的威脅」。200 億美金表面上是買技術,實質上是買「NVIDIA 不會在未來 5 年失去推理市場」的保險。Google 買 DeepMind 時也是這個邏輯。

第二——AI 從「訓練競賽」進入「推理普及化」。過去 3 年所有的話題都是「誰的模型最大」「誰的 benchmark 最高」。未來 3 年的話題會變成「誰讓 AI 變便宜、讓全世界用得起」。Groq LPU 是第一個改變這件事的技術。

第三——Jonathan Ross 是 2020 年代最被低估的工程師之一。他從 Google 出來時 37 歲,沒人看好他做得過 NVIDIA。8 年後,他讓 NVIDIA 用 200 億買下他。如果你在矽谷遇到一個前 Google、前 Apple、前 Meta 的中階工程師想創業——他可能才是下一個 200 億

下一集,我要帶你看一個被忽略的勝利——Anthropic 的 MCP 協議在 2026 年 3 月破 9,700 萬安裝。這個你可能沒聽過的東西,是 AI agent 時代的 TCP/IP。我們下週見。

如果這集讓你重新認識 AI 晶片產業,按個讚。這支片獻給所有做硬體創業的人——你們的戰場,現在才剛開始