Episode 18 · 10-11 分鐘
為什麼黃仁勳要花 200 億吃掉 Groq?NVIDIA 史上最大併購背後的晶片危機
200 億
鉤子
2024 年 12 月的某個早上,一家叫 Groq 的小公司的創辦人 Jonathan Ross 接到一通電話。
對方是黃仁勳。
電話只講了一件事——NVIDIA 要用 200 億美金,買下 Groq 的核心技術。
這是 NVIDIA 32 年歷史上,公司史上最大的收購。比 2019 年買 Mellanox 的 69 億多 3 倍。
但問題來了。Groq 是誰?
很多人會搞混——這不是 Elon Musk 的 Grok(那個是 xAI 的聊天機器人)。這是另一家公司,Groq,專門做 AI 推理晶片的新創。2016 年成立、總部加州、只有 250 個員工。
一家 250 人的新創公司,為什麼值 NVIDIA 200 億美金?黃仁勳到底害怕什麼?
今天我要帶你看——NVIDIA 統治地位出現的第一道裂縫。
預告承諾
三件事。
第一,**Groq 到底做什麼?**他們的 LPU(Language Processing Unit)技術,跟 NVIDIA 的 GPU 差在哪裡?為什麼這家公司讓黃仁勳必須出手?
第二,**為什麼是 200 億這個價錢?**這個金額超出所有分析師預期 3-5 倍。我會拆解 Jonathan Ross 的談判籌碼,以及黃仁勳的焦慮。
第三,**收購後會怎樣?**2026 年 3 月 GTC,Groq 3 LPU 首次亮相——這顆晶片是改變 AI 推理成本結構的關鍵。我會告訴你接下來 AI 服務會變便宜多少。
看完,你會明白——AI 產業的下一場大戰,從訓練晶片轉向推理晶片。
背景建立:LPU 是什麼
先講清楚 Groq 在做什麼。
一般 AI 運算分成兩種:
訓練(Training):把大量資料灌進模型、調參數。這是 NVIDIA GPU 壟斷 10 年的戰場。H100、Blackwell 這些都是訓練晶片。
推理(Inference):模型訓練好之後,用戶發 prompt 進來,模型生成答案。這是日常的「使用」。
過去所有公司都用 GPU 做推理。但 GPU 是為訓練設計的,拿來做推理效率低、耗電高、成本貴。
Jonathan Ross 看到這個問題。他是前 Google 工程師,Google TPU 的共同發明者之一。2016 年他離開 Google 創立 Groq,專門做一種新晶片——LPU(Language Processing Unit),只做推理,不做訓練。
LPU 和 GPU 的差別:
| 指標 | NVIDIA H100 GPU | Groq LPU |
|---|---|---|
| 推理速度 | 基準 | 快 10 倍 |
| 每次推理成本 | 基準 | 便宜 10 倍 |
| 耗電 | 基準 | 省 6 倍 |
| 訓練能力 | 很強 | 沒有 |
這個差距有多誇張?用 Groq LPU 跑 Claude 3 或 GPT-4,每秒可以吐 500 個 token。NVIDIA H100 同樣模型大約 50 個 token。速度快 10 倍。
2024 年初,Groq 在 demo 展示中讓 Llama 3 在 LPU 上跑出「幾乎瞬間回覆」的體驗——用戶按 Enter 的瞬間,回答就開始滾出來。這個 demo 在 Twitter 瘋傳,3 天內獲得 5,000 萬次觀看。
黃仁勳看到了。
衝突升級:為什麼 NVIDIA 必須買下 Groq
2024 年中,矽谷開始流傳一個論點——
「推理市場比訓練市場大 10 倍,而 NVIDIA 在推理市場沒有絕對優勢」。
這個論點對 NVIDIA 是致命的。為什麼?
訓練 AI 是一次性高成本支出。Meta 訓練 Llama 4 花了 10 億美金。但訓練完之後就結束了。
推理是每天每分鐘都在發生。ChatGPT 每天處理 10 億次推理。Gemini、Claude、Llama、Grok——所有 AI 服務的 95% 運算,都在推理。
未來 5 年,推理市場的規模會從現在的 1,000 億美金成長到 1 兆美金。這是訓練市場的 10 倍。
如果 Groq 在推理市場贏了——LPU 比 GPU 便宜 10 倍、快 10 倍——NVIDIA 會失去整個推理市場。
黃仁勳當然看得見這個威脅。他的選項:
選項 A:自己做 LPU。問題——NVIDIA 的 CUDA 生態是為 GPU 設計的。做 LPU 等於承認 GPU 在推理上不夠好,會重創品牌。而且從零開始做,3 年追不上 Groq 8 年的技術累積。
選項 B:壓低 GPU 價格打死 Groq。問題——NVIDIA 的毛利率來自高價。打價格戰會重創股價。
選項 C:買下 Groq。直接。乾脆。
2024 年 10 月,黃仁勳找上 Jonathan Ross。談了兩個月。
Ross 的開價是——150 億。黃仁勳的還價是——100 億。最後成交 200 億(含員工股權 + 技術授權 + 未來里程碑補償)。
為什麼 Ross 能拿到超出開價的 200 億?因為他手上有一張牌——微軟和 Amazon 都想買 Groq。
微軟願意出 180 億,把 Groq 變成 Azure 獨家。Amazon 願意出 170 億,綁進 AWS Bedrock。
Ross 把三家的出價擺在桌上,讓黃仁勳自己選——「你要給我多少,我才不賣給他們?」
黃仁勳選擇出最高價。200 億美金。
2024 年 12 月 20 日,交易完成。
爆點揭示:Groq 3 LPU 和 AI 經濟的重寫
2025 年整年,Groq 團隊整合進 NVIDIA。黃仁勳把他們放在一個獨立部門——「NVIDIA Inference Division」,Jonathan Ross 升任副總裁。
2026 年 3 月 16 日,GTC 聖荷西,黃仁勳公開第一款整合產品——Groq 3 LPU。
這顆晶片的規格讓全場記者驚訝:
- 推理速度:比 H100 快 15 倍
- 耗電:比 H100 省 8 倍
- 製程:台積電 3nm(下一代會上 2nm)
- 記憶體:整合 NVIDIA 的 HBM3e + Groq 的 SRAM 架構
- 定價:每顆約 5,000 美金(H100 現貨價 4 萬)
最關鍵是——這顆晶片會重寫 AI 服務的成本結構。
目前跑 ChatGPT 一次對話,OpenAI 的 GPU 成本約 0.3 美分。Groq 3 LPU 上市後,降到 0.03 美分。
這意味著什麼?
消費者端:ChatGPT Free 不會再限制使用次數。Claude Pro 月費不用漲價卻能給你 10 倍運算。GPT 的 API 呼叫價格會降到現在的 1/10。
企業端:中小企業可以負擔得起即時 AI 客服、即時翻譯、即時寫作助手。AI SaaS 公司的毛利率會爆炸性成長。
國家端:小國家也能建自己的「國家級 AI」——因為推理成本降到他們負擔得起。
更大的意義是——NVIDIA 從「訓練晶片霸主」轉型成「AI 全棧霸主」。訓練用 H100/Blackwell/Vera Rubin,推理用 Groq LPU。從頭包到尾。
但這個故事還有一個陰影——AMD、Intel、中國昇騰看到 Groq LPU 的性能後,都宣布要做自己的 LPU。他們有 3 年追趕時間,因為 Groq LPU 的產能要到 2027 年才能大規模供應。
2026 到 2027 年,LPU 晶片戰爭正式開打。NVIDIA 先手佔優,但這場仗的結局還沒寫定。
反思收尾
三件事。
第一——最大的併購不是為了市場,是為了「消除未來的威脅」。200 億美金表面上是買技術,實質上是買「NVIDIA 不會在未來 5 年失去推理市場」的保險。Google 買 DeepMind 時也是這個邏輯。
第二——AI 從「訓練競賽」進入「推理普及化」。過去 3 年所有的話題都是「誰的模型最大」「誰的 benchmark 最高」。未來 3 年的話題會變成「誰讓 AI 變便宜、讓全世界用得起」。Groq LPU 是第一個改變這件事的技術。
第三——Jonathan Ross 是 2020 年代最被低估的工程師之一。他從 Google 出來時 37 歲,沒人看好他做得過 NVIDIA。8 年後,他讓 NVIDIA 用 200 億買下他。如果你在矽谷遇到一個前 Google、前 Apple、前 Meta 的中階工程師想創業——他可能才是下一個 200 億。
下一集,我要帶你看一個被忽略的勝利——Anthropic 的 MCP 協議在 2026 年 3 月破 9,700 萬安裝。這個你可能沒聽過的東西,是 AI agent 時代的 TCP/IP。我們下週見。
如果這集讓你重新認識 AI 晶片產業,按個讚。這支片獻給所有做硬體創業的人——你們的戰場,現在才剛開始。