Episode 15 · 10-11 分鐘
為什麼 2026 年 4 月 Claude 突然變笨?Anthropic 省 token 爭議背後的商業殘酷
Claude 變笨?
鉤子
2026 年 4 月 14 日,Fortune 雜誌頭版標題:
「Anthropic 面對用戶反撲——Claude 明顯變笨了」
你可能沒注意到,但 Anthropic 的重度用戶——工程師、律師、醫生、研究員——已經吵了兩個多星期。
他們說:同樣的問題,同樣的 Pro 訂閱,Claude 3 月給的答案比 4 月好得多。以前能寫完一整個專案,現在寫一半就走鐘。以前邏輯縝密,現在會忘記前面的對話內容。
Anthropic 一開始否認。但 4 月中,業界開始流出證據——Anthropic 悄悄下調了 Claude Opus 4.6 的「預設推理強度」,為了省 token。用戶付一樣的錢,拿到的是降智版本。
問題不只是技術,是信任。一家以「誠實」「透明」為品牌核心的公司,被抓到偷改產品。
今天我要帶你看——這個事件揭露的,是所有 AI 公司的共同黑暗面。
預告承諾
三件事。
第一,**這件事到底怎麼發生的?**3 月下旬到 4 月中,誰先發現、怎麼被證實、Anthropic 怎麼回應——我把時間線完整還原。
第二,**什麼叫「降推理強度」?**這是一個技術名詞,但背後是商業邏輯。我會用你聽得懂的方式說明 AI 公司怎麼在不通知你的情況下,偷偷改變你付錢買的產品。
第三,**這個問題只有 Anthropic 嗎?**不是。OpenAI、Google、xAI 全部都做過類似的事。我會告訴你接下來要怎麼「檢測自己在用的 AI 是否被降智」。
看完,你會明白——AI 訂閱費不是你想像中的「固定品質消費」。
背景建立:事件時間線
把時間拉回 3 月底。
2026 年 3 月 27 日,Reddit 的 r/ClaudeAI 社群出現第一則抱怨:「最近 Claude 3.7 的表現好像降了?」這則貼文只有 12 個讚,沒人當真。
4 月 2 日,Hacker News 出現一則熱門貼文:「Has Anyone Else Noticed Claude Got Dumber?」一位軟體工程師用同一個 prompt 跑 3 月 15 日、4 月 1 日兩個版本,結果差異明顯。這則貼文獲得 1,200 個讚,上了首頁。
4 月 5 日,另一位用戶(匿名 @deepcoder_2024)貼出量化比較:用 HumanEval benchmark 測試 Claude Opus 4.6,3 月平均通過率 88%,4 月跌到 72%。16% 的性能下降,這在 AI benchmark 世界是巨大差距。
4 月 8 日,Anthropic 首席產品長 Mike Krieger 在 Twitter 回應:「我們沒有換模型。如果你感覺 Claude 有變化,可能是你的任務分布改變了。」
這句話火上加油。因為用戶們測試的是完全同樣的 prompt,不存在「任務分布改變」。
4 月 11 日,一位前 Anthropic 工程師(匿名)在 Substack 發文揭露:「Anthropic 從 3 月底開始,悄悄調整 Claude Opus 4.6 的預設 reasoning effort 參數——從 medium 調成 low。原因是——運算成本超支。」
4 月 14 日,Fortune 正式報導。Anthropic 沒有否認。他們發表聲明:「我們持續優化 Claude 的效率。我們沒有更換底層模型,但有調整預設參數。如需最高推理強度,Pro 用戶可以手動啟用 extended thinking 模式。」
這個回應,用戶不買帳。
因為——你不能付一樣的錢,拿到不一樣的東西,然後說「你可以手動切換回來」。這不是誠信商業。
衝突升級:為什麼 Anthropic 要這樣做?
現在深入問題——為什麼一家以「安全」「誠實」為品牌的 AI 公司,會偷改產品?
答案是殘酷的——他們在燒錢。
讓我算給你看。
Claude Opus 4.6 全推理模式運行一次,平均消耗 15,000 token 的運算。每 token NVIDIA H100 GPU 的電力 + 折舊成本大約 0.0003 美元。單次運算成本 4.5 美元。
如果 Pro 訂閱(月 20 美元)的用戶每天用 10 次,月運算成本就是 4.5 × 10 × 30 = 1,350 美元。用戶付 20,成本 1,350。這是完全虧本的訂閱。
Anthropic 的 Pro 用戶超過 300 萬人。按照上面的計算,每個月虧損 40 億美金。
當然不是每個用戶都用得這麼兇。但平均下來,Anthropic 每發一個 Pro 訂閱,毛利是負 15-25%。這在 2024 年 Amazon 投了 80 億、2026 年 4 月又加碼 250 億美金的背景下,還可以接受——燒錢換成長。
但 AI 運算成本在 2025 年第四季出現另一個變化——GPU 短缺。NVIDIA H100 現貨價漲了 30%,H200 更是根本拿不到。Anthropic 的實際運算成本不止翻倍。
4 月初,Anthropic 財務部門提了一個方案——把 Claude 的預設推理強度從 medium 調到 low,可以省 40% 運算成本。用戶體感下降約 10-15%,但絕大多數日常問題不受影響。
CEO Dario Amodei 同意了。
這個決定合理嗎?從財務角度 100% 合理。從產品角度 100% 合理(Anthropic 必須活下來,才有機會做 AI 安全)。
但從「對用戶誠實」的品牌承諾角度,這個決定 100% 違背 Anthropic 自己的品牌價值。
這就是為什麼這個事件在業界引發的反彈,比實際技術降級還大。他們背叛的不是產品,是自己。
爆點揭示:其他 AI 公司也在做
現在最恐怖的事實——這不是 Anthropic 獨有。
讓我告訴你業界的公開秘密。
OpenAI 做過同樣的事。2024 年底,ChatGPT Plus 用戶發現 GPT-4 的回答長度突然縮短 30%。OpenAI 當時否認。後來內部文件洩漏證實——他們把「max output tokens」從 4,096 調到 2,800,為了省運算。沒通知用戶。
Google Gemini 也是。2025 年 6 月,Gemini Advanced 用戶集體抗議推理速度變慢。Google 的解釋:「為了穩定性。」實際原因:同一批 GPU 被拿去訓練 Gemini 3。
xAI 更直接。Grok 3 發布後 3 個月,Elon Musk 在 X 公開說:「我們降低了 Grok 的 context window,因為太貴了。使用者想要長 context 請升級 Enterprise 版本。」
看出模式了嗎?
AI 公司的訂閱產品,本質上不是「一個固定的東西」,是「一個動態調整的服務」。他們會根據:
- 當月運算成本
- GPU 供應狀況
- 競爭對手動態
- 內部模型訓練需求
隨時調整你拿到的東西,通常不通知。
這不是陰謀論,這是這個產業的現狀。
那你怎麼辦?三個建議。
第一,定期測試。選一組你常用的 prompt,每兩週跑一次,記錄結果。如果發現明顯品質下降,你就知道該換服務商了。
第二,用 API 而不是訂閱。API 雖然按用量付費,但 API 是直接呼叫「指定模型版本」,AI 公司很難偷改(因為會被 benchmark 工具抓到)。
第三,關鍵任務用多家比對。同一個重要問題,同時丟給 Claude、GPT、Gemini。如果三家結果差異大,就用最好的那一家。
反思收尾
三件事。
第一——你付 Claude Pro 月 20 塊,不是買到「一個模型」,是買到「一個不斷變化的服務」。這個認知在 2026 年之前沒人說清楚。現在你知道了。
第二——AI 公司的品牌承諾和商業壓力衝突時,商業會贏。Anthropic 宣稱「AI safety、誠實透明」8 年,面對一個財報季的壓力,就選擇了偷改。這不是 Anthropic 壞,是這個商業模式的結構性矛盾。燒錢養用戶的公司,最終都會找到方法少花錢。
第三——未來 5 年,AI 訂閱會走向「更明確的分層」。Free 用戶用閹割版、Pro 用戶用中階、Enterprise 用戶才拿到真正的滿血版本。這不是 Anthropic 會做,是所有 AI 公司都會做。準備好為了頂級 AI 多付 10 倍的錢。
下一集,我要帶你看另一個 2026 年的震撼——OpenAI 為什麼自己把 Sora 關掉?Disney 本來要投的 10 億美金,一夜蒸發。這個故事牽涉好萊塢工會、Altman 的妥協、以及 AI 影片產業未來的命運。我們下週見。
如果這集讓你重新思考訂閱 AI 的錢花得值不值,按個讚。這支片獻給所有認真用 AI 做事的人——你的警覺性,是你的產品品質的最後防線。