INTRO你有沒有這個感覺
你用 ChatGPT 一年、兩年,記熱量、寫 email、查資料,覺得「還不錯,很方便」。
然後有一天,你試了 Claude Code。你叫它幫你分析一份資料、做成網頁、存成 MD 檔、推到 GitHub。
它真的做了。你去倒了杯水,回來的時候,工作已經完成。
那不是「更好的工具」。那是你的工作角色改變了——你從「做事的人」,變成了「指揮 AI 做事的人」。
這個轉變,現在正在全球的企業裡大規模發生。而且它的速度,讓 OpenAI 正在非常焦慮。
01一個讓人驚訝的數字
選 Anthropic(2026/4)
兩家平分
Anthropic 的份額
這個數字來自支付平台 Ramp 的企業客戶數據——企業首次採購 AI 工具,現在有 73% 選 Anthropic。來源
更驚人的是它的時間軸:
同一時期,Anthropic 的年化營收剛剛突破 $300 億美元,超越 OpenAI 的 $250 億。SaaStr 而且,Anthropic 用來達到這個成績的訓練算力,只有 OpenAI 的四分之一。New Claw Times
這不是偶然。這是 Anthropic 從創立第一天就在默默布局的結果。
02鴨子划水的五層原因
表面上看,Anthropic 只是「另一家 AI 公司」。2021 年從 OpenAI 出走,用安全優先當賣點,一開始沒什麼人在意。底下究竟發生了什麼?
從第一天就選對戰場
OpenAI 靠 ChatGPT 消費端爆紅,企業市場是後來才追。Anthropic 從一開始就是 API-first:直接和企業工程師談、合約結構針對企業採購優化、安全認證從第一版就做好。這讓他們在企業信任上早了好幾年。
Constitutional AI:讓 AI 行為可預測
企業部署 AI 最怕的不是「AI 笨」,而是「行為不可預測」。Anthropic 的 Constitutional AI 讓 Claude 對相同指令給出一致的回答。對需要合規審計的金融、法律、醫療企業,這是決定性優勢。論文
訓練成本只有競爭對手的 1/4
成本低代表定價空間大:可以用 OpenAI 難以跟進的低 API 價格搶市,毛利還更好。2030 年 OpenAI 預計燒 $1,250 億訓練算力,Anthropic 的預測是 $300 億。這個不對稱,會持續複利。來源
Claude Code 的閉合迴路
GitHub Copilot 是開放迴路——你打字,它補全,你永遠要在那裡。Claude Code 是閉合迴路:讀整個 codebase、規劃步驟、執行、看錯誤、自己修、跑測試、回報完成。這讓開發者的角色從「寫程式的人」變成「指揮 AI 的人」。Claude Code 年化營收 $25 億,九個月前才正式推出。來源
五角大廈事件意外加分
2026/2,川普政府下令聯邦機構停用 Anthropic,原因是 Anthropic 拒絕簽署「AI 任何合法用途」條款。企業界的反應卻是:這正是我想要的供應商——他們有原則,不是無底線接案。 法官形容此舉「像是試圖摧毀這家公司」。CNBC Anthropic 反而成了英雄。
03Constitutional AI:用 AI 訓練 AI
Anthropic 成本優勢的核心,是 Constitutional AI——一種讓 AI 用原則訓練自己的方法。Constitutional AI 的發明者,就是 Anthropic 共同創辦人暨 CEO Dario Amodei——他當年離開 OpenAI,核心原因正是對 AI 安全的不同看法。
Anthropic 共同創辦人暨 CEO
傳統做法(OpenAI 的 RLHF)
問題:要評更多就要雇更多人,貴、慢、評分標準不一致。
Constitutional AI 的做法
AI 輸出答案 → AI 對照憲法批評自己 → AI 修正答案
用「問題 + 最終修正答案」做訓練資料
人類只需要寫那份「憲法」,之後的評分、迭代、修正,全部 AI 自己來。擴展規模不需要雇人,只需要更多算力——而算力比人力便宜得多。原始論文
這不只是技術改變,而是哲學改變:
RLHF 訓練的 AI 是「學習取悅人類」。Constitutional AI 訓練的 AI 是「學習遵守原則」。後者的行為更一致,可以被審計,可以被質疑,也可以被社會討論修改。Collective Constitutional AI
為什麼成本只有 OpenAI 的 1/4?三層疊加
| 層次 | Anthropic 的做法 | 成本影響 |
|---|---|---|
| Constitutional AI | AI 自評,取代大量人工標記員 | 人力成本大幅降低 |
| Chinchilla 優化 | 小模型 × 高品質資料 × 充分訓練 | 推理成本同步降低 |
| 可解釋性研究 | Sparse Autoencoder 直讀神經元活化,早期發現問題 | 不需練完才發現跑偏 |
第三層最少人知道:Anthropic 有全球頂尖的「機制可解釋性」團隊,可以在訓練過程中直接看模型「內部在想什麼」,比對它說出來的話——這讓他們能早期修正,不浪費算力。Transformer Circuits
04神經元會說謊,但特徵不會——SAE 白話解釋
回到訓練成本的第三層秘密:為什麼「早期發現問題」能省這麼多算力?這需要理解 Anthropic 的可解釋性研究在做什麼。
問題:一個神經元可以代表很多事
AI 模型的神經元,本質上是多義的。同一個神經元可能在看到「香蕉」、「黃色」、「彎曲物體」時都會亮——完全不相關的概念,共用同一個神經元。學術上叫做 Superposition(疊加)。你直接盯著神經元的活化值看,根本讀不出意義。
為什麼這樣設計?因為模型需要記住的概念,遠多於它擁有的神經元數量。把多個概念疊加壓縮進同一批神經元,是一種極度高效的儲存策略——但代價是讀不懂。
解法:Sparse Autoencoder(稀疏自動編碼器)
Anthropic 的做法是不直接讀神經元,而是從神經元活化裡提取「特徵(feature)」:
關鍵限制:每次只有極少數特徵可以亮(強制稀疏)
結果:每個亮起的特徵只能對應一個清楚的意義
就像白光通過三稜鏡,瞬間分解成七道獨立的顏色——SAE 對神經元活化做的,正是這件事。原本混在一起、讀不出意義的訊號,被拆解成每個只代表一件事的清楚特徵。
Anthropic 在 Claude 3 Sonnet 上實際找到的特徵包括:一個只在「金門大橋」相關內容時亮的特徵、一個對應「DNA 轉錄」的特徵、171 個可辨識的情緒向量。他們甚至強制打開「金門大橋」特徵——Claude 說話就開始不停提舊金山。Transformer Circuits
實際意義:訓練中途,如果「欺騙性推理」特徵持續亮、或「自信但答錯」特徵出現在安全關鍵場景,研究員可以在模型練完之前就抓到並修正。不需要跑完整個訓練週期才發現跑偏——這就是算力節省的真正來源。
05OpenAI 的「以個人包圍企業」為什麼不夠
OpenAI CEO
先說清楚:OpenAI 的企業策略不是失敗。他們有 100 萬個企業組織客戶,ChatGPT Enterprise 週訊息量一年成長 8 倍。OpenAI 官方報告
問題在「企業使用的深度」:
OpenAI 帶進來的企業用戶,很多是消費者用法的企業版:員工用 ChatGPT 查資料、寫 email、做摘要。換掉不痛。
Anthropic 帶進來的企業用戶,是把 Claude 深度嵌進工作流程。換掉等於退回原點。
| OpenAI | Anthropic | |
|---|---|---|
| 年化營收 | $250 億 | $300 億(剛超越) |
| 企業收入比 | ~40% | 80% |
| 企業收入絕對值 | ~$100 億 | ~$240 億 |
| $100 萬以上年費客戶 | 未公開 | 1,000+ 家(一個月內翻倍) |
| 訓練成本(2030 預測) | $1,250 億/年 | $300 億/年 |
| 每位消費端用戶年貢獻 | ~$37 / 人 | ~$317 / 人(8 倍) |
| 企業客戶平均年費 | 未公開 | $240 萬+ / 家 |
Anthropic 的用戶比 OpenAI 少很多,但每個人花的錢多出 8 倍。這不是人數的勝利,而是「願意付更多」的勝利。找到真正願意付溢價的用戶,比擁有最多用戶更值錢。
OpenAI 的應對?4/9 剛發出股東備忘錄,公開砲轟 Anthropic「在明顯更小的算力規模上運作」,宣布要把算力擴展到 2030 年的 30 GW,押注長期規模碾壓。CNBC
同時大砍 Codex Pro 訂閱費,直接打 Claude Code 的定價。內部宣示「全押 coding 和企業,停止分心」。Trending Topics
諷刺的是——這個方向,是跟著 Anthropic 走的。
06身份升級 vs 工具升級:這才是核心
這波不是「OpenAI 失去壟斷」——那是媒體愛用的敘事框架,但說錯了重點。
真正的故事是:Anthropic 找到了讓人心甘情願付 10 倍的秘密——讓使用者的工作角色升級,而不只是讓事情變方便。
工具升級 vs 身份升級
| 工具升級 | 身份升級 | |
|---|---|---|
| 代表 | ChatGPT 幫你寫 email 更快 | Claude Code 讓你能架站、做分析 |
| 改變的是 | 效率 | 你能做到的事情 |
| 類比 | 助理幫你接電話、排行程 | 一個人能完成以前需要整個團隊的專案 |
| 願意付的價格 | 2 倍 | 10 倍 |
ChatGPT Pro $20/月 解決問題了嗎?解決了。那為什麼有人願意付 Claude Max 20× 的 $200/月?
因為 $200 不是在買「更好的 AI 助理」,而是在買「能讓你的輸出能力翻倍的系統」。這個系統一旦嵌入工作流程,$200 就不是成本,而是投資。
我聊了 ChatGPT 一兩年,熱量記錄就做了一年多。Claude Code 讓我可以架站、大量分析資訊後做成 .md 存檔。連一般對話都換到桌面版 Claude 去了。
Gemini 畫圖很厲害,GPT 語音很厲害——但只選一個,我選 Claude。$200/月 變得合理。
這個路徑——從「工具使用者」到「流程指揮者」——正是 Anthropic 在企業端複製的故事。企業不是因為 Claude 每個 benchmark 都第一而付 $100 萬/年,而是因為整個工作流程被重構後,切換成本太高了。
07四強現況快照(2026 年 4 月)
| Anthropic | OpenAI | Google Gemini | Microsoft Copilot | |
|---|---|---|---|---|
| 年化營收 | $300 億 ↑ | $250 億 | 未公開 | 未公開 |
| 企業首購佔比 | 73% | 27% | — | — |
| 企業收入比 | 80% | 40% | — | 下滑中 |
| 消費月活 | 較少 | 9 億週活 | 7.5 億月活 | — |
| 訓練成本 | 基準 1× | 4× | 未知 | — |
| 核心優勢 | 企業 / coding | 消費 / 規模 | Google 生態 | 微軟生態 |
Gemini 的現況
數字很大:7.5 億月活、12 萬家企業使用 Gemini。Second Talent 但要注意水分:這裡面很大一部分是 Google Workspace 預裝帶進來的「被動使用」,不是主動選擇。
Gemini 的真正優勢在單點功能:畫圖(Imagen)、多模態、即時 Search 整合、API 便宜。它的企業整合問題在架構層——IT 要先把整個 Workspace 設好,有一個權限沒開整個 prompt 就失敗。在「讓工作流程升級」這件大事上,Gemini 還沒做到。
08五角大廈事件:有原則,還是假道學?
這個故事要從一個容易被誤解的事實說起:Anthropic 接了五角大廈的生意。2025 年 7 月,雙方簽了 $2 億美元、兩年期合約,Claude 成為史上第一個部署在機密網路上的前沿 AI,用於情報分析、作戰模擬、網路作戰。ABC News
美國國防部總部
爭議發生在 2026 年 1 月——五角大廈要求所有 AI 合約加入一個條款:「any lawful use(任何合法用途)」。
Anthropic 拒絕了,理由是這個條款實際上開放了兩件具體的事:
完全自主武器(Fully Autonomous Weapons)
AI 自己決定打哪裡、打誰——沒有人類在中間做最終確認。不是「AI 分析目標、人決定打不打」,而是連開火決定都由 AI 做。
大規模國內監控
不需要法院許可,AI 自動從公開資料(移動紀錄、瀏覽行為、社群活動)組合出任何公民的完整生活史,規模無限、自動化執行。
Anthropic 說,五角大廈送來的「妥協版」條文旁邊附了法律語言,讓所有護欄「可以被隨意忽略」。他們說:「我們收到的合約,對防止大規模監控或自主武器幾乎沒有任何進展。」
Palantir 怎麼做?
Palantir 幫軍隊做情報分析、目標建模——但最終決定由人下達。這個「Human in the loop(人在迴圈中)」的原則,正是 Anthropic 在守的那條線。他們願意做的事,和 Palantir 做的是同一條線上的;他們不願意做的,是把人類確認這個環節完全移除。
那是不是假道學?
一半對:Anthropic 接了 $2 億才說不,有選擇性的味道。
但另一半:OpenAI 接受了「任何合法用途」之後,MIT Technology Review 和 The Intercept 立刻指出,這等於允許無授權的大規模公民監控。MIT Tech Review
Anthropic 拒絕的那條線,現在回頭看,並非沒有道理。
09最新動態:訴訟進行中,5/19 是關鍵
五角大廈事件還沒結束。目前是兩個法院、兩個結果同時存在的奇怪狀態:
舊金山
DC
DC
目前現況:政府機構可以繼續用 Claude(舊金山法院保護),但 Anthropic 被排除在新軍事合約之外。OpenAI 拿走了那份合約,代價是接受「任何合法用途」條款——以及隨之而來的道德爭議。
結語這跟你有什麼關係
AI 工具的競爭,已經不是功能清單的比較,也不是誰的模型在 benchmark 上領先幾個百分點。
真正的問題只有一個:它能不能讓你做到以前做不到的事?
如果能,$200/月 是投資。如果不能,$20/月 也是浪費。
Anthropic 找到的「秘密」,其實不神秘:從安全哲學出發,建立一致可預測的模型行為,再把這個行為嵌進開發者最核心的工作流程裡。
鴨子划水划了五年,水面上看起來平靜,水面下的腳一直沒停過。現在,浮出來了。
Anthropic 算力只有 OpenAI 的 1/4,現在贏了。長期算力差距會反殺嗎?OpenAI 的 Jony Ive 消費裝置如果成功,會重寫規則嗎?Gemini 如果真正把 Search 整合做好,誰的護城河更深?
