✍️ 作者:蔡依橙(蔡依橙的閱讀筆記

INTRO你有沒有這個感覺

你用 ChatGPT 一年、兩年,記熱量、寫 email、查資料,覺得「還不錯,很方便」。

然後有一天,你試了 Claude Code。你叫它幫你分析一份資料、做成網頁、存成 MD 檔、推到 GitHub。

它真的做了。你去倒了杯水,回來的時候,工作已經完成。

那不是「更好的工具」。那是你的工作角色改變了——你從「做事的人」,變成了「指揮 AI 做事的人」。

這個轉變,現在正在全球的企業裡大規模發生。而且它的速度,讓 OpenAI 正在非常焦慮。

01一個讓人驚訝的數字

73%
企業首次 AI 採購
選 Anthropic(2026/4)
50%
三個月前(2026/1)
兩家平分
40%
六個月前(2025/10)
Anthropic 的份額

這個數字來自支付平台 Ramp 的企業客戶數據——企業首次採購 AI 工具,現在有 73% 選 Anthropic。來源

更驚人的是它的時間軸:

2025/10
OpenAI 60%,Anthropic 40%。OpenAI 仍然主導。
2026/1
翻轉開始——50% / 50%,兩家平分。
2026/4
Anthropic 73%,OpenAI 27%。逆轉完成。

同一時期,Anthropic 的年化營收剛剛突破 $300 億美元,超越 OpenAI 的 $250 億。SaaStr 而且,Anthropic 用來達到這個成績的訓練算力,只有 OpenAI 的四分之一New Claw Times

這不是偶然。這是 Anthropic 從創立第一天就在默默布局的結果。

02鴨子划水的五層原因

表面上看,Anthropic 只是「另一家 AI 公司」。2021 年從 OpenAI 出走,用安全優先當賣點,一開始沒什麼人在意。底下究竟發生了什麼?

1

從第一天就選對戰場

OpenAI 靠 ChatGPT 消費端爆紅,企業市場是後來才追。Anthropic 從一開始就是 API-first:直接和企業工程師談、合約結構針對企業採購優化、安全認證從第一版就做好。這讓他們在企業信任上早了好幾年。

2

Constitutional AI:讓 AI 行為可預測

企業部署 AI 最怕的不是「AI 笨」,而是「行為不可預測」。Anthropic 的 Constitutional AI 讓 Claude 對相同指令給出一致的回答。對需要合規審計的金融、法律、醫療企業,這是決定性優勢。論文

3

訓練成本只有競爭對手的 1/4

成本低代表定價空間大:可以用 OpenAI 難以跟進的低 API 價格搶市,毛利還更好。2030 年 OpenAI 預計燒 $1,250 億訓練算力,Anthropic 的預測是 $300 億。這個不對稱,會持續複利。來源

4

Claude Code 的閉合迴路

GitHub Copilot 是開放迴路——你打字,它補全,你永遠要在那裡。Claude Code 是閉合迴路:讀整個 codebase、規劃步驟、執行、看錯誤、自己修、跑測試、回報完成。這讓開發者的角色從「寫程式的人」變成「指揮 AI 的人」。Claude Code 年化營收 $25 億,九個月前才正式推出。來源

5

五角大廈事件意外加分

2026/2,川普政府下令聯邦機構停用 Anthropic,原因是 Anthropic 拒絕簽署「AI 任何合法用途」條款。企業界的反應卻是:這正是我想要的供應商——他們有原則,不是無底線接案。 法官形容此舉「像是試圖摧毀這家公司」。CNBC Anthropic 反而成了英雄。

03Constitutional AI:用 AI 訓練 AI

Anthropic 成本優勢的核心,是 Constitutional AI——一種讓 AI 用原則訓練自己的方法。Constitutional AI 的發明者,就是 Anthropic 共同創辦人暨 CEO Dario Amodei——他當年離開 OpenAI,核心原因正是對 AI 安全的不同看法。

Dario Amodei, Anthropic 共同創辦人暨 CEO
Dario Amodei
Anthropic 共同創辦人暨 CEO

傳統做法(OpenAI 的 RLHF)

AI 輸出答案 人類評分員打分 AI 學習取悅人類 重複

問題:要評更多就要雇更多人,貴、慢、評分標準不一致。

Constitutional AI 的做法

給 AI 一份「憲法」(一組原則)
AI 輸出答案 AI 對照憲法批評自己 AI 修正答案
用「問題 + 最終修正答案」做訓練資料

人類只需要寫那份「憲法」,之後的評分、迭代、修正,全部 AI 自己來。擴展規模不需要雇人,只需要更多算力——而算力比人力便宜得多。原始論文

這不只是技術改變,而是哲學改變:

RLHF 訓練的 AI 是「學習取悅人類」。Constitutional AI 訓練的 AI 是「學習遵守原則」。後者的行為更一致,可以被審計,可以被質疑,也可以被社會討論修改。Collective Constitutional AI

為什麼成本只有 OpenAI 的 1/4?三層疊加

層次Anthropic 的做法成本影響
Constitutional AIAI 自評,取代大量人工標記員人力成本大幅降低
Chinchilla 優化小模型 × 高品質資料 × 充分訓練推理成本同步降低
可解釋性研究Sparse Autoencoder 直讀神經元活化,早期發現問題不需練完才發現跑偏

第三層最少人知道:Anthropic 有全球頂尖的「機制可解釋性」團隊,可以在訓練過程中直接看模型「內部在想什麼」,比對它說出來的話——這讓他們能早期修正,不浪費算力。Transformer Circuits

04神經元會說謊,但特徵不會——SAE 白話解釋

回到訓練成本的第三層秘密:為什麼「早期發現問題」能省這麼多算力?這需要理解 Anthropic 的可解釋性研究在做什麼。

問題:一個神經元可以代表很多事

AI 模型的神經元,本質上是多義的。同一個神經元可能在看到「香蕉」、「黃色」、「彎曲物體」時都會亮——完全不相關的概念,共用同一個神經元。學術上叫做 Superposition(疊加)。你直接盯著神經元的活化值看,根本讀不出意義。

為什麼這樣設計?因為模型需要記住的概念,遠多於它擁有的神經元數量。把多個概念疊加壓縮進同一批神經元,是一種極度高效的儲存策略——但代價是讀不懂。

解法:Sparse Autoencoder(稀疏自動編碼器)

Anthropic 的做法是不直接讀神經元,而是從神經元活化裡提取「特徵(feature)」

1 萬個神經元的活化值 → SAE → 10 萬個「特徵」
關鍵限制:每次只有極少數特徵可以亮(強制稀疏)
結果:每個亮起的特徵只能對應一個清楚的意義

就像白光通過三稜鏡,瞬間分解成七道獨立的顏色——SAE 對神經元活化做的,正是這件事。原本混在一起、讀不出意義的訊號,被拆解成每個只代表一件事的清楚特徵。

Anthropic 在 Claude 3 Sonnet 上實際找到的特徵包括:一個只在「金門大橋」相關內容時亮的特徵、一個對應「DNA 轉錄」的特徵、171 個可辨識的情緒向量。他們甚至強制打開「金門大橋」特徵——Claude 說話就開始不停提舊金山。Transformer Circuits

實際意義:訓練中途,如果「欺騙性推理」特徵持續亮、或「自信但答錯」特徵出現在安全關鍵場景,研究員可以在模型練完之前就抓到並修正。不需要跑完整個訓練週期才發現跑偏——這就是算力節省的真正來源。

05OpenAI 的「以個人包圍企業」為什麼不夠

Sam Altman, OpenAI CEO
Sam Altman
OpenAI CEO

先說清楚:OpenAI 的企業策略不是失敗。他們有 100 萬個企業組織客戶,ChatGPT Enterprise 週訊息量一年成長 8 倍。OpenAI 官方報告

問題在「企業使用的深度」:

OpenAI 帶進來的企業用戶,很多是消費者用法的企業版:員工用 ChatGPT 查資料、寫 email、做摘要。換掉不痛。

Anthropic 帶進來的企業用戶,是把 Claude 深度嵌進工作流程。換掉等於退回原點。

OpenAIAnthropic
年化營收$250 億$300 億(剛超越)
企業收入比~40%80%
企業收入絕對值~$100 億~$240 億
$100 萬以上年費客戶未公開1,000+ 家(一個月內翻倍)
訓練成本(2030 預測)$1,250 億/年$300 億/年
每位消費端用戶年貢獻~$37 / 人~$317 / 人(8 倍)
企業客戶平均年費未公開$240 萬+ / 家

Anthropic 的用戶比 OpenAI 少很多,但每個人花的錢多出 8 倍。這不是人數的勝利,而是「願意付更多」的勝利。找到真正願意付溢價的用戶,比擁有最多用戶更值錢。

OpenAI 的應對?4/9 剛發出股東備忘錄,公開砲轟 Anthropic「在明顯更小的算力規模上運作」,宣布要把算力擴展到 2030 年的 30 GW,押注長期規模碾壓。CNBC

同時大砍 Codex Pro 訂閱費,直接打 Claude Code 的定價。內部宣示「全押 coding 和企業,停止分心」。Trending Topics

諷刺的是——這個方向,是跟著 Anthropic 走的。

06身份升級 vs 工具升級:這才是核心

這波不是「OpenAI 失去壟斷」——那是媒體愛用的敘事框架,但說錯了重點。

真正的故事是:Anthropic 找到了讓人心甘情願付 10 倍的秘密——讓使用者的工作角色升級,而不只是讓事情變方便。

工具升級 vs 身份升級

工具升級身份升級
代表ChatGPT 幫你寫 email 更快Claude Code 讓你能架站、做分析
改變的是效率你能做到的事情
類比助理幫你接電話、排行程一個人能完成以前需要整個團隊的專案
願意付的價格2 倍10 倍

ChatGPT Pro $20/月 解決問題了嗎?解決了。那為什麼有人願意付 Claude Max 20× 的 $200/月?

因為 $200 不是在買「更好的 AI 助理」,而是在買「能讓你的輸出能力翻倍的系統」。這個系統一旦嵌入工作流程,$200 就不是成本,而是投資。

IC 觀察

我聊了 ChatGPT 一兩年,熱量記錄就做了一年多。Claude Code 讓我可以架站、大量分析資訊後做成 .md 存檔。連一般對話都換到桌面版 Claude 去了。

Gemini 畫圖很厲害,GPT 語音很厲害——但只選一個,我選 Claude。$200/月 變得合理。

這個路徑——從「工具使用者」到「流程指揮者」——正是 Anthropic 在企業端複製的故事。企業不是因為 Claude 每個 benchmark 都第一而付 $100 萬/年,而是因為整個工作流程被重構後,切換成本太高了。

07四強現況快照(2026 年 4 月)

AnthropicOpenAIGoogle GeminiMicrosoft Copilot
年化營收 $300 億 ↑ $250 億 未公開 未公開
企業首購佔比 73% 27%
企業收入比 80% 40% 下滑中
消費月活 較少 9 億週活 7.5 億月活
訓練成本 基準 1× 未知
核心優勢 企業 / coding 消費 / 規模 Google 生態 微軟生態

Gemini 的現況

數字很大:7.5 億月活12 萬家企業使用 Gemini。Second Talent 但要注意水分:這裡面很大一部分是 Google Workspace 預裝帶進來的「被動使用」,不是主動選擇。

Gemini 的真正優勢在單點功能:畫圖(Imagen)、多模態、即時 Search 整合、API 便宜。它的企業整合問題在架構層——IT 要先把整個 Workspace 設好,有一個權限沒開整個 prompt 就失敗。在「讓工作流程升級」這件大事上,Gemini 還沒做到。

08五角大廈事件:有原則,還是假道學?

這個故事要從一個容易被誤解的事實說起:Anthropic 接了五角大廈的生意。2025 年 7 月,雙方簽了 $2 億美元、兩年期合約,Claude 成為史上第一個部署在機密網路上的前沿 AI,用於情報分析、作戰模擬、網路作戰。ABC News

五角大廈航拍照片
五角大廈(The Pentagon)
美國國防部總部

爭議發生在 2026 年 1 月——五角大廈要求所有 AI 合約加入一個條款:「any lawful use(任何合法用途)」

Anthropic 拒絕了,理由是這個條款實際上開放了兩件具體的事:

1

完全自主武器(Fully Autonomous Weapons)

AI 自己決定打哪裡、打誰——沒有人類在中間做最終確認。不是「AI 分析目標、人決定打不打」,而是連開火決定都由 AI 做。

2

大規模國內監控

不需要法院許可,AI 自動從公開資料(移動紀錄、瀏覽行為、社群活動)組合出任何公民的完整生活史,規模無限、自動化執行。

Anthropic 說,五角大廈送來的「妥協版」條文旁邊附了法律語言,讓所有護欄「可以被隨意忽略」。他們說:「我們收到的合約,對防止大規模監控或自主武器幾乎沒有任何進展。」

Palantir 怎麼做?

Palantir 幫軍隊做情報分析、目標建模——但最終決定由人下達。這個「Human in the loop(人在迴圈中)」的原則,正是 Anthropic 在守的那條線。他們願意做的事,和 Palantir 做的是同一條線上的;他們不願意做的,是把人類確認這個環節完全移除

那是不是假道學?

一半對:Anthropic 接了 $2 億才說不,有選擇性的味道。
但另一半:OpenAI 接受了「任何合法用途」之後,MIT Technology Review 和 The Intercept 立刻指出,這等於允許無授權的大規模公民監控。MIT Tech Review
Anthropic 拒絕的那條線,現在回頭看,並非沒有道理。

09最新動態:訴訟進行中,5/19 是關鍵

五角大廈事件還沒結束。目前是兩個法院、兩個結果同時存在的奇怪狀態:

3/26
舊金山
Anthropic 勝——聯邦法院發出初步禁制令,禁止政府全面停用 Claude。法官形容五角大廈此舉是「第一修正案報復」。CNBC
4/8
DC
五角大廈勝——DC 上訴法院拒絕 Anthropic 暫停「供應鏈風險」標籤的申請。新的五角大廈合約,Anthropic 仍然進不去。但法院同意加速審理。CNBC
5/19
DC
下一個關鍵日期——DC 上訴法院口頭辯論。這一場才是真正決定「供應鏈風險」標籤合不合法的裁決。

目前現況:政府機構可以繼續用 Claude(舊金山法院保護),但 Anthropic 被排除在新軍事合約之外。OpenAI 拿走了那份合約,代價是接受「任何合法用途」條款——以及隨之而來的道德爭議。

結語這跟你有什麼關係

AI 工具的競爭,已經不是功能清單的比較,也不是誰的模型在 benchmark 上領先幾個百分點。

真正的問題只有一個:它能不能讓你做到以前做不到的事?

如果能,$200/月 是投資。如果不能,$20/月 也是浪費。

Anthropic 找到的「秘密」,其實不神秘:從安全哲學出發,建立一致可預測的模型行為,再把這個行為嵌進開發者最核心的工作流程裡。

鴨子划水划了五年,水面上看起來平靜,水面下的腳一直沒停過。現在,浮出來了。

延伸思考

Anthropic 算力只有 OpenAI 的 1/4,現在贏了。長期算力差距會反殺嗎?OpenAI 的 Jony Ive 消費裝置如果成功,會重寫規則嗎?Gemini 如果真正把 Search 整合做好,誰的護城河更深?