從 OpenAI 出走的 11 人,如何用「安全優先」打造史上成長最快的企業軟體公司
2021 年初,在 COVID 疫情的第二波高峰中,11 個人從 OpenAI 辭職。他們沒有產品、沒有客戶,只有一個聽起來不太商業的信念:AI 越強大,安全研究就越不能是附加品。
五年後,這家公司估值 3,800 億美元,年營收從 10 億飆到 190 億,被 SaaStr 稱為「史上在這個規模成長最快的軟體公司」。Fortune 10 中有 8 家是它的客戶。
這家公司叫 Anthropic,它的產品叫 Claude。
Anthropic 最有趣的地方之一,是它的兩位領導者完全不同型。
1983 年生。Princeton 生物物理博士。物理奧林匹亞國手出身。
百度 AI Lab → Google Brain → OpenAI 研究副總裁(主導 GPT-2、GPT-3,共同發明 RLHF)。
父親生病促使他從理論物理轉向生物物理——「科學進步的速度關乎生死」。
2024 年發表 50 頁長文〈Machines of Loving Grace〉,描繪 AI 可能帶來的正面未來。
UC Santa Cruz 英語文學學士(Summa Cum Laude)。不是工程背景。
早期做過國會競選、全球衛生 NGO,發現「善意機構影響力有限」。
2013 加入 Stripe 早期員工(在這裡認識了後來的 OpenAI CTO Greg Brockman)。
2018 加入 OpenAI 做到安全與政策副總裁。
Fortune 引述她的話:人文素養在 AI 時代「比以往更重要」。
| 人 | 角色 | 為什麼重要 |
|---|---|---|
| Jared Kaplan | 首席科學家 | Scaling Laws 論文第一作者——證明了「模型越大越強」的數學規律 |
| Tom Brown | 研究 | GPT-3 論文第一作者 |
| Sam McCandlish | 首席架構師 | Scaling Laws 研究核心人物 |
| Chris Olah | 可解釋性研究主管 | 神經網路可視化先驅,讓人「看見」AI 在想什麼 |
| Jack Clark | 前政策主管 | Import AI 電子報作者、Stanford AI Index 共同主席 |
📎 Dario Amodei - Wikipedia 📎 Daniela Amodei - Wikipedia 📎 Fortune 專訪 📎 Contrary Research
「我們這群人在做完 GPT-2 和 GPT-3 之後,堅信兩件事:投入更多算力,模型會持續變強。正因如此,你需要的不只是擴展模型,還需要對齊(alignment)和安全研究。」— Dario Amodei,Yahoo Finance 專訪
核心分歧很簡單:先做安全,還是先衝能力?
OpenAI 的方向是加速商業化。Dario 這群人認為安全不是附加品,是基礎工程。Jack Clark 曾說:「我們 50% 的時間花在說服別人接受我們的觀點,50% 才在工作。」
公司名稱的由來也很有意思:團隊考慮過 Aligned AI、Generative、Sponge、Swan、Sloth、Sparrow Systems,最後選了 Anthropic——希臘文「以人為中心」的意思——因為剛好有可用的 domain。
最關鍵的一個數字:Anthropic 85% 營收來自企業客戶,OpenAI 85% 來自消費者。這不是巧合,是策略選擇。
| 方案 | 月費 | 目標用戶 |
|---|---|---|
| Free | $0 | 嘗鮮用戶,有限 Sonnet |
| Pro | $20 | 日常用戶,含 Claude Code、Cowork、Research |
| Max 5× | $100 | 重度用戶,5 倍 Pro 用量+Opus |
| Max 20× | $200 | 專業開發者,20 倍 Pro 用量+Opus |
| Team | $25/人 | 團隊,5 人起跳 |
| Enterprise | 客製 | 大型企業 |
Pro ($20/月):平均用戶每月 API 等值消耗約 $180,Anthropic 每人虧損約 $160/月。
Max 5× ($100/月):5 倍用量 = API 等值約 $900/月,Anthropic 每人虧損約 $800/月。用戶賺到的更多——重度開發者說「Pro 大概撐 3-4 小時就被限速,Max 5x 可以撐完整個工作日 6-8 小時」。
Max 20× ($200/月):20 倍用量 = API 等值約 $3,600/月,Anthropic 每人虧損約 $3,400/月。這是給日夜都在用 Opus 的專業開發者——他們獲得的 ROI 最誇張。
結論:越高階的方案,用戶「賺」越多,Anthropic「賠」越多。那為什麼要這樣做?因為策略是:用低價吸引開發者 → 他們在工作中推薦 → 企業端簽 API 大合約(按 token 計費,利潤高得多)。消費端是行銷費用,企業端才是利潤中心。
「$1B → $14B in about 14 months. There is simply no precedent for this in B2B software. Not Slack, not Zoom, not Snowflake. Nothing.」— SaaStr
| 投資人 | 累計投資 | 持股比例 | 限制 |
|---|---|---|---|
| Amazon | ~$80 億 | ~7.8% | 上限 33%,無董事會席位 |
| Google / Alphabet | ~$30+ 億 | ~14% | 上限 15%,無投票權、無董事會席位 |
| Nvidia + Microsoft | ~$150 億 | 未公開 | Anthropic 承諾買 $300 億 Azure 算力 |
| 其他(GIC、Coatue、BlackRock...) | 數百億 | 分散 | — |
| 創辦團隊 | — | 核心持股 | 透過 LTBT 信託保護決策權 |
| 測試 | #1 | #2 | #3 |
|---|---|---|---|
| SWE-bench Verified (真實 GitHub issue 修復) |
Claude Opus 4.6 (80.8%) | Claude 4 Sonnet (77.2%) | GPT-5 (74.9%) |
| LogRocket 開發工具排名 | Claude Opus 4.6 | Gemini 3.1 Pro | Claude Sonnet 4.6 |
| 多語言翻譯準確率 | Claude (97.5%) | — | — |
| ARC-AGI-2 抽象推理 | Gemini 3.1 Pro (77.1%) | — | Claude (68.8%) |
注意:頂級模型間差距往往只有 1-2 個百分點,且不同任務排名會反轉。「X 全面勝過 Y」的簡單結論已不適用。
1. 回答風格「節制」——不過度熱情、不亂猜。ChatGPT 給你洋洋灑灑的解釋,Claude 給你精確的解法。對資深開發者來說,後者更有效率。
2. 超大上下文窗口——消費者版 200K tokens,Opus beta 版 1M tokens。可以貼整本書或整個 codebase 進去。
3. Claude Code 的 agent 模式——不只寫程式碼,還能讀取專案結構、規劃多步驟任務、然後自己執行。是終端機裡的 AI 同事,不是 IDE 側欄的自動補全。
4. 安全優先的副產品——Constitutional AI 讓行為更一致、可預測。企業採購時,「不會亂說」比「什麼都能做」更重要。
Fortune 10 中的 8 家 30 萬+ 企業客戶 500+ 客戶年花費超過 $1M
包含金融業(NBIM 挪威主權基金、IG Group)、資安業(HackerOne、Palo Alto Networks)、以及整合 6,000+ 企業軟體(Salesforce、Notion、Slack)。
| ChatGPT (OpenAI) | Claude (Anthropic) | Gemini (Google) | |
|---|---|---|---|
| 月活用戶 | 3.55 億+ | ~1,900 萬 | 第二名(具體數字未公開) |
| 年化營收 | ~$131 億 | ~$190 億 | 含在 Google Cloud 中 |
| 主要收入來源 | 消費者訂閱 (~85%) | 企業 API (~85%) | Google Cloud 整合 |
| 企業市佔 | ~27-29% | ~32-40% | ~20-22% |
| 預計獲利年 | 2030 | 2028 | 已獲利(母公司 Alphabet) |
| 核心競爭力 | 品牌知名度、多模態、用戶基數 | Coding、推理、企業信任 | 搜尋整合、低價策略、基礎設施 |
| 策略風格 | 什麼都做、追求最大市場 | 專注少數領域做到最好 | 用既有生態系綁定用戶 |
2022 年 4 月,Sam Bankman-Fried 領投 Anthropic 的 Series B,$5.8 億中約 $5.3 億來自 SBF 及其關聯方。七個月後,FTX 爆雷破產。美國司法部指控這些投資可能來自挪用的客戶資金。
Anthropic 本身未被指控不當行為,但接受來自可能挪用客戶資金的巨額投資,是公司早期歷史中的尷尬篇章。連帶讓「有效利他主義」(Effective Altruism)運動受到質疑——FTX、Anthropic、AI 安全研究之間的人脈高度重疊。
📎 CNBC: FTX 出售 Anthropic 持股 📎 Fortune: SBF 審判中的 Anthropic
Anthropic 推出 Claude Cowork(桌面版 AI agent)時,市場將其解讀為「AI 要取代中階管理層」,引發 SaaS 股票恐慌性賣壓。Anthropic 後來將定位從「取代」調整為「人類增強」(augmentation),市場才穩定下來。
更早之前,Claude Code 宣布可將 COBOL 轉譯成現代語言,導致 IBM 單日市值蒸發約 $400 億,大型科技股連帶賣壓超過 $1 兆。
這是 2026 年最大的 AI 產業政治事件,也是理解 Anthropic「安全優先」到底是真是假的最佳案例。
2026 年 1 月 3 日,美軍特種部隊突襲委內瑞拉首都加拉加斯,逮捕總統馬杜羅(Nicolás Maduro)。據 Axios 獨家報導,Claude 透過 Palantir 平台在行動期間被使用——不只是事前規劃。這是已知首次商業 AI 被部署於機密軍事行動。行動中 83 人死亡,包括 47 名委內瑞拉士兵。
Anthropic 事後發現此事並向五角大廈追問。五角大廈的反應令人震驚:「因為你敢問,我們要重新評估合作關係。」(NBC News)
牛津大學布拉瓦尼克政府學院的 Dr. Brianna Rosen 評論指出,這場爭端表面是「倫理 vs 國安」的衝突,實際反映的是更深層的結構性問題:美國把 AI 部署到戰場和情報系統裡,卻沒有對應的法律框架和監督機制。
目前的狀態是:AI 能不能用於大規模國內監控?能不能控制自主武器?美國法律對這些問題是空白或模糊的。所以變成私人公司(Anthropic)用自己的使用條款來劃紅線——但公司政策不是法律,政府想改就改。
「後果遠超華盛頓」的意思是:英國、日本、歐盟的軍方都在看美國怎麼處理這件事。如果一家公司因為堅持安全紅線就被列為「供應鏈風險」,全球 AI 產業都會產生寒蟬效應——還有誰敢跟政府談條件?這個先例會被其他國家引用。
📎 CNBC 法庭報導 📎 CNN: Anthropic 拒絕五角大廈 📎 NPR: OpenAI 接受五角大廈 📎 Al Jazeera 分析 📎 TechCrunch 法庭文件 📎 牛津大學評論
如果五角大廈事件展示了 Anthropic 對外堅持原則的一面,接下來的故事則展示了另一面——安全承諾在商業壓力下的妥協。而且時間點極其微妙。
就在五角大廈給最後通牒的同一天,Anthropic 發布了「負責任擴展政策」(RSP)第三版。
最大改變:移除了核心承諾——「除非安全措施已到位,否則不訓練更強模型」。
原本的硬性承諾(hard commitment),變成「公開目標,我們會公開自評進度」(public goals)。
首席科學家 Jared Kaplan 解釋:「我們停止訓練模型對任何人都沒有幫助。」他說 AI 安全評估的科學比預期更複雜——2025 年的測試無法排除模型可能協助生物恐攻的風險,但也無法確認這個風險存在,原本想像的「清楚紅線」在實務中是「模糊的漸層」。
批評者不買帳。AI 安全研究社群 LessWrong 上的分析指出:「RSP 中的『如果/那麼』關係已被大幅弱化。」安全評估機構 METR 的 Chris Painter 警告 Anthropic「需要進入分流模式,因為評估和緩解風險的方法跟不上能力發展的速度。」
📎 Time 獨家報導 📎 CNN: 安全政策修改 📎 LessWrong 社群分析 📎 Anthropic 官方公告
RSP 修改後不久,Anthropic 安全團隊負責人 Mrinank Sharma 辭職,發表公開信:
「世界正處於危險之中。」(The world is in peril.)— Mrinank Sharma,eWeek 報導
信中說員工「不斷面臨壓力,被迫擱置最重要的事」。同期還有多名研究員離職。CNN 報導指出,不只 Anthropic——OpenAI、xAI 的安全人員也在出走,整個 AI 產業的安全研究正在失血。
把所有事件放在一起看,才能理解這家公司的真正面貌——不是聖人,也不是偽君子,而是一家正在從「理想主義新創」過渡到「現實主義巨頭」的公司。
| 事件 | 性質 | 信號 |
|---|---|---|
| 拿到 $300 億融資,估值 $3,800 億 | 💰 利多 | 史上第二大創投融資 |
| 被列為「供應鏈風險」 | 🚫 危機 | 等同於中國企業待遇 |
| RSP 核心安全承諾被移除 | 📉 妥協 | 紅線變虛線 |
| 安全團隊負責人辭職 | 🚪 人才流失 | 「世界正處於危險之中」 |
| Claude Code 營收翻倍至 $25 億 | 📈 利多 | 開發者持續湧入 |
| 拒絕五角大廈「任何合法用途」條款 | 🛡️ 堅持原則 | 在政府壓力下不讓步 |
一家公司同時是市場上最被信任的 AI,又在削弱自己的安全承諾。同時被政府打壓,又在法庭上反擊。同時安全人員出走,又營收暴漲。
這不是虛偽,這是規模帶來的必然張力。當你從 20 人的理想主義實驗室,長成估值 3,800 億美元的公司,「絕對不妥協」這個選項在物理上就不存在了。問題不是「你有沒有妥協」,而是「你妥協了什麼、堅持了什麼」。
Anthropic 放棄了安全評估的硬性承諾(因為科學跟不上),但堅持了不做大規模監控和自主武器(即使代價是失去政府合約)。這算及格嗎?你自己判斷。
給 AI 一套明確的價值原則(「憲法」),讓 AI 自我評估是否違反原則。
優點:行為更一致、可預測、可審計。
代價:有時太保守,用戶覺得被「管太多」。
加上 RSP(負責任擴展政策):每個能力門檻都有對應的安全措施。
靠人類評分者評估 AI 輸出,模型學習匹配人類偏好。
優點:彈性大,可以快速調整行為。
代價:容易學到「表面討好」而非真正安全。
組織結構從非營利 → 有上限獲利 → 爭議中轉向完全營利。
2024 年 10 月,Dario 發表 50 頁長文〈Machines of Loving Grace〉,描繪 AI 如果順利發展的正面願景。他用「powerful AI」取代 AGI 一詞,預測五大領域會在 5-10 年內被徹底改變:生物醫療、神經科學、經濟發展、治理、政府服務。
後續文章〈The Adolescence of Technology〉:powerful AI 可能 1-2 年內到來。
表面:安全 = 企業信任。企業不想要最炫的 AI,想要不會出包的 AI。但這解釋太淺——Google 也很安全,為什麼沒同樣效果?
策略:「限制」產生「聚焦」。Anthropic 說「不做圖片、影片、語音」,表面是安全考量,實際效果是資源聚焦。OpenAI 在 10 個領域各拿 70 分,Anthropic 在 2 個領域拿 95 分——而那 2 個領域(coding + 企業推理)剛好是付費意願最高的。「安全優先」的真正功能,是一個讓團隊說「不」的正當理由。
哲學:「約束」創造「品格」。Claude 的節制風格不是刻意調出來的「功能」,而是 Constitutional AI 訓練方法的副產品。當你告訴 AI「誠實比討好重要」,它自然產生有教養的溝通風格。這就像教育:你不能「教」一個人有品格,但你可以建立價值框架,讓品格成為自然的產物。
功能追得上,定位追不上。技術差距只有 1-2%,OpenAI 已經有 Codex 對標 Claude Code。但三件事不是「加功能」能解決的:
品牌 DNA 已經定型。ChatGPT = 「萬能聊天機器人」,Claude = 「專業工作夥伴」。這跟 Google+ 追 Facebook 一樣——功能可以抄,但用戶認知框架一旦形成,改變它的成本比從零建立還高。
模型「人格」是訓練方法的產物。RLHF 訓練出的模型天生傾向「討好用戶」——因為評分者會給「聽起來很棒」的回答高分。要讓 ChatGPT 變得像 Claude 一樣節制,需要重新設計整個訓練流程,等於叫一個從小被誇獎長大的人突然變得內斂務實。
五角大廈事件劃出了價值觀鴻溝。OpenAI 接受「任何合法用途」,Anthropic 拒絕。對企業採購來說,選 AI 供應商越來越像選價值觀盟友。
| 案例 | 功能追上? | 結果 |
|---|---|---|
| Google+ vs Facebook | ✅ 功能更好 | ❌ 失敗,品牌認知無法改變 |
| Bing vs Google | ✅ 品質接近 | ❌ 搜尋習慣太強 |
| Teams vs Slack | ✅ 功能對齊 | ✅ 成功,靠企業綁定 |
| Samsung vs Apple | ✅ 硬體追上 | ⚠️ 市佔追上,但品牌溢價永遠追不上 |
OpenAI 會保持最大市佔率(像 Samsung 手機出貨量全球第一),但 Anthropic 會拿走最高利潤的客戶群(像 Apple 拿走手機產業 85% 的利潤)。
Google 有企業客戶基礎(Workspace、GCP),Gemini 可以直接嵌入 Gmail、Docs、Sheets——不需要用戶「去找 AI」。Google 的定價可以超級激進(免費塞進所有產品),而且不需要 Anthropic 的品牌光環。
如果 Anthropic 被真正威脅到,對手更可能是 Google 的「AI 無處不在」策略,而不是 OpenAI 的「加功能」策略。
Claude 的 $200/月看起來很貴,但月薪 $10,000 的工程師一天省 2 小時,一個月省 $2,500 的時間成本。$200 買 $2,500 的生產力,ROI 是 12.5 倍。
在「大家都在比便宜」的市場,堅持品質標準本身就是最強的行銷策略——因為它會自動幫你選出對的客戶。那些被高價嚇走的人,本來就不是你的目標客群。留下來的人,付費意願和忠誠度都遠超平均。
這不只是合約糾紛,是整個 AI 產業面對的根本問題:當你的技術足夠強大到可以影響國家安全,你還有權利設定使用條件嗎?
Anthropic 說「可以」,OpenAI 說「聽政府的」。這個分歧可能定義接下來十年 AI 產業的政治版圖。
| 書名 | 作者 | 出版日 | 重點 | 中文版 |
|---|---|---|---|---|
| The Scaling Era | Dwarkesh Patel | 2025/10 | 口述歷史,含 Dario Amodei 訪談原話 | ❌ |
| Empire of AI | Karen Hao | 2025/05 | OpenAI 內幕,批判調查角度 | ❌ |
| The Optimist | Keach Hagey | 2025/05 | Sam Altman 傳記 | ❌ |
| Supremacy《AI霸主》 | Parmy Olson | 2024/09 | OpenAI vs DeepMind 競爭,金融時報年度書 | ✅ 天下文化 |