Anthropic 深度研究
Claude 為何能在 AI 戰場殺出血路?

從 OpenAI 出走的 11 人,如何用「安全優先」打造史上成長最快的企業軟體公司

IC 研究筆記 | 2026.03.26 | 資料截至 2026 年 3 月

👁️ 載入中... 次瀏覽
最近更新 2026/3/26

一家「不應該存在」的公司

2021 年初,在 COVID 疫情的第二波高峰中,11 個人從 OpenAI 辭職。他們沒有產品、沒有客戶,只有一個聽起來不太商業的信念:AI 越強大,安全研究就越不能是附加品

五年後,這家公司估值 3,800 億美元,年營收從 10 億飆到 190 億,被 SaaStr 稱為「史上在這個規模成長最快的軟體公司」。Fortune 10 中有 8 家是它的客戶。

這家公司叫 Anthropic,它的產品叫 Claude。

$3,800 億
估值(2026/02)
$190 億
年化營收(2026/03 估)
14 個月
從 $10 億到 $140 億 ARR
8/10
Fortune 10 企業客戶

兄妹檔:一個物理學家,一個文學系

Anthropic 最有趣的地方之一,是它的兩位領導者完全不同型。

Dario Amodei at TechCrunch Disrupt 2023
Dario Amodei 在 TechCrunch Disrupt 2023 舞台上。📷 TechCrunch / Flickr, CC BY 2.0, via Wikimedia Commons
CEO

Dario Amodei

1983 年生。Princeton 生物物理博士。物理奧林匹亞國手出身。

百度 AI Lab → Google Brain → OpenAI 研究副總裁(主導 GPT-2、GPT-3,共同發明 RLHF)。

父親生病促使他從理論物理轉向生物物理——「科學進步的速度關乎生死」。

2024 年發表 50 頁長文〈Machines of Loving Grace〉,描繪 AI 可能帶來的正面未來。

President

Daniela Amodei

UC Santa Cruz 英語文學學士(Summa Cum Laude)。不是工程背景。

早期做過國會競選、全球衛生 NGO,發現「善意機構影響力有限」。

2013 加入 Stripe 早期員工(在這裡認識了後來的 OpenAI CTO Greg Brockman)。

2018 加入 OpenAI 做到安全與政策副總裁。

Fortune 引述她的話:人文素養在 AI 時代「比以往更重要」。

分工邏輯:Dario 掌管研究與技術願景,Daniela 掌管營運與商業化。一個是望遠鏡,一個是引擎。兩者缺一,就像很多 AI 研究公司一樣——要嘛有好研究但做不出產品,要嘛有商業嗅覺但技術跟不上。

其他關鍵共同創辦人

角色為什麼重要
Jared Kaplan首席科學家Scaling Laws 論文第一作者——證明了「模型越大越強」的數學規律
Tom Brown研究GPT-3 論文第一作者
Sam McCandlish首席架構師Scaling Laws 研究核心人物
Chris Olah可解釋性研究主管神經網路可視化先驅,讓人「看見」AI 在想什麼
Jack Clark前政策主管Import AI 電子報作者、Stanford AI Index 共同主席

為什麼離開 OpenAI?

「我們這群人在做完 GPT-2 和 GPT-3 之後,堅信兩件事:投入更多算力,模型會持續變強。正因如此,你需要的不只是擴展模型,還需要對齊(alignment)和安全研究。」
— Dario Amodei,Yahoo Finance 專訪

核心分歧很簡單:先做安全,還是先衝能力?

OpenAI 的方向是加速商業化。Dario 這群人認為安全不是附加品,是基礎工程。Jack Clark 曾說:「我們 50% 的時間花在說服別人接受我們的觀點,50% 才在工作。」

GPT-2/3
證明 scaling 有效
OpenAI 加速
商業化
安全派不滿
「50% 時間在爭論」
2020/12
11 人出走
2021/02
Anthropic 成立
插曲:2023 年 11 月 OpenAI 董事會危機時,董事會曾聯繫 Dario,問他是否願意取代 Sam Altman 擔任 CEO。Dario 拒絕了——這說明即使離開兩年多,他在 AI 圈的聲望依然極高。

公司名稱的由來也很有意思:團隊考慮過 Aligned AI、Generative、Sponge、Swan、Sloth、Sparrow Systems,最後選了 Anthropic——希臘文「以人為中心」的意思——因為剛好有可用的 domain。

商業模式:跟 OpenAI 完全相反

最關鍵的一個數字:Anthropic 85% 營收來自企業客戶,OpenAI 85% 來自消費者。這不是巧合,是策略選擇。

🟠 Anthropic 路線

  • 企業 API 為主要收入
  • 不做圖片/影片生成(避開高算力消耗)
  • 專注 coding、推理、企業工作流
  • 品牌定位:安全、精確、專業
  • 2028 年預計損益兩平

🟢 OpenAI 路線

  • ChatGPT 訂閱為主要收入
  • 全面發展:文字、圖片、影片、語音
  • 追求最大用戶基數
  • 品牌定位:萬能、好用、無所不在
  • 2030 年預計才能獲利

消費端定價策略

方案月費目標用戶
Free$0嘗鮮用戶,有限 Sonnet
Pro$20日常用戶,含 Claude Code、Cowork、Research
Max 5×$100重度用戶,5 倍 Pro 用量+Opus
Max 20×$200專業開發者,20 倍 Pro 用量+Opus
Team$25/人團隊,5 人起跳
Enterprise客製大型企業
有趣的經濟學——每個方案都在「賠」:

Pro ($20/月):平均用戶每月 API 等值消耗約 $180,Anthropic 每人虧損約 $160/月。

Max 5× ($100/月):5 倍用量 = API 等值約 $900/月,Anthropic 每人虧損約 $800/月。用戶賺到的更多——重度開發者說「Pro 大概撐 3-4 小時就被限速,Max 5x 可以撐完整個工作日 6-8 小時」。

Max 20× ($200/月):20 倍用量 = API 等值約 $3,600/月,Anthropic 每人虧損約 $3,400/月。這是給日夜都在用 Opus 的專業開發者——他們獲得的 ROI 最誇張。

結論:越高階的方案,用戶「賺」越多,Anthropic「賠」越多。那為什麼要這樣做?因為策略是:用低價吸引開發者 → 他們在工作中推薦 → 企業端簽 API 大合約(按 token 計費,利潤高得多)。消費端是行銷費用,企業端才是利潤中心。

成長奇蹟:14 個月 14 倍

2024 年 12 月
年化營收達 $10 億
2025 年 5 月
Claude Code 公開推出
2025 年 7 月
年化營收達 $40 億(Dario 稱「史上在這個規模成長最快的軟體公司」)
2025 年 9 月
Series F 融資 $130 億,估值 $1,830 億
2025 年 11 月
Claude Code ARR 達 $10 億——6 個月,比 ChatGPT 還快
2025 年 12 月
年化營收達 $90 億
2026 年 2 月
Series G 融資 $300 億,估值 $3,800 億。年化營收達 $140 億。Claude Code ARR 達 $25 億
2026 年 3 月(估計)
年化營收約 $190 億(Sacra 估計)
「$1B → $14B in about 14 months. There is simply no precedent for this in B2B software. Not Slack, not Zoom, not Snowflake. Nothing.」
SaaStr

股東與募資結構

投資人累計投資持股比例限制
Amazon~$80 億~7.8%上限 33%,無董事會席位
Google / Alphabet~$30+ 億~14%上限 15%,無投票權、無董事會席位
Nvidia + Microsoft~$150 億未公開Anthropic 承諾買 $300 億 Azure 算力
其他(GIC、Coatue、BlackRock...)數百億分散
創辦團隊核心持股透過 LTBT 信託保護決策權
防控制機制:Anthropic 是公益公司(PBC),並設立「長期利益信託」(LTBT)持有特殊類別股份,可否決特定決策。Amazon 持股上限 33%、Google 上限 15%。設計上確保沒有任何單一投資人可以控制公司——這跟 OpenAI 從非營利轉營利的路線形成鮮明對比。

Claude 為什麼被開發者愛用?

Benchmark 排名(2026 年 3 月)

測試#1#2#3
SWE-bench Verified
(真實 GitHub issue 修復)
Claude Opus 4.6 (80.8%) Claude 4 Sonnet (77.2%) GPT-5 (74.9%)
LogRocket 開發工具排名 Claude Opus 4.6 Gemini 3.1 Pro Claude Sonnet 4.6
多語言翻譯準確率 Claude (97.5%)
ARC-AGI-2 抽象推理 Gemini 3.1 Pro (77.1%) Claude (68.8%)

注意:頂級模型間差距往往只有 1-2 個百分點,且不同任務排名會反轉。「X 全面勝過 Y」的簡單結論已不適用。

開發者為什麼偏好 Claude?

1. 回答風格「節制」——不過度熱情、不亂猜。ChatGPT 給你洋洋灑灑的解釋,Claude 給你精確的解法。對資深開發者來說,後者更有效率。

2. 超大上下文窗口——消費者版 200K tokens,Opus beta 版 1M tokens。可以貼整本書或整個 codebase 進去。

3. Claude Code 的 agent 模式——不只寫程式碼,還能讀取專案結構、規劃多步驟任務、然後自己執行。是終端機裡的 AI 同事,不是 IDE 側欄的自動補全。

4. 安全優先的副產品——Constitutional AI 讓行為更一致、可預測。企業採購時,「不會亂說」比「什麼都能做」更重要。

真實案例:一位 Google 首席工程師公開承認,Claude 一小時重現了他一年的架構工作。Microsoft 內部工程團隊大量採用 Claude Code——即使 Microsoft 自己賣 GitHub Copilot。
📎 Fortune 報導

企業客戶陣容

Fortune 10 中的 8 家 30 萬+ 企業客戶 500+ 客戶年花費超過 $1M

包含金融業(NBIM 挪威主權基金、IG Group)、資安業(HackerOne、Palo Alto Networks)、以及整合 6,000+ 企業軟體(Salesforce、Notion、Slack)。

三強對決:ChatGPT vs Claude vs Gemini

ChatGPT (OpenAI) Claude (Anthropic) Gemini (Google)
月活用戶 3.55 億+ ~1,900 萬 第二名(具體數字未公開)
年化營收 ~$131 億 ~$190 億 含在 Google Cloud 中
主要收入來源 消費者訂閱 (~85%) 企業 API (~85%) Google Cloud 整合
企業市佔 ~27-29% ~32-40% ~20-22%
預計獲利年 2030 2028 已獲利(母公司 Alphabet)
核心競爭力 品牌知名度、多模態、用戶基數 Coding、推理、企業信任 搜尋整合、低價策略、基礎設施
策略風格 什麼都做、追求最大市場 專注少數領域做到最好 用既有生態系綁定用戶
IC 的觀察:「ChatGPT 最早最快最有話題性,Gemini 的 Banana 出名了一下但主要用低價搶市場,Claude 竟然能在 Cowork、Code、CLI 讓更多人願意從 $20 花到 $100 花到 $200 美元/月。」——這種高 ARPU(每用戶平均收入)策略在消費性 AI 市場非常罕見。

爭議與危機

1. FTX / Alameda Research 的錢(2022)

2022 年 4 月,Sam Bankman-Fried 領投 Anthropic 的 Series B,$5.8 億中約 $5.3 億來自 SBF 及其關聯方。七個月後,FTX 爆雷破產。美國司法部指控這些投資可能來自挪用的客戶資金。

SBF 投資
$5.3 億
(2022/04)
FTX 爆雷
(2022/11)
SBF 審判
想用 Anthropic 當辯護
(2023/10)
破產管理方
賣出持股
$8.84 億
(2024/03)
SBF 判刑
25 年
(2024)

Anthropic 本身未被指控不當行為,但接受來自可能挪用客戶資金的巨額投資,是公司早期歷史中的尷尬篇章。連帶讓「有效利他主義」(Effective Altruism)運動受到質疑——FTX、Anthropic、AI 安全研究之間的人脈高度重疊。

2. SaaSpocalypse 恐慌(2026/01)

Anthropic 推出 Claude Cowork(桌面版 AI agent)時,市場將其解讀為「AI 要取代中階管理層」,引發 SaaS 股票恐慌性賣壓。Anthropic 後來將定位從「取代」調整為「人類增強」(augmentation),市場才穩定下來。

更早之前,Claude Code 宣布可將 COBOL 轉譯成現代語言,導致 IBM 單日市值蒸發約 $400 億,大型科技股連帶賣壓超過 $1 兆。

五角大廈事件:原則 vs 政治的正面對決

這是 2026 年最大的 AI 產業政治事件,也是理解 Anthropic「安全優先」到底是真是假的最佳案例。

導火線:委內瑞拉突襲行動

2026 年 1 月 3 日,美軍特種部隊突襲委內瑞拉首都加拉加斯,逮捕總統馬杜羅(Nicolás Maduro)。據 Axios 獨家報導,Claude 透過 Palantir 平台在行動期間被使用——不只是事前規劃。這是已知首次商業 AI 被部署於機密軍事行動。行動中 83 人死亡,包括 47 名委內瑞拉士兵。

Anthropic 事後發現此事並向五角大廈追問。五角大廈的反應令人震驚:「因為你敢問,我們要重新評估合作關係。」NBC News

2025 年 7 月
Anthropic 與五角大廈簽約 $2 億,Claude 成為第一個獲准用於機密網路的前沿模型。用途:情報分析、建模模擬、作戰規劃。條件:五角大廈同意遵守 Anthropic 的使用政策。
2026 年 1 月 3 日
委內瑞拉突襲行動。Claude 透過 Palantir 被用於實際軍事行動。Anthropic 發現後向五角大廈追問——五角大廈怒而啟動合作「重新評估」。
2026 年 1 月
五角大廈新 AI 策略備忘錄,要求所有合約加入「任何合法用途」條款。國防部長 Hegseth 給 Dario 最後通牒:2/27 前同意,否則終止合作。
2026 年 2 月
Anthropic 拒絕「任何合法用途」條款,堅持兩條紅線:
① 禁止大規模國內監控
② 禁止完全自主武器系統
2026 年 2 月 27 日
川普總統下令所有聯邦機構停用 Anthropic 技術。國防部長 Pete Hegseth 將 Anthropic 列為「供應鏈風險」——美國史上第一次對本國公司使用此標籤。

同日,OpenAI 宣布接受五角大廈「任何合法用途」條款。
2026 年 3 月 9 日
Anthropic 在舊金山聯邦法院提告,稱此舉「史無前例且違法」。
2026 年 3 月 24-25 日
法院聽證會。法官 Rita Lin:「這看起來像是試圖摧毀這家公司。」Anthropic 技術反駁:Claude 部署在氣隔離(air-gapped)系統中,Anthropic 無遠端控制能力。法律專家普遍認為 Anthropic 可能勝訴。
政治脈絡:川普 AI 顧問 David Sacks 早在 2025 年 10 月就稱 Anthropic 為「Woke AI」。Anthropic 2026 年 2 月捐款 2,000 萬美元給支持 AI 監管的 PAC。
牛津大學的觀點——真正的問題不是誰對誰錯:

牛津大學布拉瓦尼克政府學院的 Dr. Brianna Rosen 評論指出,這場爭端表面是「倫理 vs 國安」的衝突,實際反映的是更深層的結構性問題:美國把 AI 部署到戰場和情報系統裡,卻沒有對應的法律框架和監督機制

目前的狀態是:AI 能不能用於大規模國內監控?能不能控制自主武器?美國法律對這些問題是空白或模糊的。所以變成私人公司(Anthropic)用自己的使用條款來劃紅線——但公司政策不是法律,政府想改就改。

「後果遠超華盛頓」的意思是:英國、日本、歐盟的軍方都在看美國怎麼處理這件事。如果一家公司因為堅持安全紅線就被列為「供應鏈風險」,全球 AI 產業都會產生寒蟬效應——還有誰敢跟政府談條件?這個先例會被其他國家引用。

安全承諾的裂痕:紅線變虛線

如果五角大廈事件展示了 Anthropic 對外堅持原則的一面,接下來的故事則展示了另一面——安全承諾在商業壓力下的妥協。而且時間點極其微妙。

RSP v3.0:核心承諾被移除(2026/02/25)

就在五角大廈給最後通牒的同一天,Anthropic 發布了「負責任擴展政策」(RSP)第三版。

最大改變:移除了核心承諾——「除非安全措施已到位,否則不訓練更強模型」

原本的硬性承諾(hard commitment),變成「公開目標,我們會公開自評進度」(public goals)。

首席科學家 Jared Kaplan 解釋:「我們停止訓練模型對任何人都沒有幫助。」他說 AI 安全評估的科學比預期更複雜——2025 年的測試無法排除模型可能協助生物恐攻的風險,但也無法確認這個風險存在,原本想像的「清楚紅線」在實務中是「模糊的漸層」。

批評者不買帳。AI 安全研究社群 LessWrong 上的分析指出:「RSP 中的『如果/那麼』關係已被大幅弱化。」安全評估機構 METR 的 Chris Painter 警告 Anthropic「需要進入分流模式,因為評估和緩解風險的方法跟不上能力發展的速度。」

更大的影響:在 Anthropic 2023 年發布初版 RSP 後,OpenAI 和 Google DeepMind 都跟進採用類似框架。現在原創者自己撤退,整個產業對「負責任擴展」的定義可能跟著鬆動。

安全研究員出走

RSP 修改後不久,Anthropic 安全團隊負責人 Mrinank Sharma 辭職,發表公開信:

「世界正處於危險之中。」(The world is in peril.)
— Mrinank Sharma,eWeek 報導

信中說員工「不斷面臨壓力,被迫擱置最重要的事」。同期還有多名研究員離職。CNN 報導指出,不只 Anthropic——OpenAI、xAI 的安全人員也在出走,整個 AI 產業的安全研究正在失血。

2026 年 2 月:一個月內的矛盾

把所有事件放在一起看,才能理解這家公司的真正面貌——不是聖人,也不是偽君子,而是一家正在從「理想主義新創」過渡到「現實主義巨頭」的公司。

事件性質信號
拿到 $300 億融資,估值 $3,800 億 💰 利多 史上第二大創投融資
被列為「供應鏈風險」 🚫 危機 等同於中國企業待遇
RSP 核心安全承諾被移除 📉 妥協 紅線變虛線
安全團隊負責人辭職 🚪 人才流失 「世界正處於危險之中」
Claude Code 營收翻倍至 $25 億 📈 利多 開發者持續湧入
拒絕五角大廈「任何合法用途」條款 🛡️ 堅持原則 在政府壓力下不讓步
怎麼理解這個矛盾?

一家公司同時是市場上最被信任的 AI,又在削弱自己的安全承諾。同時被政府打壓,又在法庭上反擊。同時安全人員出走,又營收暴漲。

這不是虛偽,這是規模帶來的必然張力。當你從 20 人的理想主義實驗室,長成估值 3,800 億美元的公司,「絕對不妥協」這個選項在物理上就不存在了。問題不是「你有沒有妥協」,而是「你妥協了什麼、堅持了什麼」。

Anthropic 放棄了安全評估的硬性承諾(因為科學跟不上),但堅持了不做大規模監控和自主武器(即使代價是失去政府合約)。這算及格嗎?你自己判斷。

AI 安全哲學:不只是口號

Anthropic:Constitutional AI

給 AI 一套明確的價值原則(「憲法」),讓 AI 自我評估是否違反原則。

優點:行為更一致、可預測、可審計。

代價:有時太保守,用戶覺得被「管太多」。

加上 RSP(負責任擴展政策):每個能力門檻都有對應的安全措施。

OpenAI:RLHF

靠人類評分者評估 AI 輸出,模型學習匹配人類偏好。

優點:彈性大,可以快速調整行為。

代價:容易學到「表面討好」而非真正安全。

組織結構從非營利 → 有上限獲利 → 爭議中轉向完全營利。

Dario Amodei 的願景文章

2024 年 10 月,Dario 發表 50 頁長文〈Machines of Loving Grace〉,描繪 AI 如果順利發展的正面願景。他用「powerful AI」取代 AGI 一詞,預測五大領域會在 5-10 年內被徹底改變:生物醫療、神經科學、經濟發展、治理、政府服務。

後續文章〈The Adolescence of Technology〉:powerful AI 可能 1-2 年內到來。

這跟你有什麼關係?

1. 「安全優先」為什麼反而賺更多?三層邏輯

表面:安全 = 企業信任。企業不想要最炫的 AI,想要不會出包的 AI。但這解釋太淺——Google 也很安全,為什麼沒同樣效果?

策略:「限制」產生「聚焦」。Anthropic 說「不做圖片、影片、語音」,表面是安全考量,實際效果是資源聚焦。OpenAI 在 10 個領域各拿 70 分,Anthropic 在 2 個領域拿 95 分——而那 2 個領域(coding + 企業推理)剛好是付費意願最高的。「安全優先」的真正功能,是一個讓團隊說「不」的正當理由。

哲學:「約束」創造「品格」。Claude 的節制風格不是刻意調出來的「功能」,而是 Constitutional AI 訓練方法的副產品。當你告訴 AI「誠實比討好重要」,它自然產生有教養的溝通風格。這就像教育:你不能「教」一個人有品格,但你可以建立價值框架,讓品格成為自然的產物。

但要潑一點冷水:Anthropic 目前仍在虧損(2028 才預計損益兩平)。營收超越 OpenAI 的主因是 Claude Code 爆發,而 Claude Code 成功更多是產品設計(終端機原生 agent),不全是「安全」的功勞。更精確的因果鏈是:安全優先 → 聚焦企業市場 → 產品針對專業用戶 → 高 ARPU → 營收快速成長。安全是起點,但中間經過了好幾次策略轉化。

2. OpenAI 補上同樣功能,能追回來嗎?

功能追得上,定位追不上。技術差距只有 1-2%,OpenAI 已經有 Codex 對標 Claude Code。但三件事不是「加功能」能解決的:

品牌 DNA 已經定型。ChatGPT = 「萬能聊天機器人」,Claude = 「專業工作夥伴」。這跟 Google+ 追 Facebook 一樣——功能可以抄,但用戶認知框架一旦形成,改變它的成本比從零建立還高。

模型「人格」是訓練方法的產物。RLHF 訓練出的模型天生傾向「討好用戶」——因為評分者會給「聽起來很棒」的回答高分。要讓 ChatGPT 變得像 Claude 一樣節制,需要重新設計整個訓練流程,等於叫一個從小被誇獎長大的人突然變得內斂務實。

五角大廈事件劃出了價值觀鴻溝。OpenAI 接受「任何合法用途」,Anthropic 拒絕。對企業採購來說,選 AI 供應商越來越像選價值觀盟友。

3. 歷史類比:最像 Samsung vs Apple

案例功能追上?結果
Google+ vs Facebook✅ 功能更好❌ 失敗,品牌認知無法改變
Bing vs Google✅ 品質接近❌ 搜尋習慣太強
Teams vs Slack✅ 功能對齊✅ 成功,靠企業綁定
Samsung vs Apple✅ 硬體追上⚠️ 市佔追上,但品牌溢價永遠追不上

OpenAI 會保持最大市佔率(像 Samsung 手機出貨量全球第一),但 Anthropic 會拿走最高利潤的客戶群(像 Apple 拿走手機產業 85% 的利潤)。

4. 真正的威脅不是 OpenAI,是 Google

Google 有企業客戶基礎(Workspace、GCP),Gemini 可以直接嵌入 Gmail、Docs、Sheets——不需要用戶「去找 AI」。Google 的定價可以超級激進(免費塞進所有產品),而且不需要 Anthropic 的品牌光環。

如果 Anthropic 被真正威脅到,對手更可能是 Google 的「AI 無處不在」策略,而不是 OpenAI 的「加功能」策略。

5. 高單價策略的共通邏輯

Claude 的 $200/月看起來很貴,但月薪 $10,000 的工程師一天省 2 小時,一個月省 $2,500 的時間成本。$200 買 $2,500 的生產力,ROI 是 12.5 倍。

在「大家都在比便宜」的市場,堅持品質標準本身就是最強的行銷策略——因為它會自動幫你選出對的客戶。那些被高價嚇走的人,本來就不是你的目標客群。留下來的人,付費意願和忠誠度都遠超平均。

6. 五角大廈事件的真正意義

這不只是合約糾紛,是整個 AI 產業面對的根本問題:當你的技術足夠強大到可以影響國家安全,你還有權利設定使用條件嗎?

Anthropic 說「可以」,OpenAI 說「聽政府的」。這個分歧可能定義接下來十年 AI 產業的政治版圖。

延伸閱讀

書名作者出版日重點中文版
The Scaling Era Dwarkesh Patel 2025/10 口述歷史,含 Dario Amodei 訪談原話
Empire of AI Karen Hao 2025/05 OpenAI 內幕,批判調查角度
The Optimist Keach Hagey 2025/05 Sam Altman 傳記
Supremacy《AI霸主》 Parmy Olson 2024/09 OpenAI vs DeepMind 競爭,金融時報年度書 ✅ 天下文化

重要文章