Claude Code 原始碼洩露後,我真正學到的是什麼?
51 萬行程式碼裡,真正值得看的不是八卦,而是 harness、CLAUDE.md、parallel agents 與 context compression。
TL;DR
先看重點
>Claude Code 原始碼洩露最值得學的不是八卦,而是 harness、memory、permissions 與 workflow 設計。
>這次事件提醒我們,模型只是引擎,真正的產品差異往往來自運行框架本身。
>如果你有在用 Claude Code,最立刻可行的動作通常不是追新聞,而是重寫自己的 CLAUDE.md。

Claude Code 那次原始碼洩露,表面上看很像一則八卦新聞,但我覺得真正值得看的反而是背後暴露出來的工作方式。
51 萬行程式碼、1,902 個檔案攤開來之後,最讓我有感的不是模型有多強,而是 Anthropic 花了多少力氣在設計 AI 周圍的運行環境。
1. 真正調 AI 的部分不到 5%
看完幾份重點分析之後,我最直接的感想是:模型不是整個產品,harness 才是。
如果把 Claude Code 想成一台車,模型比較像引擎,真正讓你可以上路的則是煞車、方向盤、儀表板、權限控制、記憶管理、工具編排這整套系統。
所以同樣都在呼叫 Claude API,不同產品體感會差那麼多,其實不奇怪。差的通常不是模型智力,而是整個控制層有沒有被設計好。
2. CLAUDE.md 不是啟動時讀一次而已
這次最值得立刻改變使用習慣的發現之一,就是 CLAUDE.md 不只是開機文件。
原始碼揭露出來的行為很清楚:每一次新訊息進來,它都會重新載入相關指令。換句話說,那不是一份裝飾性的說明,而是一份每輪都會被重新看的操作手冊。
而且它還有層級:
~/.claude/CLAUDE.md放全域習慣./CLAUDE.md放專案規則.claude/rules/*.md放模組化規範CLAUDE.local.md放不進 git 的私人提醒
如果平常只寫一句「請用繁中回答」,等於把最值錢的位置浪費掉了。
3. 內建 Agent 最有價值的是角色分離
原始碼裡真正讓我驚豔的不是 Agent 數量,而是每個 Agent 的責任被切得很清楚。
Explore Agent 偏唯讀,Plan Agent 偏規劃,Verification Agent 偏挑錯。這種設計其實很像成熟團隊裡的分工,而不是「讓一個超強的人自己把所有事做完」。
這也再次提醒我,AI workflow 最容易出錯的地方,常常不是能力不夠,而是角色混在一起。讓同一個系統同時負責產出、審核、驗收,本來就很容易太樂觀。
4. 子 Agent 共用快取,所以平行不是浪費
另一個很重要的設計,是上下文副本與快取。
當主線程 fork 出多個子 Agent 時,它們不是每次都從零重新開始,而是共享一份高度相似的上下文基底。這代表並行工作未必像很多人想像的那樣成倍增加成本。
這也解釋了為什麼 Claude Code 的自然用法常常更接近多線程工作,而不是一個 session 把所有東西硬扛到底。
5. 對話會被壓縮,所以不要太相信記憶
原始碼裡另一個很實用的提醒,是上下文壓縮比大多數人想像得更積極。
當對話變長、token 接近上限,系統會主動保留部分檔案與摘要,但不是所有中間推理都能完整留下來。你以為 AI 還記得的東西,它未必真的還保有原始細節。
所以複雜任務做到後面,重新讀檔、重新確認上下文、適時手動 compact,都不是龜毛,而是正常維護。
6. 我也因此重寫了自己的 CLAUDE.md
看完這次事件後,我自己最直接的動作不是繼續追八卦,而是回去改工作規則。
我特別把幾種容易出事的行為寫得更明確:
- 改檔之後要跑驗證,不要只看檔案有沒有寫成功
- 大檔案要分段讀,不要假設一次能看完
- 長對話之後編輯前要重讀,不要盲信記憶
- 搜尋結果太少時要懷疑是否被截斷
這些規則看起來很細,但真的會直接影響產出品質。
後記
Claude Code 原始碼洩露讓我最有感的一件事是:再強的 AI,也還是需要好的運行框架。
真正穩定的 AI 工具,不是只靠一個更強的模型版本,而是靠整套 permissions、memory、verification、tooling 一起成立。
PS
如果這次事件最後留下來的最大收穫,是讓更多人開始認真寫自己的 CLAUDE.md,那它某種程度上也算是一堂昂貴但有效的公開課。


