如果你最近用 AI 寫過超過十天的東西,大概都遇過這個畫面:
筆記資料夾裡躺了 200 個 markdown,每個檔頭都寫著「重要結論」。連結密密麻麻,但點進去常常只是另一個 200 字的中繼站。再過兩週,你會發現自己重複生成同一個觀點三次,分別在三個檔案裡,沒有任何一個是 canonical。
這不是 AI 寫太爛。是寫的速度遠超過你整理的紀律。
我用 Claude Code + Heptabase 跑了 11 天 daily dogfood,把這份紀律收斂成 4 個 slash commands、3 份 dev spec,open-source 到 cutemo0953/heptabrain。Repo 結構不重要,底下的 6 條原則才是。
為什麼 AI 知識工作會崩盤
崩盤的原因永遠是同一個:「當下狀態」和「結晶知識」混在一起。
- 「我今天 debug 到一半,這個 bug 的 root cause 是 X」 ← 當下狀態(兩週後過期)
- 「同類問題的 root cause 都會是『boundary 沒寫清楚』」 ← 結晶知識(兩年後仍成立)
混在一起時,你打開筆記庫,每個檔案都長得像「結晶」,但其實 80% 是在某個 sprint 才有意義的 snapshot。AI 找連結時,它會把過期的 state 當作 knowledge 推薦,於是你的 zettelkasten 變成一個高熵的雜訊池。
HeptaBrain 的核心動作只有一個:把這兩種東西放到不同系統裡,並強制它們只能透過「蒸餾」溝通。
- Claude Code Memory = 當下狀態(天到週)
- Heptabase = 結晶知識(永久)
- 中間一個 sync skill:每次只搬「蒸餾後的核心原則」,不搬全文
夠簡單。但魔鬼在底下 6 條紀律。
原則 1:State 和 Knowledge 在 frontmatter 裡解耦,不靠啟發式
每個 memory file 的 YAML frontmatter 強制標 canonicality: state 或 canonicality: knowledge。Sync skill 看的是這個欄位,不是檔名、不是內容關鍵字。
為什麼這條重要?
啟發式(看到「結論」「原則」就當 knowledge)會在第三週開始失效——因為你寫 state 文件時,自然也會寫「結論」「原則」。靠 LLM 判斷則會在 token 用完時隨機翻車。
唯一可長期維持的是:寫的人當場標一次。成本:每個檔案多打 1 行 frontmatter。 回報:3 個月後你的 sync 不會把過期 sprint summary 推到永久知識庫。
原則 2:每個 entity class 一個 canonical authority,沒有 dual source of truth
這條是用學費換來的。
2026-04-05,bookkeeper 系統的「淨資產」同時有兩個寫入點——一個 Cloudflare Worker、一個 Google Apps Script——理論上同步,實際上 GAS 觸發排程慢半拍。週報跑出來淨資產差了 731 萬。
對應到 AI 知識管理:
- 「我這個專案的目標」這條資訊,只能存一個地方。
- 衍生系統(Heptabase 卡片、Google Sheet、blog 草稿)只能讀,不能寫回去。
HeptaBrain 的 sync skill 永遠是 single-direction(Memory → Heptabase)。Heptabase 卡片再怎麼編輯,都不會反向覆蓋 memory 檔。如果你想反過來,先在 memory 改完,再 sync。
衍生資料不是 source of truth,無論它長得多像。原則 3:每條 link 帶 relation_type、rationale、evidence,拒絕裸 wikilink
Zettelkasten 的失敗模式不是「連結太少」,是「連結太多但沒有資訊」。
裸 [[Card A]] 看似標了一個關係,實際上未來的你(或 AI)讀到時,完全不知道:
- 這是「支持」還是「反駁」?
- 強度多高?只是順帶提到,還是核心依據?
- 證據是什麼?哪個段落?
HeptaBrain 規定每條 AI 建議的 link 必須長這樣:
| 欄位 | 說明 |
|---|---|
| relation_type | supports / refutes / extends / contrasts / instantiates 之一 |
| rationale | 1-2 句說明為什麼成立 |
| evidence | 引用具體段落或外部來源 |
不符合的 link,sync skill 直接拒收。
成本:AI 多生 50 字。 回報:6 個月後你回看連結網路時,每條邊都還有意義。
原則 4:跨域 attractor mapping,不是隨機 collision
傳統的 semantic search 會抓「文字相似」的卡片。但跨領域的真正洞察通常文字不相似、底層結構相似。
HeptaBrain 的 Multi-Dimensional Analysis 強制 AI 把每張卡映射到使用者預先定義的「attractor」(吸引子)——例如「observation as intervention」、「latency vs accuracy tradeoff」、「centralization vs federation」。
於是當「個人疼痛追蹤」、「植入式感測器」、「災難復原」三張卡都映射到「observation itself is intervention」這個 attractor 時,AI 會主動建議跨域連結。
這條原則救出來的一個真實洞察:
病患每天記錄疼痛分數的動作本身,會降低疼痛強度——和植入式感測器持續測組織受力會改變組織恢復路徑、災難演習持續觀察會讓系統更韌性,是同一個 pattern。
這不是 fuzzy semantic match 找得出來的。是 attractor mapping 找出來的。
原則 5:AI 發現先進 journal,不直接生卡
讓 AI 直接寫進你的永久知識庫,是對你自己注意力預算最不負責的事情。
HeptaBrain 的 Zettel Walk skill 跑出來的 link 建議全部寫到一個 journal_walks/ 資料夾,每天累積。人在自己的 context 下,一鍵 promote 喜歡的進真正的卡片庫。
為什麼這條重要?
AI 一天可以提 30 條 link 建議,其中可能 2 條真的有洞察,28 條是文字相似的雜訊。如果這 30 條全部直接進你的卡片庫,6 個月後你的網路就被雜訊淹沒了。讓人當 gatekeeper,AI 當 scout。
AI 是 candidate generator,人是 ranker。原則 6(11 天 + 1 週後新加的):Code governance ≠ Institutional governance
LinkedIn 短文發布之後,又跑了一週的高密度應用。第二週發生一件事,逼我把這條補上。
我做了一個院內推廣的 QR 海報。所有 code-level review 都通過了:PHI 隔離、IDOR 防禦、跨院 institution-bounded、consent flow、auth、schema migration——/codex:review 跑了,Gemini + ChatGPT 並行 review 也跑了,三組沒人提出異議。
落地第一天被護理長擋下來。院規規定 QR 海報需要宣傳部蓋章。外科部主任以為是 FB 粉專推廣,不是學術專案。
Root cause:從沒人在 code ship 前檢查「這個 feature 要落地,醫院有哪些 formal/informal 治理機制會被觸發」。
從那次起,HeptaBrain 多一條 lens:institutional governance review。
| 層級 | 覆蓋範圍 | 工具 |
|---|---|---|
| Code governance | PHI、IDOR、auth、schema、合約相容 | Codex + Multi-AI(Gemini + ChatGPT) |
| Institutional governance | 審批鏈、實體物件規範、非正式守門員、政策先例、術語錯配 | institutional-governance-review lens |
兩層不可互相替代。只跑第一條 = 只繳一半學費。
這條原則跨域適用——金融 KYC 上線、政府 G2C 系統、企業 B2B 產品,都有自己的 institutional governance layer。「在高治理場域,AI 落地的第一阻力常常不是程式碼,而是人與規範。」
順便講三個底層紀律(不算原則,算學費)
寫上面這六條的過程中,還累積了三條更細的 review 紀律——它們是「執行原則的方法」,不是原則本身:
- Self-review per rev × per file:同一份 spec 改了三輪就要自審三次,前一輪外審不能覆蓋這一輪的新 fix。我自己同 session 內踩三次同個坑後,把這條 hard-code 進 hooks。
- Multi-AI parallel review:Codex 抓實作層 bug,Gemini + ChatGPT 抓系統契約(cross-tenant、IDOR、timing attack、write-compat)。兩種 reviewer 抓到的 bug 類型完全不同。
- Field rename ≠ additive:schema 改動的 self-review 不只檢查「新欄位有沒有加」,要同時檢查「舊欄位有沒有被拿掉」。否則舊 PWA 快取會拿到 hard 400。
這些紀律寫在 memory/feedback_*.md,是 HeptaBrain repo 裡 examples/memory/ 的範本之一。
架構:三層堆疊
如果你只看 HeptaBrain repo 的 README,會以為這是一個 sync 工具。其實它是一個三層架構的最底層:
| 層 | 名稱 | 做什麼 |
|---|---|---|
| L3 | Multi-Dimensional Analysis | 跨域 attractor mapping、跨域連結建議 |
| L2 | Strategic Review System | 多 lens 對同一份 artifact 做不同視角審查 |
| L1 | Cyberbrain(HeptaBrain Sync) | State/Knowledge 解耦、distillation、journal-first promotion |
L1 就是這次 open source 的部分。L2 + L3 預計累積 10+ reviews 後再決定釋出時機。
開源條款 + 邀請
- Specs / docs:CC BY 4.0
- Install scripts / 程式碼:MIT
- GitHub issue templates:port report(移植到其他工具)、spec critique(指出原則漏洞)、bug
如果你也在跑類似的 AI knowledge work,最有用的回饋方式是:
- Port report — 你把它移到別的工具(不是 Heptabase)跑得通,告訴我哪些原則 transferable、哪些只在 HB 成立
- Spec critique — 哪一條原則你不同意,為什麼
- 新原則 — 你跑了之後發現第 7 條,PR 上來
Repo: github.com/cutemo0953/heptabrain
結語
工具是表象,紀律是本體。
我這份 setup 之所以撐得住兩週的 daily dogfood,不是因為 Heptabase 多神奇、Claude Code 多強,是因為 6 條原則把「AI 寫得快但你整理不過來」這個結構性問題,外包給了規則本身。
如果你也在做 AI 輔助的知識工作——臨床研究、產品策略、法規論證——同一個瓶頸都會找上你:synthesis scales with discipline, copy-paste does not(綜合能力跟紀律成正比,跟複製貼上沒關係)。
問你一個問題:你的 AI 知識工作,現在最缺的是哪一條紀律?
本文是 LinkedIn 發文(暫定)的展開版。Repo
cutemo0953/heptabrain 釋出於 2026-04-21,本文補上釋出後第二週的新發現(原則 6)。