Blog/
||||||

HeptaBrain:把 AI 知識管理的紀律寫成程式碼

大多數 AI 知識管理工具失敗,不是 AI 不夠強,是缺少把『當下狀態』和『結晶知識』分開的紀律。HeptaBrain 是我跑了 11 天個人 dogfood 後開源的方法論:4 個 Claude Code slash commands、3 份 spec、6 條紀律。這篇展開 LinkedIn 短文沒講完的地方——每條紀律的真實場景、為什麼會崩盤、以及第二週後我又補上的第 6 條治理紀律。

如果你最近用 AI 寫過超過十天的東西,大概都遇過這個畫面:

筆記資料夾裡躺了 200 個 markdown,每個檔頭都寫著「重要結論」。連結密密麻麻,但點進去常常只是另一個 200 字的中繼站。再過兩週,你會發現自己重複生成同一個觀點三次,分別在三個檔案裡,沒有任何一個是 canonical。

這不是 AI 寫太爛。是寫的速度遠超過你整理的紀律

我用 Claude Code + Heptabase 跑了 11 天 daily dogfood,把這份紀律收斂成 4 個 slash commands、3 份 dev spec,open-source 到 cutemo0953/heptabrain。Repo 結構不重要,底下的 6 條原則才是。


為什麼 AI 知識工作會崩盤

崩盤的原因永遠是同一個:「當下狀態」和「結晶知識」混在一起

  • 「我今天 debug 到一半,這個 bug 的 root cause 是 X」 ← 當下狀態(兩週後過期)
  • 「同類問題的 root cause 都會是『boundary 沒寫清楚』」 ← 結晶知識(兩年後仍成立)

混在一起時,你打開筆記庫,每個檔案都長得像「結晶」,但其實 80% 是在某個 sprint 才有意義的 snapshot。AI 找連結時,它會把過期的 state 當作 knowledge 推薦,於是你的 zettelkasten 變成一個高熵的雜訊池。

HeptaBrain 的核心動作只有一個:把這兩種東西放到不同系統裡,並強制它們只能透過「蒸餾」溝通。

  • Claude Code Memory = 當下狀態(天到週)
  • Heptabase = 結晶知識(永久)
  • 中間一個 sync skill:每次只搬「蒸餾後的核心原則」,不搬全文

夠簡單。但魔鬼在底下 6 條紀律。


原則 1:State 和 Knowledge 在 frontmatter 裡解耦,不靠啟發式

每個 memory file 的 YAML frontmatter 強制標 canonicality: statecanonicality: knowledge。Sync skill 看的是這個欄位,不是檔名、不是內容關鍵字。

為什麼這條重要?

啟發式(看到「結論」「原則」就當 knowledge)會在第三週開始失效——因為你寫 state 文件時,自然也會寫「結論」「原則」。靠 LLM 判斷則會在 token 用完時隨機翻車。

唯一可長期維持的是:寫的人當場標一次。

成本:每個檔案多打 1 行 frontmatter。 回報:3 個月後你的 sync 不會把過期 sprint summary 推到永久知識庫。


原則 2:每個 entity class 一個 canonical authority,沒有 dual source of truth

這條是用學費換來的。

2026-04-05,bookkeeper 系統的「淨資產」同時有兩個寫入點——一個 Cloudflare Worker、一個 Google Apps Script——理論上同步,實際上 GAS 觸發排程慢半拍。週報跑出來淨資產差了 731 萬。

對應到 AI 知識管理:

  • 「我這個專案的目標」這條資訊,只能存一個地方
  • 衍生系統(Heptabase 卡片、Google Sheet、blog 草稿)只能讀,不能寫回去。

HeptaBrain 的 sync skill 永遠是 single-direction(Memory → Heptabase)。Heptabase 卡片再怎麼編輯,都不會反向覆蓋 memory 檔。如果你想反過來,先在 memory 改完,再 sync。

衍生資料不是 source of truth,無論它長得多像。

原則 3:每條 link 帶 relation_type、rationale、evidence,拒絕裸 wikilink

Zettelkasten 的失敗模式不是「連結太少」,是「連結太多但沒有資訊」。

[[Card A]] 看似標了一個關係,實際上未來的你(或 AI)讀到時,完全不知道:

  • 這是「支持」還是「反駁」?
  • 強度多高?只是順帶提到,還是核心依據?
  • 證據是什麼?哪個段落?

HeptaBrain 規定每條 AI 建議的 link 必須長這樣:

欄位說明
relation_typesupports / refutes / extends / contrasts / instantiates 之一
rationale1-2 句說明為什麼成立
evidence引用具體段落或外部來源

不符合的 link,sync skill 直接拒收。

成本:AI 多生 50 字。 回報:6 個月後你回看連結網路時,每條邊都還有意義。


原則 4:跨域 attractor mapping,不是隨機 collision

傳統的 semantic search 會抓「文字相似」的卡片。但跨領域的真正洞察通常文字不相似、底層結構相似

HeptaBrain 的 Multi-Dimensional Analysis 強制 AI 把每張卡映射到使用者預先定義的「attractor」(吸引子)——例如「observation as intervention」、「latency vs accuracy tradeoff」、「centralization vs federation」。

於是當「個人疼痛追蹤」、「植入式感測器」、「災難復原」三張卡都映射到「observation itself is intervention」這個 attractor 時,AI 會主動建議跨域連結。

這條原則救出來的一個真實洞察:

病患每天記錄疼痛分數的動作本身,會降低疼痛強度——和植入式感測器持續測組織受力會改變組織恢復路徑、災難演習持續觀察會讓系統更韌性,是同一個 pattern。

這不是 fuzzy semantic match 找得出來的。是 attractor mapping 找出來的。


原則 5:AI 發現先進 journal,不直接生卡

讓 AI 直接寫進你的永久知識庫,是對你自己注意力預算最不負責的事情。

HeptaBrain 的 Zettel Walk skill 跑出來的 link 建議全部寫到一個 journal_walks/ 資料夾,每天累積。人在自己的 context 下,一鍵 promote 喜歡的進真正的卡片庫。

為什麼這條重要?

AI 一天可以提 30 條 link 建議,其中可能 2 條真的有洞察,28 條是文字相似的雜訊。如果這 30 條全部直接進你的卡片庫,6 個月後你的網路就被雜訊淹沒了。讓人當 gatekeeper,AI 當 scout。

AI 是 candidate generator,人是 ranker。

原則 6(11 天 + 1 週後新加的):Code governance ≠ Institutional governance

LinkedIn 短文發布之後,又跑了一週的高密度應用。第二週發生一件事,逼我把這條補上。

我做了一個院內推廣的 QR 海報。所有 code-level review 都通過了:PHI 隔離、IDOR 防禦、跨院 institution-bounded、consent flow、auth、schema migration——/codex:review 跑了,Gemini + ChatGPT 並行 review 也跑了,三組沒人提出異議。

落地第一天被護理長擋下來。院規規定 QR 海報需要宣傳部蓋章。外科部主任以為是 FB 粉專推廣,不是學術專案。

Root cause:從沒人在 code ship 前檢查「這個 feature 要落地,醫院有哪些 formal/informal 治理機制會被觸發」。

從那次起,HeptaBrain 多一條 lens:institutional governance review

層級覆蓋範圍工具
Code governancePHI、IDOR、auth、schema、合約相容Codex + Multi-AI(Gemini + ChatGPT)
Institutional governance審批鏈、實體物件規範、非正式守門員、政策先例、術語錯配institutional-governance-review lens

兩層不可互相替代。只跑第一條 = 只繳一半學費。

這條原則跨域適用——金融 KYC 上線、政府 G2C 系統、企業 B2B 產品,都有自己的 institutional governance layer。「在高治理場域,AI 落地的第一阻力常常不是程式碼,而是人與規範。」


順便講三個底層紀律(不算原則,算學費)

寫上面這六條的過程中,還累積了三條更細的 review 紀律——它們是「執行原則的方法」,不是原則本身:

  • Self-review per rev × per file:同一份 spec 改了三輪就要自審三次,前一輪外審不能覆蓋這一輪的新 fix。我自己同 session 內踩三次同個坑後,把這條 hard-code 進 hooks。
  • Multi-AI parallel review:Codex 抓實作層 bug,Gemini + ChatGPT 抓系統契約(cross-tenant、IDOR、timing attack、write-compat)。兩種 reviewer 抓到的 bug 類型完全不同。
  • Field rename ≠ additive:schema 改動的 self-review 不只檢查「新欄位有沒有加」,要同時檢查「舊欄位有沒有被拿掉」。否則舊 PWA 快取會拿到 hard 400。

這些紀律寫在 memory/feedback_*.md,是 HeptaBrain repo 裡 examples/memory/ 的範本之一。


架構:三層堆疊

如果你只看 HeptaBrain repo 的 README,會以為這是一個 sync 工具。其實它是一個三層架構的最底層:

名稱做什麼
L3Multi-Dimensional Analysis跨域 attractor mapping、跨域連結建議
L2Strategic Review System多 lens 對同一份 artifact 做不同視角審查
L1Cyberbrain(HeptaBrain Sync)State/Knowledge 解耦、distillation、journal-first promotion

L1 就是這次 open source 的部分。L2 + L3 預計累積 10+ reviews 後再決定釋出時機。


開源條款 + 邀請

  • Specs / docs:CC BY 4.0
  • Install scripts / 程式碼:MIT
  • GitHub issue templates:port report(移植到其他工具)、spec critique(指出原則漏洞)、bug

如果你也在跑類似的 AI knowledge work,最有用的回饋方式是:

  1. Port report — 你把它移到別的工具(不是 Heptabase)跑得通,告訴我哪些原則 transferable、哪些只在 HB 成立
  2. Spec critique — 哪一條原則你不同意,為什麼
  3. 新原則 — 你跑了之後發現第 7 條,PR 上來

Repo: github.com/cutemo0953/heptabrain


結語

工具是表象,紀律是本體。

我這份 setup 之所以撐得住兩週的 daily dogfood,不是因為 Heptabase 多神奇、Claude Code 多強,是因為 6 條原則把「AI 寫得快但你整理不過來」這個結構性問題,外包給了規則本身。

如果你也在做 AI 輔助的知識工作——臨床研究、產品策略、法規論證——同一個瓶頸都會找上你:synthesis scales with discipline, copy-paste does not(綜合能力跟紀律成正比,跟複製貼上沒關係)

問你一個問題:你的 AI 知識工作,現在最缺的是哪一條紀律?


本文是 LinkedIn 發文(暫定)的展開版。Repo cutemo0953/heptabrain 釋出於 2026-04-21,本文補上釋出後第二週的新發現(原則 6)。