Blog/
||||||

HeptaBrain:ツールではなく「規律」をコードとして出荷する

AIによるナレッジ管理ツールが破綻するのは、AIが弱いからではなく、現在の状態と結晶化された知識を分離する規律が欠けているからです。HeptaBrainは私が11日間のドッグフーディングを経てオープンソース化した方法論です。Claude Codeの4つのスラッシュコマンド、3つのdev spec、6つの原則。LinkedIn公開記事の長尺版として、各原則の具体的な失敗モードと、第2週に追加した第6原則を解説します。

AIで10日以上にわたって何かを書き続けたことがある方なら、この光景に見覚えがあるはずです。

200個のmarkdownファイル。どのヘッダーにも「重要な結論」と書かれています。wikilinkは至るところに張られていますが、その先にあるのはまた別の200語の中継ステーション。2週間後、あなたは同じ洞察を3つの異なるファイルで3回再生成していたことに気づきます。どれが正典なのかは、誰にも分かりません。

これはAIの文章力の問題ではありません。AIはあなたの規律が吸収できる速度よりも速く書くのです。

私はClaude Code + Heptabaseを11日間ドッグフーディングで使い続け、その規律を4つのスラッシュコマンドと3つのdev specに蒸留し、cutemo0953/heptabrain としてオープンソース化しました。リポジトリの構造は表層にすぎません。本質はその下にある6つの原則です。


なぜAIによるナレッジワークは崩壊するのか

崩壊のパターンはいつも同じです。現在の状態と結晶化された知識が混ざり合うのです。

  • 「いまこのバグを調査していて、根本原因はXである」← 状態(2週間で消費期限切れ)
  • 「この種の問題は常に境界の不明確さに起因する」← 知識(2年後でも真)

混ざってしまうと、すべてのファイルが結晶化された知識のように見えますが、その8割はスプリント単位のスナップショットです。AIはやがて古い状態を知識として推奨し始め、あなたのzettelkastenは高エントロピーのノイズプールへと変わっていきます。

HeptaBrainのコアな動きはたった一つ。この2種類のコンテンツを別々のシステムに置き、両者の通信は「蒸留」を介してのみ行わせることです。

  • Claude Code Memory = 現在の状態(数日から数週間)
  • Heptabase = 結晶化された知識(恒久)
  • 中間にあるsync skillは、蒸留されたコア原則のみを移動させ、本文を一括で運ばない

シンプルです。悪魔は以下の6つの原則の細部に宿ります。


原則1:状態と知識はヒューリスティックではなく、frontmatterで分離する

すべてのメモリファイルはYAML frontmatterで canonicality: state または canonicality: knowledge を宣言します。sync skillはそのフィールドだけを読みます。ファイル名でも、コンテンツのキーワードでもありません。

なぜ重要か。

ヒューリスティック(「『結論』や『原則』という語が含まれていれば知識として扱う」)は3週目で破綻します。状態ファイルも普通にそうした語を使うからです。LLMの判断はトークン予算が逼迫するとランダムに失敗します。

長期で持ちこたえる唯一の方法は、書き手が作成時に一度だけマークしておくことです。

コスト:frontmatterに1行追加するだけ。 リターン:3か月後、syncが古いスプリントサマリを恒久ボルトに昇格させなくなること。


原則2:エンティティ単位で正典は1つだけ — 二重のsource of truthを禁止する

これは私が授業料を払って学んだ原則です。

2026-04-05、私の家計簿システムには「純資産」への書き込みパスが2つ並走していました。Cloudflare WorkerとGoogle Apps Scriptです。両者は同期しているはずでした。実際にはドリフトしました。週次レポートで純資産が731万NTドルもズレて出力されたのです。

これをAIナレッジワークに翻訳すると:

  • 「このプロジェクトの目的は何か」は1か所だけに存在する。
  • 派生システム(Heptabaseカード、Google Sheets、ブログ下書き)はread onlyで、絶対に書き戻さない。

HeptaBrainのsync skillは厳密に単方向です(Memory → Heptabase)。Heptabaseのカードをどれだけ編集しても、メモリファイルを上書きすることはありません。変更を残したいなら、まずメモリを編集し、それからsyncする。

派生データは、どれほどそれらしく見えてもsource of truthではありません。

原則3:すべてのリンクは relation_type、rationale、evidence を持つ — 裸のwikilinkは拒否する

zettelkastenの失敗は「リンクが少なすぎる」ではありません。「情報を運ばないリンクが多すぎる」のです。

裸の [[Card A]] は注釈のように見えます。しかし未来のあなた(あるいはAI)にとっては、何の情報も提供しません。

  • Card Aはこの主張を支持するのか、反論するのか。
  • 強いリンクなのか、それとも軽い言及にすぎないのか。
  • エビデンスは何か。どの段落にあるのか。

HeptaBrainでは、AIが提案するすべてのリンクに以下を必須としています:

フィールド説明
relation_typesupports / refutes / extends / contrasts / instantiates のいずれか
rationaleその関係が成立する理由を1〜2文で
evidence具体的な段落への参照、または外部citation

いずれかが欠けたリンクはsync skillが拒否します。

コスト:AIが1リンクあたり50語ほど多く生成する。 リターン:6か月後、リンクグラフのすべてのエッジが意味を保持し続けること。


原則4:ランダムな衝突ではなく、クロスドメインのアトラクター・マッピング

通常のセマンティック検索は、テキストが類似したカードを取り出します。しかしクロスドメインの洞察は通常、表層テキストは異なるが、深層構造は類似している領域に潜んでいます。

HeptaBrainのMulti-Dimensional Analysis層は、すべてのカードをユーザーが定義したアトラクターへマッピングするようAIに強制します。たとえば、観測こそが介入であるレイテンシ vs 精度のトレードオフ中央集権 vs フェデレーションといった概念です。

すると「個人の疼痛トラッキング」「埋込型センサー」「災害復旧訓練」のすべてが観測こそが介入であるというアトラクターにマッピングされたとき、AIは能動的にクロスドメインのリンクを提案します。

実際にこの方法で浮上した洞察を一つ:

患者が日々の疼痛スコアを自ら記録するという行為は、疼痛強度そのものを下げる。埋込型センサーが組織への荷重を継続的に測定するという行為は、組織の回復軌跡を変える。災害復旧訓練を実施するという行為は、システムをよりレジリエントにする。同じパターンである。

ファジーなセマンティック検索ではこれは見つかりません。アトラクター・マッピングだから見つかったのです。


原則5:AIが発見したものは、まずjournalに着地する。カードに直接書き込まない

AIにあなたの恒久ナレッジベースへ直接書き込ませることは、未来の自分の注意予算に対してできる最も無責任な行為です。

Zettel Walk skillは、すべてのリンク提案を journal_walks/ フォルダに書き出し、日次で蓄積していきます。人間は自分の文脈で良いものを選び、ワンクリックで本物のカードボルトに昇格させるのです。

なぜ重要か。

1日で、AIは30件のリンク候補を提案できます。そのうち本物の洞察は2件ほどでしょう。残りの28件はテキスト類似のノイズです。30件すべてがカードボルトに着地すれば、半年後にはネットワークが埋もれます。

AIは候補生成器、人間はランカー。

原則6(第2週に追加):コードガバナンス ≠ 制度ガバナンス

LinkedInで公開した後、もう1週間ぶんの高密度な実運用を行いました。第2週にあった出来事が、この原則の追加を強制したのです。

私は院内向けに臨床ワークフローのロールアウト用QRポスターを作りました。コードレベルのレビューはすべてパスしました。PHIの隔離、IDOR防御、institution-bounded query、同意フロー、認証、schema migration。/codex:review も走らせました。Gemini + ChatGPTのinline diff reviewも並行で走らせました。3人のレビュワーは何も見つけませんでした。

ロールアウト初日、看護師長がこれを即座に止めました。院内ポリシー:QRポスターは広報部のスタンプが必須。整形外科の科主任は、これがFacebookファンページの宣伝物であって学術プロジェクトではないと誤認していました。

根本原因:コードを出荷する前に「この機能が物理的に院内に着地したとき、どんな公式・非公式のガバナンス機構がトリガーされるのか」を誰も問わなかったこと。

そののち、HeptaBrainには新しいレンズが追加されました。institutional governance reviewです。

レイヤーカバレッジツール
Code governancePHI、IDOR、認証、schema、契約互換性Codex + Multi-AI(Gemini + ChatGPT)
Institutional governance承認チェーン、物理オブジェクトに関するポリシー、非公式のゲートキーパー、ポリシー先例、語彙のミスマッチinstitutional-governance-review レンズ

この2層は互いを代替しません。前者だけを実行している = 授業料の半分しか払っていない、ということです。

これは医療業界に限った話ではありません。金融KYCのロールアウト、政府G2Cシステム、企業のB2B製品にも、それぞれの制度ガバナンス層があります。ガバナンスが厳しい領域では、AIデプロイメントの最初の障壁はたいていコードではなく、人と規範です。


3つのサブ規律(授業料の明細)

上記6原則を起草する過程で、3つのより細かなレビュー規律が蓄積されました。これらは原則そのものではなく、原則をどう実行するかの作法です:

  • self-review per rev × per file:3回改訂したspecには3回のself-reviewが要る。前回の外部レビューは、今回の修正をカバーしない。同じセッション内で3回踏み抜いてから、hookに固定化しました。
  • Multi-AI parallel review:Codexは実装バグを捕まえる。Gemini + ChatGPTは契約違反(クロステナント、IDOR、タイミング攻撃、write-compat破壊)を捕まえる。レビュワーの種類が違うと、捕まえるバグのクラスがまったく異なる。
  • Field rename ≠ additive:schemaを変更するとき、self-reviewは「新フィールド追加」と「旧フィールド削除」の両方をチェックしなければならない。さもないと旧PWAキャッシュが400で死ぬ。

これらは memory/feedback_*.md に格納されており、examples/memory/ で出荷されているテンプレートの一つです。


アーキテクチャ:3層スタック

HeptaBrainのREADMEだけを読むと、これがsyncツールに見えるかもしれません。実際にはこれは3層スタックの最下層です:

レイヤー名称役割
L3Multi-Dimensional Analysisクロスドメインのアトラクター・マッピング、領域横断のリンク提案
L2Strategic Review System同じ成果物に複数のレンズを当て、それぞれ異なる角度から審査
L1Cyberbrain(HeptaBrain Sync)状態/知識の分離、蒸留、journal-firstの昇格フロー

今日オープンソースになっているのはL1です。L2 + L3は、10件以上のレビュー実績で方法論が検証されたのちに追従公開されます。


ライセンスとお誘い

  • spec / docs:CC BY 4.0
  • install scripts / コード:MIT
  • GitHub issue templates:port report(他ツールへの移植報告)、spec critique(原則への反対意見)、bug

あなたもAIナレッジワークを実践しているなら、最も価値のあるフィードバックは以下です:

  1. Port report — Heptabase以外のツールに移植したなら、どの原則が転用でき、どれがHB固有だったかを教えてください
  2. Spec critique — どの原則に反対か、その理由は何か
  3. 新しい原則 — 運用してみて第7の原則を発見したら、PRを送ってください

Repo: github.com/cutemo0953/heptabrain


結び

ツールは表層、規律は本質です。

このセットアップが2週間の日次ドッグフーディングに耐えたのは、Heptabaseが魔法だからでも、Claude Codeが強力だからでもありません。「AIは私がキュレートできる速度より速く書く」という構造的問題を、6つの原則がルール側にアウトソーシングしたからです。

AI支援のナレッジワーク(臨床研究、プロダクト戦略、規制対応の議論など)に取り組んでいるなら、同じボトルネックがあなたを待っています。合成は規律と共にスケールする。コピー&ペーストはスケールしない。

最後に問いを一つ。あなたのAI支援ナレッジワークが必要としているのに、まだ獲得していない規律は何でしょうか。


本記事はLinkedIn公開投稿(TBD)の長尺版コンパニオンです。cutemo0953/heptabrain リポジトリは2026-04-21に公開されました。本記事はそこに第2週で得た第6原則の発見を加えたものです。