Blog/
||||||

HeptaBrain: Đóng gói kỷ luật thành code, không chỉ là công cụ

Hầu hết công cụ quản lý tri thức bằng AI thất bại không phải vì AI yếu, mà vì thiếu kỷ luật tách biệt trạng thái hiện tại khỏi tri thức đã kết tinh. HeptaBrain là phương pháp luận tôi mở mã nguồn sau 11 ngày tự dùng hằng ngày: 4 slash command, 3 dev spec, 6 nguyên tắc. Đây là bản dài đi kèm bài LinkedIn — kèm các kiểu thất bại cụ thể và nguyên tắc thứ 6 thêm vào sau tuần thứ hai.

Nếu bạn từng dùng AI để viết liên tục hơn mười ngày, bạn sẽ quen với cảnh tượng này:

Hai trăm file markdown. Mỗi tiêu đề đều ghi "kết luận quan trọng". Wikilink khắp nơi, nhưng mỗi link lại dẫn đến một trạm trung chuyển 200 chữ khác. Sau hai tuần, bạn nhận ra mình đã tái tạo cùng một insight ba lần, ở ba file khác nhau, không file nào là bản chính thức.

Đây không phải lỗi viết của AI. AI viết nhanh hơn tốc độ kỷ luật của bạn có thể tiêu hoá.

Tôi chạy Claude Code + Heptabase làm dogfood hằng ngày trong 11 ngày, sau đó chưng cất kỷ luật thành 4 slash command, 3 dev spec, và mở mã nguồn dưới tên cutemo0953/heptabrain. Cấu trúc repo chỉ là phần phụ. Sáu nguyên tắc bên dưới mới là điểm chính.


Vì sao công việc tri thức với AI sụp đổ

Kiểu sụp đổ luôn giống nhau: trạng thái hiện tại và tri thức đã kết tinh bị trộn vào nhau.

  • "Tôi đang debug vấn đề này và nguyên nhân gốc là X" ← trạng thái (hết hạn sau hai tuần)
  • "Loại vấn đề này luôn quy về việc ranh giới không rõ ràng" ← tri thức (hai năm sau vẫn đúng)

Khi bị trộn, mọi file đều trông như tri thức kết tinh, nhưng 80% là ảnh chụp tạm thời gắn với một sprint. AI lúc đó sẽ gợi ý lại trạng thái cũ như thể đó là tri thức, và zettelkasten của bạn biến thành một bể nhiễu entropy cao.

HeptaBrain chỉ có một nước đi cốt lõi: đặt hai loại nội dung này vào hai hệ thống khác nhau, và buộc chúng chỉ giao tiếp qua chưng cất.

  • Claude Code Memory = trạng thái hiện tại (vài ngày tới vài tuần)
  • Heptabase = tri thức đã kết tinh (lâu dài)
  • Một sync skill ở giữa, chỉ truyền nguyên lý cốt lõi đã được chưng cất, không bao giờ chuyển khối nội dung lớn

Đơn giản. Phần phức tạp nằm ở sáu nguyên tắc dưới đây.


Nguyên tắc 1: Tách trạng thái và tri thức bằng frontmatter, không bằng phỏng đoán

Mỗi file memory khai báo canonicality: state hoặc canonicality: knowledge trong YAML frontmatter. Sync skill chỉ đọc trường đó — không bao giờ đọc tên file, không bao giờ đoán theo từ khoá nội dung.

Vì sao điều này quan trọng:

Phỏng đoán ("nếu chứa từ 'kết luận' hay 'nguyên tắc' thì coi là knowledge") sẽ thất bại vào tuần thứ ba, vì file trạng thái cũng dùng những từ đó. Phán đoán của LLM thất bại ngẫu nhiên khi token budget bị siết.

Thứ duy nhất trụ vững dài hạn là: người viết đánh dấu một lần, ngay lúc tạo file.

Chi phí: thêm một dòng frontmatter. Lợi ích: ba tháng sau, sync sẽ không đẩy bản tóm tắt sprint cũ lên kho tri thức vĩnh cửu.


Nguyên tắc 2: Mỗi loại thực thể chỉ có duy nhất một nguồn quyền uy — không có dual source of truth

Bài học này tôi đã trả học phí.

Ngày 2026-04-05, hệ thống sổ sách của tôi có hai đường ghi đồng thời vào "tài sản ròng" — một Cloudflare Worker và một Google Apps Script. Lẽ ra chúng phải đồng bộ. Chúng lệch nhau. Báo cáo tuần trở về cho thấy tài sản ròng sai lệch NT$7.31M.

Chuyển sang công việc tri thức với AI:

  • "Mục tiêu của dự án này là gì" sống ở đúng một nơi.
  • Hệ thống phái sinh (thẻ Heptabase, Google Sheets, bản nháp blog) chỉ đọc. Không bao giờ ghi ngược lại.

Sync skill của HeptaBrain chỉ đi một chiều nghiêm ngặt (Memory → Heptabase). Bạn có sửa thẻ Heptabase nhiều cỡ nào, nó cũng không ghi đè lên file memory. Nếu muốn thay đổi giữ lại được, sửa file memory trước, rồi mới sync.

Dữ liệu phái sinh không phải là source of truth, dù trông giống đến đâu.


Nguyên tắc 3: Mỗi link phải có relation_type, rationale, và evidence — wikilink trần bị từ chối

Thất bại của zettelkasten không phải "quá ít link". Nó là "quá nhiều link không mang thông tin".

Một [[Card A]] trần trông như một chú thích. Với bạn-trong-tương-lai (hoặc một AI), nó không nói gì:

  • Card A ủng hộ hay phản bác luận điểm này?
  • Liên kết mạnh hay chỉ là nhắc thoáng qua?
  • Bằng chứng ở đâu? Đoạn nào?

HeptaBrain bắt buộc mọi link do AI đề xuất phải mang theo:

TrườngMô tả
relation_typeMột trong: supports / refutes / extends / contrasts / instantiates
rationaleMột hoặc hai câu giải thích vì sao quan hệ này thành lập
evidenceTham chiếu đoạn cụ thể hoặc trích dẫn ngoài

Link thiếu bất kỳ trường nào sẽ bị sync skill từ chối.

Chi phí: AI sinh thêm khoảng 50 chữ cho mỗi link. Lợi ích: sáu tháng sau, mỗi cạnh trong link graph của bạn vẫn còn ý nghĩa.


Nguyên tắc 4: Ánh xạ attractor xuyên domain, không phải va chạm ngẫu nhiên

Semantic search thông thường lấy ra các thẻ có văn bản tương tự. Nhưng insight xuyên domain thường có bề mặt văn bản khác nhau, cấu trúc sâu giống nhau.

Lớp Multi-Dimensional Analysis của HeptaBrain buộc AI ánh xạ mỗi thẻ vào một "attractor" do người dùng định nghĩa — các khái niệm như quan sát chính là can thiệp, đánh đổi giữa độ trễ và độ chính xác, tập trung hoá so với liên bang hoá.

Vì vậy, khi "ghi nhật ký đau cá nhân", "cảm biến cấy ghép" và "diễn tập phục hồi thảm hoạ" cùng ánh xạ tới attractor quan sát chính là can thiệp, AI sẽ chủ động đề xuất link xuyên domain.

Một insight thật xuất hiện theo cách này:

Hành động một bệnh nhân tự ghi điểm đau hằng ngày sẽ làm giảm cường độ đau. Hành động một cảm biến cấy ghép liên tục đo tải mô sẽ thay đổi quỹ đạo phục hồi của mô. Hành động chạy diễn tập thảm hoạ làm hệ thống bền bỉ hơn. Cùng một mẫu hình.

Semantic search mơ hồ sẽ không bao giờ tìm ra điều đó. Ánh xạ attractor làm được.


Nguyên tắc 5: AI khám phá đáp xuống journal trước, không phải thẳng vào thẻ

Cho phép AI viết thẳng vào kho tri thức vĩnh cửu của bạn là điều vô trách nhiệm nhất bạn có thể làm với ngân sách chú ý của bản thân trong tương lai.

Skill Zettel Walk ghi mọi gợi ý link vào thư mục journal_walks/, tích luỹ hằng ngày. Con người, trong ngữ cảnh của chính mình, nâng những gợi ý tốt vào kho thẻ thật bằng một cú click.

Vì sao điều này quan trọng:

Trong một ngày, AI có thể đề xuất 30 link tiềm năng. Có lẽ chỉ 2 là insight thật. 28 cái còn lại là nhiễu giống văn bản. Nếu cả 30 đều rơi vào kho thẻ, sáu tháng sau mạng lưới của bạn bị chôn vùi.

AI là máy sinh ứng viên. Con người là người xếp hạng.


Nguyên tắc 6 (thêm vào tuần 2): Code governance ≠ Institutional governance

Sau khi launch trên LinkedIn, tôi tiếp tục một tuần dùng cường độ cao. Chuyện xảy ra trong tuần 2 buộc tôi thêm nguyên tắc này.

Tôi làm một poster QR trong bệnh viện cho một quy trình lâm sàng. Mọi review ở mức code đều pass: cô lập PHI, phòng IDOR, query bị giới hạn theo institution, luồng consent, auth, schema migration. /codex:review đã chạy. Gemini + ChatGPT review inline-diff song song. Ba reviewer không tìm thấy vấn đề nào.

Ngày triển khai đầu tiên, y tá trưởng chặn lại ngay tại chỗ. Quy định bệnh viện: bất kỳ poster QR nào đều cần được phòng PR đóng dấu. Trưởng khoa chấn thương chỉnh hình lại tưởng đây là quảng bá fanpage Facebook, không phải một dự án học thuật.

Nguyên nhân gốc: trước khi ship code, không ai hỏi "khi tính năng này được đưa vật lý vào bệnh viện, các cơ chế quản trị chính thức/phi chính thức nào sẽ được kích hoạt?"

Sau đó, HeptaBrain thêm một lăng kính mới: institutional governance review.

LớpPhạm viCông cụ
Code governancePHI, IDOR, auth, schema, tương thích contractCodex + Multi-AI (Gemini + ChatGPT)
Institutional governanceChuỗi phê duyệt, chính sách về vật thể vật lý, gatekeeper phi chính thức, tiền lệ chính sách, lệch từ vựnginstitutional-governance-review lens

Hai lớp này không thể thay thế cho nhau. Chỉ chạy lớp đầu = mới trả nửa học phí.

Điều này tổng quát hoá ra ngoài y tế — triển khai KYC tài chính, hệ thống G2C của chính phủ, sản phẩm B2B doanh nghiệp đều có lớp institutional governance riêng. Trong các domain có quản trị chặt, rào cản đầu tiên cho việc triển khai AI thường không phải code, mà là con người và quy ước.


Ba kỷ luật phụ (những dòng học phí)

Trong lúc soạn sáu nguyên tắc trên, tôi tích luỹ thêm ba kỷ luật review tinh hơn. Chúng là cách thực thi các nguyên tắc, không phải nguyên tắc:

  • Self-review per rev × per file: một spec sửa ba lần thì cần ba lần self-review. Lần review bên ngoài trước đó không bao trùm các fix mới của rev này. Sau khi vấp ba lần trong cùng một session, tôi đã hard-code nó vào hooks.
  • Multi-AI parallel review: Codex bắt bug implementation. Gemini + ChatGPT bắt vi phạm contract (cross-tenant, IDOR, timing attack, vỡ write-compat). Hai loại reviewer bắt hai lớp bug hoàn toàn khác nhau.
  • Field rename ≠ additive: khi schema thay đổi, self-review phải kiểm tra cả "field mới được thêm" và "field cũ đã bị bỏ". Nếu không, cache PWA cũ sẽ ăn 400 cứng.

Chúng nằm trong memory/feedback_*.md, một trong các template được kèm theo trong examples/memory/.


Kiến trúc: stack ba lớp

Nếu bạn chỉ đọc README của HeptaBrain, có thể bạn nghĩ đây là một công cụ sync. Nó là lớp thấp nhất của một stack ba lớp:

LớpTênVai trò
L3Multi-Dimensional AnalysisÁnh xạ attractor xuyên domain, gợi ý link xuyên domain
L2Strategic Review SystemNhiều lăng kính trên cùng một artifact, mỗi lăng kính một góc khác
L1Cyberbrain (HeptaBrain Sync)Tách trạng thái/tri thức, chưng cất, journal-first promotion

L1 là phần được mở mã nguồn hôm nay. L2 + L3 sẽ theo sau khi tích luỹ đủ 10+ review để xác thực phương pháp luận.


Giấy phép + lời mời

  • Spec / docs: CC BY 4.0
  • Script cài đặt / code: MIT
  • GitHub issue templates: port report (chuyển sang công cụ khác), spec critique (chỗ bạn không đồng ý với một nguyên tắc), bug

Nếu bạn cũng làm công việc tri thức với AI, các phản hồi hữu ích nhất bạn có thể gửi:

  1. Port report — bạn chuyển sang một công cụ khác (không phải Heptabase), cho tôi biết nguyên tắc nào chuyển được và nguyên tắc nào gắn riêng với HB
  2. Spec critique — nguyên tắc nào bạn không đồng ý, và vì sao
  3. Nguyên tắc mới — sau khi chạy thử, bạn phát hiện nguyên tắc thứ 7. Gửi PR.

Repo: github.com/cutemo0953/heptabrain


Lời kết

Công cụ là bề mặt. Kỷ luật là bản chất.

Bộ setup này sống sót qua hai tuần dogfood hằng ngày không phải vì Heptabase có phép thuật, không phải vì Claude Code mạnh — mà vì sáu nguyên tắc đã chuyển bài toán cấu trúc ("AI viết nhanh hơn tốc độ tôi có thể curate") sang chính các luật chơi.

Nếu bạn làm công việc tri thức có AI hỗ trợ — nghiên cứu lâm sàng, chiến lược sản phẩm, lập luận pháp lý — cùng một nút thắt đang chờ bạn. Tổng hợp scale theo kỷ luật. Copy-paste thì không.

Một câu hỏi cho bạn: kỷ luật nào mà công việc tri thức có AI hỗ trợ của bạn cần, nhưng vẫn chưa có?


Đây là phiên bản dài đi kèm bài launch trên LinkedIn (sẽ cập nhật). Repo cutemo0953/heptabrain được công khai vào 2026-04-21; bài viết này bổ sung khám phá tuần 2 (Nguyên tắc 6).