Blog/
||||||

HeptaBrain: Mengirim Disiplin sebagai Code, Bukan Sekadar Tool

Sebagian besar tool AI knowledge management gagal bukan karena AI-nya lemah, melainkan karena tidak ada disiplin untuk memisahkan current state dari pengetahuan yang sudah mengkristal. HeptaBrain adalah metodologi yang saya open-source setelah 11 hari dogfood harian: 4 slash command Claude Code, 3 dev spec, 6 prinsip. Ini versi panjang di balik peluncuran LinkedIn — failure mode konkret untuk tiap prinsip, plus prinsip ke-6 soal governance yang saya tambahkan setelah minggu kedua.

Kalau kamu sudah memakai AI untuk menulis apa pun lebih dari sepuluh hari, pemandangan ini pasti familiar:

Dua ratus file markdown. Tiap header berbunyi "kesimpulan penting". Wikilink di mana-mana, tetapi tiap link cuma membawa kita ke stasiun transit lain berisi 200 kata. Dua minggu berlalu, kamu sadar bahwa insight yang sama sudah kamu hasilkan tiga kali, di tiga file berbeda, dan tidak ada satu pun yang berstatus kanonik.

Ini bukan soal AI yang jelek menulis. AI menulis lebih cepat daripada disiplin kamu mampu menyerap.

Saya menjalankan Claude Code + Heptabase sebagai dogfood harian selama 11 hari, lalu mendistilasi disiplinnya menjadi 4 slash command, 3 dev spec, dan saya open-source-kan sebagai cutemo0953/heptabrain. Struktur repo itu sekunder. Enam prinsip di baliknya — itu intinya.


Kenapa knowledge work berbasis AI selalu kolaps

Mode kolapsnya selalu sama: current state dan pengetahuan yang sudah mengkristal tercampur jadi satu.

  • "Saya sedang debug isu ini sekarang dan root cause-nya X" ← state (kedaluwarsa dalam dua minggu)
  • "Isu jenis ini selalu berakar pada batas yang tidak jelas" ← knowledge (masih benar dua tahun lagi)

Saat keduanya tercampur, tiap file kelihatan seperti pengetahuan kanonik padahal 80% isinya adalah snapshot terikat sprint. AI lalu merekomendasikan state basi seolah-olah itu pengetahuan, dan zettelkasten kamu berubah jadi kolam noise dengan entropi tinggi.

HeptaBrain hanya punya satu langkah inti: letakkan dua jenis konten ini di sistem yang berbeda, dan paksa keduanya berkomunikasi hanya lewat distilasi.

  • Claude Code Memory = current state (skala hari sampai minggu)
  • Heptabase = pengetahuan yang sudah mengkristal (permanen)
  • Sebuah sync skill di antaranya, yang hanya memindahkan prinsip inti hasil distilasi, tidak pernah konten mentah dalam jumlah besar

Sederhana. Setan ada di enam prinsip berikut.


Prinsip 1: Pisahkan state dan knowledge lewat frontmatter, bukan heuristik

Setiap file memory mendeklarasikan canonicality: state atau canonicality: knowledge di YAML frontmatter. Sync skill hanya membaca field itu — bukan nama file, bukan kata kunci di konten.

Kenapa ini penting:

Heuristik ("kalau ada kata 'kesimpulan' atau 'prinsip', anggap knowledge") akan kolaps di minggu ketiga, karena file state pun secara natural memakai kata-kata itu. Penilaian LLM gagal secara acak begitu token budget mulai sempit.

Satu-satunya hal yang bertahan jangka panjang: penulis menandai sekali, di saat file dibuat.

Ongkosnya: satu baris tambahan di frontmatter. Imbalannya: tiga bulan kemudian, sync kamu tidak akan mempromosikan ringkasan sprint basi ke vault permanen.


Prinsip 2: Tepat satu otoritas kanonik per kelas entitas — tidak boleh ada dual source of truth

Yang ini saya bayar SPP-nya dengan kasus nyata.

Pada 2026-04-05, sistem pembukuan saya punya dua jalur tulis simultan ke "net worth" — sebuah Cloudflare Worker dan sebuah Google Apps Script. Mereka seharusnya tetap sinkron. Mereka melenceng. Laporan mingguan keluar dengan selisih net worth NT$7,31 juta.

Diterjemahkan ke knowledge work AI:

  • "Apa tujuan proyek ini" tinggal di satu tempat saja.
  • Sistem turunan (kartu Heptabase, Google Sheets, draft blog) hanya membaca. Mereka tidak pernah menulis balik.

Sync skill HeptaBrain ketat satu arah (Memory → Heptabase). Sebanyak apa pun kamu mengedit kartu Heptabase, ia tidak akan menimpa file memory. Kalau kamu mau perubahan itu menetap, edit memory dulu, baru sync.

Data turunan bukan source of truth, sekalipun kelihatan sangat mirip seperti itu.


Prinsip 3: Setiap link membawa relation_type, rationale, dan evidence — wikilink polos ditolak

Kegagalan zettelkasten itu bukan "link terlalu sedikit". Itu "link terlalu banyak yang tidak membawa informasi".

Sebuah [[Kartu A]] polos kelihatan seperti anotasi. Bagi kamu di masa depan (atau bagi AI), ia tidak menjelaskan apa pun:

  • Apakah Kartu A mendukung poin ini atau membantahnya?
  • Link kuat atau cuma sekadar disebut sambil lalu?
  • Apa evidence-nya? Paragraf yang mana?

HeptaBrain mewajibkan setiap link yang disarankan AI harus membawa:

FieldDeskripsi
relation_typeSalah satu dari: supports / refutes / extends / contrasts / instantiates
rationaleSatu atau dua kalimat tentang kenapa relasi itu valid
evidenceReferensi paragraf spesifik atau sitasi eksternal

Link yang kekurangan field mana pun akan ditolak oleh sync skill.

Ongkosnya: AI menulis 50 kata lebih banyak per link. Imbalannya: enam bulan lagi, tiap edge di link graph kamu masih membawa makna.


Prinsip 4: Pemetaan attractor lintas domain, bukan tabrakan acak

Semantic search konvensional mengambil kartu dengan teks yang mirip. Tapi insight lintas domain biasanya melibatkan teks permukaan yang berbeda, struktur dalam yang serupa.

Layer Multi-Dimensional Analysis di HeptaBrain memaksa AI memetakan tiap kartu ke "attractor" yang didefinisikan pengguna — konsep seperti observasi sebagai intervensi, trade-off latency vs accuracy, sentralisasi vs federasi.

Maka ketika "pencatatan nyeri harian oleh pasien", "implantable sensor", dan "latihan disaster recovery" semuanya memetakan ke attractor observasi sebagai intervensi, AI proaktif menyarankan link lintas domain.

Sebuah insight nyata yang muncul lewat jalur ini:

Tindakan pasien mencatat skor nyeri hariannya sendiri menurunkan intensitas nyeri. Tindakan implantable sensor mengukur beban jaringan secara terus-menerus mengubah trajectory pemulihan jaringan. Tindakan menjalankan disaster drill membuat sistem lebih resilien. Pola yang sama persis.

Semantic search yang fuzzy tidak akan pernah menemukan itu. Pemetaan attractor menemukannya.


Prinsip 5: Temuan AI mendarat di journal dulu, bukan langsung jadi kartu

Membiarkan AI menulis langsung ke knowledge base permanen kamu adalah hal paling tidak bertanggung jawab yang bisa kamu lakukan terhadap attention budget kamu di masa depan.

Skill Zettel Walk menulis semua saran link ke folder journal_walks/, terakumulasi tiap hari. Manusia, dalam konteksnya sendiri, mempromosikan yang bagus ke vault kartu sebenarnya dengan satu klik.

Kenapa ini penting:

Dalam sehari, AI bisa mengusulkan 30 kandidat link. Mungkin 2 di antaranya insight nyata. 28 sisanya adalah noise yang sekadar mirip secara teks. Kalau ketiga puluhnya mendarat di vault kartu kamu, enam bulan lagi network kamu terkubur.

AI itu generator kandidat. Manusia adalah ranker-nya.


Prinsip 6 (ditambahkan di minggu ke-2): Code governance ≠ Institutional governance

Setelah peluncuran LinkedIn saya menjalankan satu minggu lagi pemakaian intensif. Sesuatu terjadi di minggu kedua yang memaksa prinsip ini masuk.

Saya membuat poster QR untuk rollout sebuah workflow klinis di rumah sakit. Semua review level code lulus: isolasi PHI, pertahanan IDOR, query yang institution-bounded, alur consent, auth, migrasi schema. /codex:review jalan. Review inline-diff oleh Gemini + ChatGPT jalan paralel. Tiga reviewer tidak menemukan apa-apa.

Hari pertama rollout, kepala perawat menghentikannya total. Kebijakan rumah sakit: poster QR apa pun butuh stempel divisi PR. Ketua bagian ortopedi mengasumsikan ini promosi fan page Facebook, bukan proyek akademis.

Root cause: tidak ada satu pun, sebelum code dikirim, yang bertanya "mekanisme governance formal/informal apa yang ter-trigger ketika fitur ini secara fisik mendarat di dalam rumah sakit?"

Setelah itu, HeptaBrain menambah lensa baru: institutional governance review.

LayerCakupanTools
Code governancePHI, IDOR, auth, schema, kompatibilitas kontrakCodex + Multi-AI (Gemini + ChatGPT)
Institutional governanceRantai approval, kebijakan terhadap objek fisik, gatekeeper informal, presedeen kebijakan, ketidakcocokan vocabularyLensa institutional-governance-review

Kedua layer ini tidak saling menggantikan. Hanya menjalankan yang pertama = baru bayar setengah SPP.

Pola ini berlaku jauh di luar kesehatan — rollout KYC finansial, sistem G2C pemerintahan, produk B2B enterprise semuanya punya layer institutional governance sendiri. Di domain dengan governance tinggi, hambatan pertama deployment AI biasanya bukan code, melainkan orang dan norma.


Tiga sub-disiplin (baris-baris SPP)

Sambil menyusun keenam prinsip di atas, saya mengakumulasi tiga disiplin review yang lebih halus. Mereka adalah cara mengeksekusi prinsip, bukan prinsip itu sendiri:

  • Self-review per rev × per file: spec yang direvisi tiga kali butuh tiga self-review. External review sebelumnya tidak meliputi fix baru di rev ini. Setelah tersandung tiga kali dalam satu session, saya hard-code-kan ke hooks.
  • Multi-AI parallel review: Codex menangkap bug implementasi. Gemini + ChatGPT menangkap pelanggaran kontrak (cross-tenant, IDOR, timing attack, write-compat yang putus). Dua jenis reviewer ini menangkap kelas bug yang sama sekali berbeda.
  • Field rename ≠ additive: ketika schema berubah, self-review wajib mengecek baik "field baru ditambahkan" maupun "field lama dihapus". Kalau tidak, cache PWA lama akan kena 400 keras.

Semua ini hidup di memory/feedback_*.md, salah satu template yang sudah dikirim di examples/memory/.


Arsitektur: stack tiga lapis

Kalau kamu hanya membaca README HeptaBrain, mungkin kamu mengira ini sebuah sync tool. Sebenarnya ia layer paling bawah dari sebuah stack tiga lapis:

LayerNamaFungsinya
L3Multi-Dimensional AnalysisPemetaan attractor lintas domain, saran link lintas domain
L2Strategic Review SystemBeberapa lensa terhadap artefak yang sama, masing-masing dari sudut berbeda
L1Cyberbrain (HeptaBrain Sync)Pemisahan State/Knowledge, distilasi, promosi journal-first

L1 adalah yang sudah open-source hari ini. L2 + L3 menyusul setelah 10+ review terkumpul untuk memvalidasi metodologinya.


Lisensi + ajakan

  • Spec / docs: CC BY 4.0
  • Install scripts / code: MIT
  • Template GitHub issue: port report (porting ke tool lain), spec critique (di mana kamu tidak setuju dengan sebuah prinsip), bug

Kalau kamu juga menjalankan AI knowledge work, feedback paling berguna yang bisa kamu kirim:

  1. Port report — kamu mem-porting-nya ke tool lain (bukan Heptabase), beri tahu prinsip mana yang transferable dan mana yang HB-specific
  2. Spec critique — prinsip mana yang kamu tidak setuju, dan kenapa
  3. Prinsip baru — setelah menjalankannya, kamu menemukan yang ke-7. Kirim PR.

Repo: github.com/cutemo0953/heptabrain


Penutup

Tool itu permukaan. Disiplin itu substansinya.

Setup ini bertahan dua minggu dogfood harian bukan karena Heptabase ajaib, bukan karena Claude Code sakti — melainkan karena enam prinsip menyerahkan masalah struktural ("AI menulis lebih cepat daripada saya bisa kurasi") kepada aturan itu sendiri.

Kalau kamu mengerjakan knowledge work berbasis AI — riset klinis, strategi produk, argumentasi regulatori — bottleneck yang sama sedang menunggu kamu. Sintesis berskala mengikuti disiplin. Copy-paste tidak.

Satu pertanyaan untuk kamu: disiplin apa yang dibutuhkan oleh AI-assisted knowledge work kamu tetapi belum kamu miliki?


Ini adalah pendamping versi panjang untuk LinkedIn launch post (TBD). Repo cutemo0953/heptabrain go public pada 2026-04-21; tulisan ini menambahkan temuan minggu ke-2 (Prinsip 6).