Kalau kamu sudah memakai AI untuk menulis apa pun lebih dari sepuluh hari, pemandangan ini pasti familiar:
Dua ratus file markdown. Tiap header berbunyi "kesimpulan penting". Wikilink di mana-mana, tetapi tiap link cuma membawa kita ke stasiun transit lain berisi 200 kata. Dua minggu berlalu, kamu sadar bahwa insight yang sama sudah kamu hasilkan tiga kali, di tiga file berbeda, dan tidak ada satu pun yang berstatus kanonik.
Ini bukan soal AI yang jelek menulis. AI menulis lebih cepat daripada disiplin kamu mampu menyerap.
Saya menjalankan Claude Code + Heptabase sebagai dogfood harian selama 11 hari, lalu mendistilasi disiplinnya menjadi 4 slash command, 3 dev spec, dan saya open-source-kan sebagai cutemo0953/heptabrain. Struktur repo itu sekunder. Enam prinsip di baliknya — itu intinya.
Kenapa knowledge work berbasis AI selalu kolaps
Mode kolapsnya selalu sama: current state dan pengetahuan yang sudah mengkristal tercampur jadi satu.
- "Saya sedang debug isu ini sekarang dan root cause-nya X" ← state (kedaluwarsa dalam dua minggu)
- "Isu jenis ini selalu berakar pada batas yang tidak jelas" ← knowledge (masih benar dua tahun lagi)
Saat keduanya tercampur, tiap file kelihatan seperti pengetahuan kanonik padahal 80% isinya adalah snapshot terikat sprint. AI lalu merekomendasikan state basi seolah-olah itu pengetahuan, dan zettelkasten kamu berubah jadi kolam noise dengan entropi tinggi.
HeptaBrain hanya punya satu langkah inti: letakkan dua jenis konten ini di sistem yang berbeda, dan paksa keduanya berkomunikasi hanya lewat distilasi.
- Claude Code Memory = current state (skala hari sampai minggu)
- Heptabase = pengetahuan yang sudah mengkristal (permanen)
- Sebuah sync skill di antaranya, yang hanya memindahkan prinsip inti hasil distilasi, tidak pernah konten mentah dalam jumlah besar
Sederhana. Setan ada di enam prinsip berikut.
Prinsip 1: Pisahkan state dan knowledge lewat frontmatter, bukan heuristik
Setiap file memory mendeklarasikan canonicality: state atau canonicality: knowledge di YAML frontmatter. Sync skill hanya membaca field itu — bukan nama file, bukan kata kunci di konten.
Kenapa ini penting:
Heuristik ("kalau ada kata 'kesimpulan' atau 'prinsip', anggap knowledge") akan kolaps di minggu ketiga, karena file state pun secara natural memakai kata-kata itu. Penilaian LLM gagal secara acak begitu token budget mulai sempit.
Satu-satunya hal yang bertahan jangka panjang: penulis menandai sekali, di saat file dibuat.
Ongkosnya: satu baris tambahan di frontmatter. Imbalannya: tiga bulan kemudian, sync kamu tidak akan mempromosikan ringkasan sprint basi ke vault permanen.
Prinsip 2: Tepat satu otoritas kanonik per kelas entitas — tidak boleh ada dual source of truth
Yang ini saya bayar SPP-nya dengan kasus nyata.
Pada 2026-04-05, sistem pembukuan saya punya dua jalur tulis simultan ke "net worth" — sebuah Cloudflare Worker dan sebuah Google Apps Script. Mereka seharusnya tetap sinkron. Mereka melenceng. Laporan mingguan keluar dengan selisih net worth NT$7,31 juta.
Diterjemahkan ke knowledge work AI:
- "Apa tujuan proyek ini" tinggal di satu tempat saja.
- Sistem turunan (kartu Heptabase, Google Sheets, draft blog) hanya membaca. Mereka tidak pernah menulis balik.
Sync skill HeptaBrain ketat satu arah (Memory → Heptabase). Sebanyak apa pun kamu mengedit kartu Heptabase, ia tidak akan menimpa file memory. Kalau kamu mau perubahan itu menetap, edit memory dulu, baru sync.
Data turunan bukan source of truth, sekalipun kelihatan sangat mirip seperti itu.
Prinsip 3: Setiap link membawa relation_type, rationale, dan evidence — wikilink polos ditolak
Kegagalan zettelkasten itu bukan "link terlalu sedikit". Itu "link terlalu banyak yang tidak membawa informasi".
Sebuah [[Kartu A]] polos kelihatan seperti anotasi. Bagi kamu di masa depan (atau bagi AI), ia tidak menjelaskan apa pun:
- Apakah Kartu A mendukung poin ini atau membantahnya?
- Link kuat atau cuma sekadar disebut sambil lalu?
- Apa evidence-nya? Paragraf yang mana?
HeptaBrain mewajibkan setiap link yang disarankan AI harus membawa:
| Field | Deskripsi |
|---|---|
| relation_type | Salah satu dari: supports / refutes / extends / contrasts / instantiates |
| rationale | Satu atau dua kalimat tentang kenapa relasi itu valid |
| evidence | Referensi paragraf spesifik atau sitasi eksternal |
Link yang kekurangan field mana pun akan ditolak oleh sync skill.
Ongkosnya: AI menulis 50 kata lebih banyak per link. Imbalannya: enam bulan lagi, tiap edge di link graph kamu masih membawa makna.
Prinsip 4: Pemetaan attractor lintas domain, bukan tabrakan acak
Semantic search konvensional mengambil kartu dengan teks yang mirip. Tapi insight lintas domain biasanya melibatkan teks permukaan yang berbeda, struktur dalam yang serupa.
Layer Multi-Dimensional Analysis di HeptaBrain memaksa AI memetakan tiap kartu ke "attractor" yang didefinisikan pengguna — konsep seperti observasi sebagai intervensi, trade-off latency vs accuracy, sentralisasi vs federasi.
Maka ketika "pencatatan nyeri harian oleh pasien", "implantable sensor", dan "latihan disaster recovery" semuanya memetakan ke attractor observasi sebagai intervensi, AI proaktif menyarankan link lintas domain.
Sebuah insight nyata yang muncul lewat jalur ini:
Tindakan pasien mencatat skor nyeri hariannya sendiri menurunkan intensitas nyeri. Tindakan implantable sensor mengukur beban jaringan secara terus-menerus mengubah trajectory pemulihan jaringan. Tindakan menjalankan disaster drill membuat sistem lebih resilien. Pola yang sama persis.
Semantic search yang fuzzy tidak akan pernah menemukan itu. Pemetaan attractor menemukannya.
Prinsip 5: Temuan AI mendarat di journal dulu, bukan langsung jadi kartu
Membiarkan AI menulis langsung ke knowledge base permanen kamu adalah hal paling tidak bertanggung jawab yang bisa kamu lakukan terhadap attention budget kamu di masa depan.
Skill Zettel Walk menulis semua saran link ke folder journal_walks/, terakumulasi tiap hari. Manusia, dalam konteksnya sendiri, mempromosikan yang bagus ke vault kartu sebenarnya dengan satu klik.
Kenapa ini penting:
Dalam sehari, AI bisa mengusulkan 30 kandidat link. Mungkin 2 di antaranya insight nyata. 28 sisanya adalah noise yang sekadar mirip secara teks. Kalau ketiga puluhnya mendarat di vault kartu kamu, enam bulan lagi network kamu terkubur.
AI itu generator kandidat. Manusia adalah ranker-nya.
Prinsip 6 (ditambahkan di minggu ke-2): Code governance ≠ Institutional governance
Setelah peluncuran LinkedIn saya menjalankan satu minggu lagi pemakaian intensif. Sesuatu terjadi di minggu kedua yang memaksa prinsip ini masuk.
Saya membuat poster QR untuk rollout sebuah workflow klinis di rumah sakit. Semua review level code lulus: isolasi PHI, pertahanan IDOR, query yang institution-bounded, alur consent, auth, migrasi schema. /codex:review jalan. Review inline-diff oleh Gemini + ChatGPT jalan paralel. Tiga reviewer tidak menemukan apa-apa.
Hari pertama rollout, kepala perawat menghentikannya total. Kebijakan rumah sakit: poster QR apa pun butuh stempel divisi PR. Ketua bagian ortopedi mengasumsikan ini promosi fan page Facebook, bukan proyek akademis.
Root cause: tidak ada satu pun, sebelum code dikirim, yang bertanya "mekanisme governance formal/informal apa yang ter-trigger ketika fitur ini secara fisik mendarat di dalam rumah sakit?"
Setelah itu, HeptaBrain menambah lensa baru: institutional governance review.
| Layer | Cakupan | Tools |
|---|---|---|
| Code governance | PHI, IDOR, auth, schema, kompatibilitas kontrak | Codex + Multi-AI (Gemini + ChatGPT) |
| Institutional governance | Rantai approval, kebijakan terhadap objek fisik, gatekeeper informal, presedeen kebijakan, ketidakcocokan vocabulary | Lensa institutional-governance-review |
Kedua layer ini tidak saling menggantikan. Hanya menjalankan yang pertama = baru bayar setengah SPP.
Pola ini berlaku jauh di luar kesehatan — rollout KYC finansial, sistem G2C pemerintahan, produk B2B enterprise semuanya punya layer institutional governance sendiri. Di domain dengan governance tinggi, hambatan pertama deployment AI biasanya bukan code, melainkan orang dan norma.
Tiga sub-disiplin (baris-baris SPP)
Sambil menyusun keenam prinsip di atas, saya mengakumulasi tiga disiplin review yang lebih halus. Mereka adalah cara mengeksekusi prinsip, bukan prinsip itu sendiri:
- Self-review per rev × per file: spec yang direvisi tiga kali butuh tiga self-review. External review sebelumnya tidak meliputi fix baru di rev ini. Setelah tersandung tiga kali dalam satu session, saya hard-code-kan ke hooks.
- Multi-AI parallel review: Codex menangkap bug implementasi. Gemini + ChatGPT menangkap pelanggaran kontrak (cross-tenant, IDOR, timing attack, write-compat yang putus). Dua jenis reviewer ini menangkap kelas bug yang sama sekali berbeda.
- Field rename ≠ additive: ketika schema berubah, self-review wajib mengecek baik "field baru ditambahkan" maupun "field lama dihapus". Kalau tidak, cache PWA lama akan kena 400 keras.
Semua ini hidup di memory/feedback_*.md, salah satu template yang sudah dikirim di examples/memory/.
Arsitektur: stack tiga lapis
Kalau kamu hanya membaca README HeptaBrain, mungkin kamu mengira ini sebuah sync tool. Sebenarnya ia layer paling bawah dari sebuah stack tiga lapis:
| Layer | Nama | Fungsinya |
|---|---|---|
| L3 | Multi-Dimensional Analysis | Pemetaan attractor lintas domain, saran link lintas domain |
| L2 | Strategic Review System | Beberapa lensa terhadap artefak yang sama, masing-masing dari sudut berbeda |
| L1 | Cyberbrain (HeptaBrain Sync) | Pemisahan State/Knowledge, distilasi, promosi journal-first |
L1 adalah yang sudah open-source hari ini. L2 + L3 menyusul setelah 10+ review terkumpul untuk memvalidasi metodologinya.
Lisensi + ajakan
- Spec / docs: CC BY 4.0
- Install scripts / code: MIT
- Template GitHub issue: port report (porting ke tool lain), spec critique (di mana kamu tidak setuju dengan sebuah prinsip), bug
Kalau kamu juga menjalankan AI knowledge work, feedback paling berguna yang bisa kamu kirim:
- Port report — kamu mem-porting-nya ke tool lain (bukan Heptabase), beri tahu prinsip mana yang transferable dan mana yang HB-specific
- Spec critique — prinsip mana yang kamu tidak setuju, dan kenapa
- Prinsip baru — setelah menjalankannya, kamu menemukan yang ke-7. Kirim PR.
Repo: github.com/cutemo0953/heptabrain
Penutup
Tool itu permukaan. Disiplin itu substansinya.
Setup ini bertahan dua minggu dogfood harian bukan karena Heptabase ajaib, bukan karena Claude Code sakti — melainkan karena enam prinsip menyerahkan masalah struktural ("AI menulis lebih cepat daripada saya bisa kurasi") kepada aturan itu sendiri.
Kalau kamu mengerjakan knowledge work berbasis AI — riset klinis, strategi produk, argumentasi regulatori — bottleneck yang sama sedang menunggu kamu. Sintesis berskala mengikuti disiplin. Copy-paste tidak.
Satu pertanyaan untuk kamu: disiplin apa yang dibutuhkan oleh AI-assisted knowledge work kamu tetapi belum kamu miliki?
Ini adalah pendamping versi panjang untuk LinkedIn launch post (TBD). Repo
cutemo0953/heptabrain go public pada 2026-04-21; tulisan ini menambahkan temuan minggu ke-2 (Prinsip 6).