Blog/
||||||

HeptaBrain: enviar la disciplina como código, no solo la herramienta

La mayoría de las herramientas de gestión del conocimiento con IA fallan no porque la IA sea débil, sino porque les falta la disciplina para separar el estado actual del conocimiento cristalizado. HeptaBrain es la metodología que liberé como open source tras 11 días de uso diario: 4 slash commands de Claude Code, 3 dev specs, 6 principios. Esta es la versión larga detrás del lanzamiento en LinkedIn.

Si han usado IA para escribir más de diez días seguidos cualquier cosa, conocen esta escena:

Doscientos archivos markdown. Cada encabezado dice "conclusión importante". Wikilinks por todas partes, pero cada uno lleva a otra estación de relevo de 200 palabras. A las dos semanas, se dan cuenta de que regeneraron la misma idea tres veces, en tres archivos distintos, y ninguno es el canónico.

Esto no es que la IA escriba mal. La IA escribe más rápido de lo que tu disciplina puede absorber.

Hice dogfood diario con Claude Code + Heptabase durante 11 días, después destilé la disciplina en 4 slash commands, 3 dev specs y la liberé como open source en cutemo0953/heptabrain. La estructura del repo es accesoria. Lo importante son los seis principios que están debajo.


Por qué se derrumba el trabajo de conocimiento con IA

El modo de derrumbe siempre es el mismo: el estado actual y el conocimiento cristalizado se mezclan.

  • "Estoy depurando este problema ahora mismo y la causa raíz es X" ← estado (caduca en dos semanas)
  • "Los problemas de esta clase siempre se reducen a fronteras poco claras" ← conocimiento (sigue siendo cierto en dos años)

Cuando se mezclan, todo archivo parece conocimiento cristalizado pero el 80% es una foto fija atada a un sprint. La IA entonces recomienda estado caducado como si fuera conocimiento, y tu zettelkasten se convierte en un pozo de ruido de alta entropía.

HeptaBrain tiene exactamente un movimiento central: poner estos dos tipos de contenido en sistemas distintos y obligarlos a comunicarse solo mediante destilación.

  • Claude Code Memory = estado actual (días a semanas)
  • Heptabase = conocimiento cristalizado (permanente)
  • Una skill de sync en medio, que solo mueve el núcleo destilado del principio, nunca contenido en bruto

Sencillo. El diablo está en los seis principios siguientes.


Principio 1: desacoplar estado y conocimiento en el frontmatter, no por heurística

Cada archivo de memoria declara canonicality: state o canonicality: knowledge en el frontmatter YAML. La skill de sync lee ese campo, nunca el nombre del archivo, nunca palabras clave del contenido.

Por qué importa:

Las heurísticas ("si dice 'conclusión' o 'principio', tratar como conocimiento") fallan a la tercera semana, porque los archivos de estado también usan esas palabras de forma natural. El juicio del LLM falla aleatoriamente cuando el presupuesto de tokens se aprieta.

Lo único que aguanta a largo plazo es: el autor lo marca una vez, en el momento de creación.

Costo: una línea extra de frontmatter. Retorno: tres meses después, tu sync no promueve resúmenes caducados de sprint hacia la bóveda permanente.


Principio 2: exactamente una autoridad canónica por clase de entidad — sin doble fuente de verdad

Por este pagué la matrícula.

El 5 de abril de 2026, mi sistema de contabilidad tenía dos rutas simultáneas de escritura hacia "patrimonio neto": un Cloudflare Worker y un Google Apps Script. Se suponía que se mantenían sincronizados. Se desincronizaron. El reporte semanal devolvió un patrimonio neto desviado en NT$7.31M.

Trasladado al trabajo de conocimiento con IA:

  • "Cuál es el objetivo de este proyecto" vive en un solo lugar.
  • Los sistemas derivados (tarjetas de Heptabase, Google Sheets, borradores de blog) solo leen. Nunca escriben de vuelta.

La skill de sync de HeptaBrain es estrictamente unidireccional (Memory → Heptabase). Por mucho que edites una tarjeta de Heptabase, nunca sobrescribe el archivo de memoria. Si quieres que el cambio se quede, edita primero la memoria, luego sincroniza.

Los datos derivados no son fuente de verdad, por mucho que lo parezcan.


Principio 3: cada enlace lleva relation_type, rationale y evidence — los wikilinks pelados son rechazados

El fallo del Zettelkasten no es "muy pocos enlaces". Es "demasiados enlaces sin información".

Un [[Tarjeta A]] pelado parece una anotación. Para tu yo futuro (o para una IA), no dice nada:

  • ¿La Tarjeta A apoya este punto o lo refuta?
  • ¿Enlace fuerte o solo una mención de paso?
  • ¿Cuál es la evidencia? ¿Qué párrafo?

HeptaBrain exige que cada enlace sugerido por la IA cargue:

CampoDescripción
relation_typeUno de: supports / refutes / extends / contrasts / instantiates
rationaleUna o dos frases sobre por qué se sostiene la relación
evidenceReferencia a un párrafo específico o cita externa

Los enlaces a los que les falte cualquier campo son rechazados por la skill de sync.

Costo: la IA genera 50 palabras más por enlace. Retorno: en seis meses, cada arista del grafo de enlaces sigue cargando significado.


Principio 4: mapeo de attractors entre dominios, no colisión aleatoria

La búsqueda semántica convencional recupera tarjetas con texto similar. Pero la idea entre dominios suele tener texto superficial distinto, estructura profunda similar.

La capa de Multi-Dimensional Analysis de HeptaBrain obliga a la IA a mapear cada tarjeta a un "attractor" definido por el usuario: conceptos como observación como intervención, latencia vs precisión, centralización vs federación.

Así que cuando "registro personal de dolor", "sensores implantables" y "simulacros de recuperación ante desastres" mapean todos al attractor de observación como intervención, la IA sugiere proactivamente enlaces entre dominios.

Una idea real que afloró así:

El acto de que un paciente registre su propia puntuación diaria de dolor reduce la intensidad del dolor. El acto de que un sensor implantable mida continuamente la carga del tejido altera la trayectoria de recuperación del tejido. El acto de correr simulacros ante desastres hace los sistemas más resilientes. Mismo patrón.

La búsqueda semántica difusa nunca habría encontrado eso. El mapeo de attractors sí.


Principio 5: los hallazgos de la IA aterrizan primero en un journal, no como tarjetas

Dejar que la IA escriba directamente en tu base de conocimiento permanente es lo más irresponsable que puedes hacerle a tu presupuesto futuro de atención.

La skill Zettel Walk escribe todas las sugerencias de enlace en una carpeta journal_walks/, acumulando a diario. El humano, en su propio contexto, promueve los buenos al vault real de tarjetas con un solo clic.

Por qué importa:

En un día, la IA puede proponer 30 candidatos de enlace. Quizá 2 sean ideas reales. Los otros 28 son ruido similar a nivel de texto. Si los 30 aterrizan en tu vault, seis meses después tu red está enterrada.

La IA es un generador de candidatos. El humano es el que rankea.


Principio 6 (añadido en la semana 2): Code governance ≠ Institutional governance

Después del lanzamiento en LinkedIn hice otra semana de aplicación de alta densidad. Algo pasó en la semana 2 que forzó la entrada de este principio.

Construí un póster con QR para uso intrahospitalario, parte de un rollout de flujo clínico. Todas las revisiones a nivel de código pasaron: aislamiento de PHI, defensa contra IDOR, queries acotadas por institución, flujo de consentimiento, auth, migración de schema. Corrió /codex:review. Corrió en paralelo el inline-diff review de Gemini + ChatGPT. Tres reviewers no encontraron nada.

Día uno del rollout, la jefa de enfermería lo paró en seco. Política del hospital: cualquier póster con QR requiere sello del departamento de relaciones públicas. El jefe de ortopedia asumió que era promoción de fan-page de Facebook, no un proyecto académico.

Causa raíz: nadie, antes de enviar el código, preguntó "¿qué mecanismos formales o informales de gobernanza se disparan cuando esta funcionalidad aterriza físicamente dentro del hospital?"

Después de eso, HeptaBrain añadió un nuevo lente: institutional governance review.

CapaCoberturaHerramientas
Code governancePHI, IDOR, auth, schema, compatibilidad de contratosCodex + Multi-AI (Gemini + ChatGPT)
Institutional governanceCadenas de aprobación, política sobre objetos físicos, gatekeepers informales, precedentes de política, desajuste de vocabularioinstitutional-governance-review lens

Las dos capas no se sustituyen entre sí. Correr solo la primera = pagar la mitad de la matrícula.

Esto se generaliza más allá del sector salud: rollouts de KYC financiero, sistemas G2C de gobierno, productos B2B empresariales, todos tienen su propia capa de gobernanza institucional. En dominios de alta gobernanza, el primer obstáculo para desplegar IA usualmente no es el código, son las personas y las normas.


Tres sub-disciplinas (las líneas de matrícula)

Mientras redactaba los seis principios anteriores, acumulé tres disciplinas más finas de revisión. Son cómo ejecutar los principios, no principios en sí mismos:

  • Self-review por revisión × por archivo: una spec revisada tres veces necesita tres self-reviews. La revisión externa anterior no cubre los nuevos arreglos de esta revisión. Después de tropezar con esto tres veces en una sola sesión, lo dejé hard-coded en hooks.
  • Multi-AI parallel review: Codex caza bugs de implementación. Gemini + ChatGPT cazan violaciones de contrato (cross-tenant, IDOR, timing attacks, ruptura de write-compat). Los dos tipos de reviewer cazan clases de bugs completamente distintas.
  • Renombrar un campo ≠ aditivo: cuando un schema cambia, el self-review debe verificar tanto "campo nuevo agregado" como "campo viejo eliminado". Si no, los cachés viejos del PWA se llevan un 400 directo.

Esto vive en memory/feedback_*.md, una de las plantillas que se incluyen en examples/memory/.


Arquitectura: stack de tres capas

Si solo leen el README de HeptaBrain podrían pensar que es una herramienta de sync. Es la capa más baja de un stack de tres capas:

CapaNombreQué hace
L3Multi-Dimensional AnalysisMapeo de attractors entre dominios, sugerencias de enlace cruzado
L2Strategic Review SystemMúltiples lentes sobre el mismo artefacto, cada uno desde un ángulo distinto
L1Cyberbrain (HeptaBrain Sync)Desacople estado/conocimiento, destilación, promoción journal-first

L1 es lo que está open source hoy. L2 + L3 saldrán cuando se acumulen 10+ revisiones que validen la metodología.


Licencia + invitación

  • Specs / docs: CC BY 4.0
  • Scripts de instalación / código: MIT
  • Templates de issues en GitHub: port report (portar a otras herramientas), spec critique (donde no estén de acuerdo con un principio), bug

Si ustedes también hacen trabajo de conocimiento con IA, el feedback más útil que pueden enviar:

  1. Port report: lo portaron a una herramienta distinta (no Heptabase), díganme qué principios se transfirieron y cuáles eran específicos de HB
  2. Spec critique: con qué principio no están de acuerdo, y por qué
  3. Nuevo principio: después de correrlo, descubrieron un séptimo. Manden un PR.

Repo: github.com/cutemo0953/heptabrain


Cierre

La herramienta es la superficie. La disciplina es la sustancia.

Este montaje sobrevive a dos semanas de dogfood diario no porque Heptabase sea mágico, no porque Claude Code sea poderoso, sino porque seis principios externalizan el problema estructural ("la IA escribe más rápido de lo que puedo curar") hacia las propias reglas.

Si hacen trabajo de conocimiento asistido por IA — investigación clínica, estrategia de producto, argumentación regulatoria — el mismo cuello de botella los espera. La síntesis escala con disciplina. El copia-pega no.

Una pregunta para ustedes: ¿qué disciplina necesita su trabajo de conocimiento asistido por IA pero todavía no tiene?


Esta es la versión larga que acompaña al post de lanzamiento en LinkedIn (TBD). El repo cutemo0953/heptabrain se hizo público el 2026-04-21; este post añade el descubrimiento de la semana 2 (Principio 6).