Built 26/04/17 09:08commit f8ff6f9
知识库架构
中文 | English
摘要
这个知识库采用三层结构:raw/ 中存放实质内容保持稳定、但路径允许重组的原始资料,wiki/ 中存放持久的综合知识,AGENTS.md 则定义模型长期维护 wiki 的方式。
三层结构
raw/是 source-of-truth 集合。文件由人类负责策展;只有 raw 重组所必需的路径维护性修改才允许发生。这一层既可以包含 markdown,也可以包含截图和本地图片资产。wiki/是被维护的知识层,存放 source notes、概念、实体、主题和耐久答案。AGENTS.md是维护契约,定义工作流、页面角色和更新约定。
操作基元
index.md与index.zh.md是内容地图,模型应先读它们来决定哪些页面值得继续读。log.md是 ingest、耐久 query 和 lint pass 的时间顺序记录。wiki/sources/下的 source page 说明每个 raw 文件带来了什么,以及哪些长期页面因此发生了变化。- 顶层入口文件应保持紧凑并向外链接;如果
index.md膨胀成信息堆,维护成本会上升,路由层也会失去作用。
设计选择
- 这套架构偏向持久综合,而不是查询时再去重新发现知识。
- wiki 应该通过修订 canonical 页面来演化,而不是不断堆积关系松散的重复页面。
- 像
llm-wiki这样的可复用操作 bundle 可以补充 root resolution、自动化和安全维护辅助工具,但不会取代 markdown 作为主知识系统。 - 搜索、Dataview 或 slide 生成之类的附加工具是次要层,markdown 语料本身才是核心。
- 人类继续负责策展与方向判断;模型承担维护负担。
AGENTS.md应该像路由层,引导模型进入其他页面,而不是变成一个巨大的规则堆。- 渐进式披露很重要:小而稳定的入口,比一个庞杂的单体说明更耐久。
开放问题
- 当 wiki 超出 index-first 导航能力时,最小有用的本地搜索层应该长什么样?
- 哪些领域值得单独开
entities/页面,哪些更适合被吸收到topics/中?
来源
- Karpathy 的 LLM Wiki Gist
- Codex LLM Wiki Skill
- Claude Code Auto Dream 记忆整合
- OpenAI:Agent 优先世界中的 Harness Engineering