Built 26/04/17 06:04commit 511b6d9
架构
中文 | English
这一页把当前 llm-wiki 的方案总结成一个本地优先的知识系统:本地采集与编辑,Codex 自动维护,最后通过静态站点自动发布。
总结
- 采集入口在本地:Chrome 配合 Obsidian Web Clipper,把网页转成 markdown 放进
raw/。 - 仓库遵循 Karpathy 风格的 LLM knowledge base 模式:
raw/是来源层,wiki/是持续维护的综合知识层。 - Codex agent 充当维护引擎:ingest 新资料、更新长期 wiki 页面、跑 lint、维护双语 sibling,并提交 Git 变更。
- GitHub 是权威远端。每次本地 commit 后 push,更新就会同步到共享仓库。
- VitePress 负责把仓库渲染成可读网站,Vercel 绑定 GitHub 后会自动部署,因此电脑和手机都能直接用浏览器访问。
流程
- 网页内容、笔记或截图先进入
raw/。 - Codex 的维护会话把新材料整合进
wiki/sources/、wiki/topics/、wiki/concepts/和wiki/answers/。 - 整个过程通过 Git 保留可追溯、可审阅的历史。
- push 到 GitHub 后,Vercel 自动部署对应的 VitePress 站点。
- 读者通过公开 URL,在任意浏览器中访问同一套知识库。
设计目标
核心目标是:本地继续保持纯 markdown 的可编辑性,同时把维护尽量自动化,把发布压缩成每次 push 之后几乎零额外操作的流程。