Skip to content
Built 26/04/17 06:04commit 511b6d9

架构

中文 | English

这一页把当前 llm-wiki 的方案总结成一个本地优先的知识系统:本地采集与编辑,Codex 自动维护,最后通过静态站点自动发布。

打开独立架构图

总结

  • 采集入口在本地:Chrome 配合 Obsidian Web Clipper,把网页转成 markdown 放进 raw/
  • 仓库遵循 Karpathy 风格的 LLM knowledge base 模式:raw/ 是来源层,wiki/ 是持续维护的综合知识层。
  • Codex agent 充当维护引擎:ingest 新资料、更新长期 wiki 页面、跑 lint、维护双语 sibling,并提交 Git 变更。
  • GitHub 是权威远端。每次本地 commit 后 push,更新就会同步到共享仓库。
  • VitePress 负责把仓库渲染成可读网站,Vercel 绑定 GitHub 后会自动部署,因此电脑和手机都能直接用浏览器访问。

流程

  1. 网页内容、笔记或截图先进入 raw/
  2. Codex 的维护会话把新材料整合进 wiki/sources/wiki/topics/wiki/concepts/wiki/answers/
  3. 整个过程通过 Git 保留可追溯、可审阅的历史。
  4. push 到 GitHub 后,Vercel 自动部署对应的 VitePress 站点。
  5. 读者通过公开 URL,在任意浏览器中访问同一套知识库。

设计目标

核心目标是:本地继续保持纯 markdown 的可编辑性,同时把维护尽量自动化,把发布压缩成每次 push 之后几乎零额外操作的流程。