"最近我发现一件非常有用的事情:用 LLM 来为自己感兴趣的研究主题构建个人知识库。这样一来,我最近大部分的 token 消耗,不再是用来「操作代码」,而是用来「操作知识」。"
这是 Andrej Karpathy——那个被称为"AI 大神"、特斯拉前 AI 总监、OpenAI 联合创始人——在 2026 年 4 月发的一条推特。
苏米注:这条推特炸了。8197 人点赞,1702 人转发。大家都在说:这可能就是 AI 时代知识管理的下一个范式。
故事从一个问题开始
你有没有过这样的经历?
你在网上看到一篇好文章,收藏了。过几天,你又看到一篇相关的,又收藏了。再过一段时间,你想找某个知识点,你记得你看过,但你不记得在哪一篇里了。于是你开始翻收藏夹,一篇一篇地点开,一页一页地找......
这就是现在大多数人使用 AI 处理知识的方式:
你问 AI 一个问题 → AI 从一堆文件里找相关内容 → AI 回答你
看起来挺方便对吧?但问题在于:每次你问问题,AI 都要重新从零开始找资料。
问你 5 次同样的主题,AI 就要找 5 次之前读过的资料。知识没有积累下来,就像熊瞎子掰玉米,掰一个丢一个。
这就是目前最流行的 RAG(检索增强生成)方式的根本缺陷。RAG 本质上是一个"临时工"——每次干活都要重新翻箱倒柜,干完就忘,下次还得重来。
苏米注:你的知识库越大,这个问题越严重。文档从 10 篇变成 100 篇,检索的噪音就指数级增长,回答质量反而下降。
Karpathy 的灵机一动
Karpathy 是最早意识到这个问题的人。
作为一个 AI 专家,他每天要读大量的论文、博客、技术文档。他发现,用传统的 RAG 方式,效率太低了。每次问问题,AI 都要从头开始"挖矿",而且经常挖到不相关的东西。
他问了自己一个问题:
"能不能让 AI 在第一次读文章的时候,就直接把要点记成笔记?然后下次问我直接读笔记就行了?"
这个想法看似简单,实则是一个范式转换。传统 RAG 是"读时检索"——你问的时候才去找。而 LLM Wiki 是"写时编译"——信息进来的时候就整理好,问的时候直接用。
这就是 LLM Wiki 的核心思路:
- 添加来源 → AI 编译成结构化笔记 → 知识积累下来
- 问 AI 问题 ← AI 直接读整理好的笔记 ← 每次都在变聪明
知识只需要"编译"一次,之后就永久积累,不再重复处理。
用一个类比来说:RAG 就像你每次考试都从头翻课本找答案,而 LLM Wiki 就像你平时就做好了笔记,考试的时候直接翻笔记。哪个快?不言而喻。
LLM Wiki 三层架构
想象你的知识管理是一个小工厂,有三层流水线:
| 层级 | 相当于 | 作用 |
|---|---|---|
| 原始来源 | 你的书架 | 存放原始文章、PDF、笔记,永远不改 |
| Wiki | 你的读书笔记 | AI 把读过的内容整理成相互链接的笔记卡片 |
| Schema | 笔记格式说明书 | 告诉 AI 怎么整理笔记的规则 |
这三层之间的关系很清晰:原始来源是输入,Schema 是规则,Wiki 是输出。

你往"书架"上放新文章,AI 按照"说明书"的规则,自动把内容整理到"笔记本"里。笔记之间还会自动建立交叉链接——就像维基百科里的蓝色超链接一样。
注意:原始来源层是只读的,AI 永远不会修改你的原始文件。这是一个重要的设计原则——保证你的原始资料永远完整。
四大核心操作
就像一个工厂有四大工序:
- Ingest(摄取) - 把新文章丢给 AI,它自动提取要点写成笔记。支持 PDF、Markdown、网页链接、甚至截图。AI 不只是摘抄,而是理解内容后重新组织,并自动跟已有笔记建立关联。
- Query(查询) - 问 AI 问题,它从整理好的笔记里回答。因为笔记已经是结构化的,所以回答速度更快、更准确,而且每个回答都会标注来源。
- Lint(检查) - 让 AI 检查笔记有没有问题:是不是有矛盾的地方?有没有过时的信息?有没有孤立的页面没跟其他笔记连起来?这就像代码的 lint 工具,帮你保持知识库的健康。
- Writeback(写回) - 好的问答结果也要存进笔记里,让知识沉淀。你问了一个好问题,AI 给了一个好答案,这个答案本身也是一种知识——Writeback 会把它也编入 Wiki 里。
这四个操作形成了一个知识飞轮:你读得越多,Wiki 越丰富;Wiki 越丰富,回答越精准;回答越精准,Writeback 进来的知识质量越高......循环往复,知识库越来越"聪明"。
这就是为什么 Karpathy 说:"正确的使用 LLM 的方式不是问答,而是编译。"
6 个推荐开源项目
第一类:功能最全
推荐 Ar9av/obsidian-wiki
这是目前功能最完整的实现框架,包含 13 个技能文件,覆盖完整流程。
- 支持多种 AI:Claude Code、Cursor、Windsurf、Codex 等都能用
- 自动追踪哪些文件处理过了,不重复劳动(Delta tracking)
- 支持图片、截图(需要带视觉的 AI),可以把论文里的图表也"编译"进知识库
- 来源追踪:每条笔记标明是"提取的"还是"AI 推测的"
- 与 Obsidian 深度集成,生成的 Wiki 直接就是 Obsidian vault
适合:想要完整功能、愿意花时间设置的人
git clone https://github.com/Ar9av/obsidian-wiki.git
cd obsidian-wiki
bash setup.sh
第二类:最简单
推荐 ekadetov/llm-wiki
Claude Code 插件形式,安装即用。
- 一键安装,一个命令就自动帮你建好完整目录结构
- 只有几个核心命令:init、ingest、compile、query、lint
- 自动安装依赖
- 内置幻灯片生成功能——可以把知识库里的内容直接导出为演示文稿
适合:想要最快上手、不想折腾的人
claude plugin install github:ekadetov/llm-wiki
然后说 /llm-wiki: wiki init 我的第一个知识库
第三类:不用动手
推荐 lucasastorian/llmwiki
这是唯一一个提供在线托管服务的实现。
- 一个完整的 Web 应用,有现成的网站 llmwiki.app,打开浏览器就能用
- 不用自己搭建服务器,不用配置环境,不用装任何插件
- 上传 PDF、文章 → 连接 Claude → AI 自动帮你整理成结构化 Wiki
- 有可视化界面查看知识图谱和文档关联
适合:不想自己配置、想要现成可用的人
进阶选择
nvk/llm-wiki
- 支持并行多代理研究——可以同时派出多个 AI"助手"分头去调查不同的子话题
- 支持论文驱动调查模式,特别适合学术研究场景
- 三级检索模式:快速、常规、深度,灵活控制速度和精度的权衡
ussumant/llm-wiki-compiler
- 增量编译,只更新变化的部分
- 官方声称可以节省 89% 的 token
- 适合文档量大、想省成本的人
RAG vs LLM Wiki:到底好在哪?
| 维度 | 传统 RAG | LLM Wiki |
|---|---|---|
| 处理时机 | 查询时检索原文 | 入库时预编译 |
| 知识积累 | 不积累,每次从零开始 | 持续积累,越用越聪明 |
| 回答质量 | 取决于检索质量,噪音多 | 基于结构化笔记,精准度高 |
| Token 消耗 | 每次查询都大量消耗 | 编译一次,查询时消耗极低 |
| 知识关联 | 文档之间相互孤立 | 自动建立交叉引用 |
| 可审计性 | 难以追溯信息来源 | 每条笔记标注来源 |
| 规模扩展 | 文档越多,检索越慢 | 文档越多,Wiki 越丰富 |
简单来说:RAG 是"即时搜索",LLM Wiki 是"提前备课"。
当你的知识库还只有几篇文章的时候,两者差别不大。但当文档数量到达几十篇、上百篇的时候,LLM Wiki 的优势就非常明显了。
怎么选?决策树
问题 1:你会用命令行吗?
- 不会 → 选 lucasastorian/llmwiki(Web 界面,开箱即用)
问题 2:你用 Claude Code 吗?
- 是,想快速上手 → 选 ekadetov/llm-wiki(一条命令搞定)
- 是,想要完整功能 → 选 Ar9av/obsidian-wiki(功能最全)
问题 3:你做学术研究吗?
- 是 → 选 nvk/llm-wiki(多代理并行研究 + 论文驱动调查)
问题 4:你在意 API 成本吗?
- 非常在意 → 选 ussumant/llm-wiki-compiler(增量编译省 89% token)
总结
Karpathy 在他的 idea file 里写了一段话,我特别认同:
"维护知识库最繁琐的部分不是阅读或思考,而是记账本——更新交叉引用、保持摘要最新、标注新数据与旧声明的矛盾、维护数十个页面的一致性。人类放弃维基百科是因为维护负担增长比价值快。LLM 不会厌倦,不会忘记更新交叉引用,一次可以修改 15 个文件。知识库之所以保持维护,是因为维护成本接近零。"
苏米注:这就是 LLM Wiki 带来的改变:AI 不再只是回答问题的工具,而是帮你积累知识的"第二大脑"。
这篇文章讲了三件事:
- 为什么需要 LLM Wiki——传统 RAG 不积累知识,每次都从零开始,效率低下
- 它是怎么工作的——三层架构 + 四大操作,知识只编译一次,永久积累
- 怎么开始用——从 Web 版到插件版到完整框架,总有一个适合你
如果你感兴趣,我的建议是:先从一个你正在研究的小主题开始。不要一上来就想着"管理所有知识"——那太宏大了。先挑一个你最近在研究的话题,丢进去 5-10 篇文章,体验一下 AI 帮你"编译"知识的感觉。
毕竟,在这个信息爆炸的时代,比拥有知识更重要的,是知道怎么找到你需要的那一点知识。而比找到知识更重要的,是让知识自动积累、自动关联、自动更新——这恰恰就是 LLM Wiki 做的事情。
Github:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f