10+年产品经理聊聊产品、测测产品,产品人交流学习成长平台,按 Ctrl+D 收藏我们
关于我 留言板 小程序 标签云

苏米客

  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
  • 登录
  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
当前位置: 首页 » AI学习教程

LLM Wiki:AI 时代知识管理的下一个范式

2小时前 AI学习教程 8 0

"最近我发现一件非常有用的事情:用 LLM 来为自己感兴趣的研究主题构建个人知识库。这样一来,我最近大部分的 token 消耗,不再是用来「操作代码」,而是用来「操作知识」。"

这是 Andrej Karpathy——那个被称为"AI 大神"、特斯拉前 AI 总监、OpenAI 联合创始人——在 2026 年 4 月发的一条推特。

苏米注:这条推特炸了。8197 人点赞,1702 人转发。大家都在说:这可能就是 AI 时代知识管理的下一个范式。

故事从一个问题开始

你有没有过这样的经历?

你在网上看到一篇好文章,收藏了。过几天,你又看到一篇相关的,又收藏了。再过一段时间,你想找某个知识点,你记得你看过,但你不记得在哪一篇里了。于是你开始翻收藏夹,一篇一篇地点开,一页一页地找......

这就是现在大多数人使用 AI 处理知识的方式:

你问 AI 一个问题 → AI 从一堆文件里找相关内容 → AI 回答你

看起来挺方便对吧?但问题在于:每次你问问题,AI 都要重新从零开始找资料。

问你 5 次同样的主题,AI 就要找 5 次之前读过的资料。知识没有积累下来,就像熊瞎子掰玉米,掰一个丢一个。

这就是目前最流行的 RAG(检索增强生成)方式的根本缺陷。RAG 本质上是一个"临时工"——每次干活都要重新翻箱倒柜,干完就忘,下次还得重来。

苏米注:你的知识库越大,这个问题越严重。文档从 10 篇变成 100 篇,检索的噪音就指数级增长,回答质量反而下降。

Karpathy 的灵机一动

Karpathy 是最早意识到这个问题的人。

作为一个 AI 专家,他每天要读大量的论文、博客、技术文档。他发现,用传统的 RAG 方式,效率太低了。每次问问题,AI 都要从头开始"挖矿",而且经常挖到不相关的东西。

他问了自己一个问题:

"能不能让 AI 在第一次读文章的时候,就直接把要点记成笔记?然后下次问我直接读笔记就行了?"

这个想法看似简单,实则是一个范式转换。传统 RAG 是"读时检索"——你问的时候才去找。而 LLM Wiki 是"写时编译"——信息进来的时候就整理好,问的时候直接用。

这就是 LLM Wiki 的核心思路:

  1. 添加来源 → AI 编译成结构化笔记 → 知识积累下来
  2. 问 AI 问题 ← AI 直接读整理好的笔记 ← 每次都在变聪明

知识只需要"编译"一次,之后就永久积累,不再重复处理。

用一个类比来说:RAG 就像你每次考试都从头翻课本找答案,而 LLM Wiki 就像你平时就做好了笔记,考试的时候直接翻笔记。哪个快?不言而喻。

LLM Wiki 三层架构

想象你的知识管理是一个小工厂,有三层流水线:

层级 相当于 作用
原始来源 你的书架 存放原始文章、PDF、笔记,永远不改
Wiki 你的读书笔记 AI 把读过的内容整理成相互链接的笔记卡片
Schema 笔记格式说明书 告诉 AI 怎么整理笔记的规则

这三层之间的关系很清晰:原始来源是输入,Schema 是规则,Wiki 是输出。

你往"书架"上放新文章,AI 按照"说明书"的规则,自动把内容整理到"笔记本"里。笔记之间还会自动建立交叉链接——就像维基百科里的蓝色超链接一样。

注意:原始来源层是只读的,AI 永远不会修改你的原始文件。这是一个重要的设计原则——保证你的原始资料永远完整。

四大核心操作

就像一个工厂有四大工序:

  • Ingest(摄取) - 把新文章丢给 AI,它自动提取要点写成笔记。支持 PDF、Markdown、网页链接、甚至截图。AI 不只是摘抄,而是理解内容后重新组织,并自动跟已有笔记建立关联。
  • Query(查询) - 问 AI 问题,它从整理好的笔记里回答。因为笔记已经是结构化的,所以回答速度更快、更准确,而且每个回答都会标注来源。
  • Lint(检查) - 让 AI 检查笔记有没有问题:是不是有矛盾的地方?有没有过时的信息?有没有孤立的页面没跟其他笔记连起来?这就像代码的 lint 工具,帮你保持知识库的健康。
  • Writeback(写回) - 好的问答结果也要存进笔记里,让知识沉淀。你问了一个好问题,AI 给了一个好答案,这个答案本身也是一种知识——Writeback 会把它也编入 Wiki 里。

这四个操作形成了一个知识飞轮:你读得越多,Wiki 越丰富;Wiki 越丰富,回答越精准;回答越精准,Writeback 进来的知识质量越高......循环往复,知识库越来越"聪明"。

这就是为什么 Karpathy 说:"正确的使用 LLM 的方式不是问答,而是编译。"

6 个推荐开源项目

第一类:功能最全

推荐 Ar9av/obsidian-wiki

这是目前功能最完整的实现框架,包含 13 个技能文件,覆盖完整流程。

  • 支持多种 AI:Claude Code、Cursor、Windsurf、Codex 等都能用
  • 自动追踪哪些文件处理过了,不重复劳动(Delta tracking)
  • 支持图片、截图(需要带视觉的 AI),可以把论文里的图表也"编译"进知识库
  • 来源追踪:每条笔记标明是"提取的"还是"AI 推测的"
  • 与 Obsidian 深度集成,生成的 Wiki 直接就是 Obsidian vault

适合:想要完整功能、愿意花时间设置的人

git clone https://github.com/Ar9av/obsidian-wiki.git
cd obsidian-wiki
bash setup.sh

第二类:最简单

推荐 ekadetov/llm-wiki

Claude Code 插件形式,安装即用。

  • 一键安装,一个命令就自动帮你建好完整目录结构
  • 只有几个核心命令:init、ingest、compile、query、lint
  • 自动安装依赖
  • 内置幻灯片生成功能——可以把知识库里的内容直接导出为演示文稿

适合:想要最快上手、不想折腾的人

claude plugin install github:ekadetov/llm-wiki
然后说 /llm-wiki: wiki init 我的第一个知识库

第三类:不用动手

推荐 lucasastorian/llmwiki

这是唯一一个提供在线托管服务的实现。

  • 一个完整的 Web 应用,有现成的网站 llmwiki.app,打开浏览器就能用
  • 不用自己搭建服务器,不用配置环境,不用装任何插件
  • 上传 PDF、文章 → 连接 Claude → AI 自动帮你整理成结构化 Wiki
  • 有可视化界面查看知识图谱和文档关联

适合:不想自己配置、想要现成可用的人

进阶选择

nvk/llm-wiki

  • 支持并行多代理研究——可以同时派出多个 AI"助手"分头去调查不同的子话题
  • 支持论文驱动调查模式,特别适合学术研究场景
  • 三级检索模式:快速、常规、深度,灵活控制速度和精度的权衡

ussumant/llm-wiki-compiler

  • 增量编译,只更新变化的部分
  • 官方声称可以节省 89% 的 token
  • 适合文档量大、想省成本的人

RAG vs LLM Wiki:到底好在哪?

维度 传统 RAG LLM Wiki
处理时机 查询时检索原文 入库时预编译
知识积累 不积累,每次从零开始 持续积累,越用越聪明
回答质量 取决于检索质量,噪音多 基于结构化笔记,精准度高
Token 消耗 每次查询都大量消耗 编译一次,查询时消耗极低
知识关联 文档之间相互孤立 自动建立交叉引用
可审计性 难以追溯信息来源 每条笔记标注来源
规模扩展 文档越多,检索越慢 文档越多,Wiki 越丰富

简单来说:RAG 是"即时搜索",LLM Wiki 是"提前备课"。

当你的知识库还只有几篇文章的时候,两者差别不大。但当文档数量到达几十篇、上百篇的时候,LLM Wiki 的优势就非常明显了。

怎么选?决策树

问题 1:你会用命令行吗?

  • 不会 → 选 lucasastorian/llmwiki(Web 界面,开箱即用)

问题 2:你用 Claude Code 吗?

  • 是,想快速上手 → 选 ekadetov/llm-wiki(一条命令搞定)
  • 是,想要完整功能 → 选 Ar9av/obsidian-wiki(功能最全)

问题 3:你做学术研究吗?

  • 是 → 选 nvk/llm-wiki(多代理并行研究 + 论文驱动调查)

问题 4:你在意 API 成本吗?

  • 非常在意 → 选 ussumant/llm-wiki-compiler(增量编译省 89% token)

总结

Karpathy 在他的 idea file 里写了一段话,我特别认同:

"维护知识库最繁琐的部分不是阅读或思考,而是记账本——更新交叉引用、保持摘要最新、标注新数据与旧声明的矛盾、维护数十个页面的一致性。人类放弃维基百科是因为维护负担增长比价值快。LLM 不会厌倦,不会忘记更新交叉引用,一次可以修改 15 个文件。知识库之所以保持维护,是因为维护成本接近零。"

苏米注:这就是 LLM Wiki 带来的改变:AI 不再只是回答问题的工具,而是帮你积累知识的"第二大脑"。

这篇文章讲了三件事:

  1. 为什么需要 LLM Wiki——传统 RAG 不积累知识,每次都从零开始,效率低下
  2. 它是怎么工作的——三层架构 + 四大操作,知识只编译一次,永久积累
  3. 怎么开始用——从 Web 版到插件版到完整框架,总有一个适合你

如果你感兴趣,我的建议是:先从一个你正在研究的小主题开始。不要一上来就想着"管理所有知识"——那太宏大了。先挑一个你最近在研究的话题,丢进去 5-10 篇文章,体验一下 AI 帮你"编译"知识的感觉。

毕竟,在这个信息爆炸的时代,比拥有知识更重要的,是知道怎么找到你需要的那一点知识。而比找到知识更重要的,是让知识自动积累、自动关联、自动更新——这恰恰就是 LLM Wiki 做的事情。

Github:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。
未经允许不得转载:LLM Wiki:AI 时代知识管理的下一个范式
#LLM Wiki #知识管理 #Karpathy #RAG #AI 编译 
收藏 1
Hermes Agent VS OpenClaw,2026 年,个人 AI Agent 双雄时代,会自我进化的个人 AI 助手
OpenCLI 神器:一个工具搞定公众号/小红书/B 站数据获取
推荐阅读
  • 手把手教你用 OpenCode +Remotion Skills 制作AI视频全流程,从零到视频制作实践
  • 手把手教你在window上部署Copaw,极简安装并接入飞书快速搭建你的AI个人助理
  • 限时免费!Boardmix(博思白板)刚刚上线的 AI 绘图智能体,我试了试~
  • 谷歌 Gemma 4 本地部署教程:Ollama 三步搞定零成本养虾
  • 讯飞星辰白嫖国产最新三大模型实操教程,让你的OpenClaw火力全开
评论 (0)
请登录后发表评论
分类精选
Cursor永久免费攻略:无限邮箱注册+重置机器码+Cursor试用期重置工具实现永久免费使用
45955 1年前
手把手教你如何使用扣子Coze搭建“文生图” AI Bot
19124 1年前
n8n新手入门指南:5 分钟本地部署 + 中文汉化 + 快速启动,玩转工作流(Docker版)
18003 9月前
安装字节Trae登录提示App Unavailable(应用程序不可用)解决办法,这份官方指南请收好!
17384 1年前
Gemini CLI 装好了,登录异常怎么办?手把手教你解决 Gemini CLI 登录问题
14212 9月前
零基础上手 VSCode + Claude Code + GLM-4.6 保姆级安装配置教程
14051 5月前
一文搞懂什么是 Vibe Coding?Vibe Coding工具推荐及Cursor编程开发实践
13986 11月前
AI 概念篇:Token是什么?一文讲清楚Token分词、窗口、计费与常用计算工具
13259 3月前
手把手教你使用 Gemini 2.5 Pro 免费 API搭建本地知识库,一键接入 Gemini!
12915 9月前
手把手教你快速入门OpenCode + GLM-4.7 + Oh-My-Opencode + Skills 安装配置与高效使用指南
11426 2月前

文章目录

关注「苏米客」公众号

订阅推送更及时,手机查看更方便
分类排行
1 LLM Wiki:AI 时代知识管理的下一个范式
2 腾讯 ima+WorkBuddy 进阶教程:5 个高效自动化工作流实战
3 腾讯 ima+WorkBuddy 实战指南:7 个高频问题与解决方案
4 Gemma 4 端侧部署完整指南:手机/RK3588/笔记本硬件选型与部署步骤
5 OpenRouter 免费 Qwen3.6-Plus 接入 OpenClaw 教程:2 种配置方法详解
6 如何用即梦 CLI 让 AI 助手拥有完整的内容配图能力,从手动去水印到一行命令出图
7 小白必看!3 分钟用 WorkBuddy 拯救你的工作效率
8 OpenClaw 日程管理教程:AI 助手 + 结构化数据 + Cron 提醒,构建自动化日程系统
9 腾讯 WorkBuddy 保姆级教程:免部署 AI 办公智能体,10 分钟上手自动办公
10 OpenClaw 浏览器自动化教程:Chrome DevTools Attach Mode 接管浏览器,自然语言操控网页
©2015-2024 苏米客XMSUMI 版权所有 · WWW.XMSUMI.COM 闽ICP备14005900号-6
微信文章助手 程序库 免费影视APP 免费字体下载 Axure RP 10 免费Axure模板 Axure元件库下载 申请友联