卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万人围观
来源: 新智元 (微信公众号) | 日期: 2026-04-02 左右 原文: 卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万人围观 精读日期: 2026-04-07
一句话总结
Karpathy 提出 LLM Wiki 范式:让大模型把原始资料「编译」成结构化的个人百科全书,取代 RAG 的「每次从零检索」模式。
核心内容
RAG 的根本缺陷
Karpathy 一针见血:RAG 每次查询都从零开始「重新发现」知识,没有任何积累(“There’s no accumulation”)。你今天问一个需要综合五篇论文的问题,AI 把碎片翻一遍拼了答案;明天换个角度再问,又得重新翻、重新拼。
LLM Wiki 三层架构
| 层 | 内容 | 谁拥有 |
|---|---|---|
| Raw Sources | 原始资料(论文、文章、代码),不可变 | 人类策划,LLM 只读 |
| The Wiki | LLM 生成的结构化 Markdown 知识库 | LLM 完全拥有,人类只读 |
| The Schema | 规则文件(CLAUDE.md / AGENTS.md) | 人机共同演化 |
核心比喻:Obsidian 是 IDE,LLM 是程序员,Wiki 是代码库。
四大操作
- 导入(Ingest):新素材触发 10-15 个 Wiki 页面的联动更新
- 查询(Query):LLM 先读 index.md 定位,再深入阅读具体页面
- 回填(File Back):查询结果存回 Wiki,形成知识复利
- 自检(Lint):定期体检——查矛盾、补空白、修链接
Farzapedia 实践
开发者 Farza 将 2500 条日记、笔记、iMessage 编译成 400 篇结构化文章的个人 Wiki。关键发现:基于文件系统的知识库比 RAG 效果天差地别。Agent 从 index.md 出发,像蜘蛛一样顺着链接找到需要的信息。
四大优势(数据主权)
- 显式(Explicit):知识不在 AI 黑箱里,可检视、可管理
- 你的(Yours):数据在本地,不在云端
- 文件优于应用(File over App):Markdown 格式通用,不被任何工具绑定
- BYOAI:随时切换 AI 服务商,数据完全可迁移
金句摘录
- “没有积累。”(There’s no accumulation.)
- “Obsidian是IDE,大模型是程序员,Wiki是代码库。”
- “它就像一个超级天才图书管理员,专门管理你的大脑——它永远在帮你把东西归到最合适的位置,而且它从不疲倦。”
- “人类负责思考,AI负责记住。”
- “1945年,Vannevar Bush只能把Memex画在纸上。2026年,你可以把它跑在你的笔记本电脑上了。”
Justin 视角
- 与当前 memory 系统的关系:你的 memory 系统已经有 Schema 层(CLAUDE.md 的记忆路由表)和分主题的知识文件(procedures.md, decisions.md 等),本质上走的是同一个方向,但缺少 Wiki 层的「编译」机制——你的记忆更像 append-only 的日志,不是主动维护的知识网络
- Obsidian 方向:同事推荐 Obsidian 做文档管理,与 Karpathy 的推荐完全一致——Markdown 文件 + 双向链接 + 图谱视图 + Git 版本控制,天然适配 LLM Wiki 范式
- 投资视角:RAG infra(向量数据库公司)的天花板可能比预期低;知识编译层和蒸馏层有新产品机会
- 可行动 takeaway:评估是否在现有 memory 体系上叠加 Wiki 编译层,让 LLM 主动维护知识网络而非只做被动记录
延伸阅读
- Karpathy 原推
- llm-wiki.md Gist
- Vannevar Bush, “As We May Think” (1945)
- Farzapedia 项目(Farza 的个人 Wiki 实践)