← All Articles

卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万人围观

新智元 (微信公众号) · 2026-04-07 · Original

来源: 新智元 (微信公众号) | 日期: 2026-04-02 左右 原文: 卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万人围观 精读日期: 2026-04-07

一句话总结

Karpathy 提出 LLM Wiki 范式:让大模型把原始资料「编译」成结构化的个人百科全书,取代 RAG 的「每次从零检索」模式。

核心内容

RAG 的根本缺陷

Karpathy 一针见血:RAG 每次查询都从零开始「重新发现」知识,没有任何积累(“There’s no accumulation”)。你今天问一个需要综合五篇论文的问题,AI 把碎片翻一遍拼了答案;明天换个角度再问,又得重新翻、重新拼。

LLM Wiki 三层架构

内容 谁拥有
Raw Sources 原始资料(论文、文章、代码),不可变 人类策划,LLM 只读
The Wiki LLM 生成的结构化 Markdown 知识库 LLM 完全拥有,人类只读
The Schema 规则文件(CLAUDE.md / AGENTS.md) 人机共同演化

核心比喻:Obsidian 是 IDE,LLM 是程序员,Wiki 是代码库。

四大操作

  1. 导入(Ingest):新素材触发 10-15 个 Wiki 页面的联动更新
  2. 查询(Query):LLM 先读 index.md 定位,再深入阅读具体页面
  3. 回填(File Back):查询结果存回 Wiki,形成知识复利
  4. 自检(Lint):定期体检——查矛盾、补空白、修链接

Farzapedia 实践

开发者 Farza 将 2500 条日记、笔记、iMessage 编译成 400 篇结构化文章的个人 Wiki。关键发现:基于文件系统的知识库比 RAG 效果天差地别。Agent 从 index.md 出发,像蜘蛛一样顺着链接找到需要的信息。

四大优势(数据主权)

金句摘录

Justin 视角

延伸阅读