← All Articles

上下文工程的真正难点与一种优雅的解决方案

微信公众号/手工川 · 2026-04-07 · Original

来源: 微信公众号/手工川 | 日期: 2026-04-07 原文: 上下文工程的真正难点与一种优雅的解决方案 精读日期: 2026-04-08

一句话总结

行业花三年解决了”怎么往上下文里塞东西”,但真正卡住所有人的是”怎么让上下文保持干净”——作者提出 AutoContext,让 AI 自主感知、评估和优化自身上下文状态。

核心内容

从 Prompt 到 Context 到 Harness:输入端的三次范式跃迁

作者梳理了 2023-2026 年 AI 输入端演进的完整时间线:

时间 事件 意义
2023.6 OpenAI Function Calling 模型从”会说话”到”会指挥干活”
2024.11 Anthropic 开源 MCP 定义 AI 应用层连接标准
2025.2 Claude Code 发布 输入从 API 参数进化到项目级知识库
2025.10 Anthropic Agent Skills MCP 管连接,Skills 管认知——双层架构
2026.2 Harness Engineering 概念提出 Agent = Model + Harness

核心洞察:几乎每一次输入端范式扩展都是 Anthropic 先定义、行业再跟进。但所有这些优化解决的都是”怎么往 Context 里塞东西”,没人认真解决”怎么让 Context 保持干净”。

Context 污染:隐性的、渐进的质量退化

作者定义的核心问题:在同一 session 中连续执行多个需求后,前面任务的调试日志、错误信息、不相关代码片段占据上下文窗口,导致后续任务质量下降。大多数人的反应是”开个新对话”——丢掉所有有价值的上下文,只为逃离无价值的上下文。

现有四种方案的收益与代价

方案 核心思路 局限
主 Agent 并行 在一个对话里同时做 A/B/C 认知负载指数级上升,需求多就崩
主 Agent 串行 做完 A 接着做 B 最常见也最危险,有效注意力逐轮稀释
Fork/Rebase 回滚上下文到检查点 Claude Code 已有 /fork、/rewind、/btw 工具链,但需手动判断时机
子 Agent 不同需求分发给独立 Agent 子 Agent 发现的关键信息无法回流主 Agent

AutoContext:三层自管理机制

第一层 Sense(感知):每次新需求输入时,AI 先评估当前上下文的”信噪比”——多少内容与新需求相关,多少是噪声。

第二层 Decide(决策)

信噪比 策略
>80% 继续,无需操作
40-80% 压缩,保留相关摘要,丢弃噪声
<40% Fork,创建干净分支
<10% 全新 session

同时评估是否需要更新外部 Context(CLAUDE.md 等),将执行中发现的项目约定沉淀下来。

第三层 Evolve(进化):从每次决策中积累模式,自动更新项目配置,形成自进化的上下文管理策略。

工程实现:Plugin + Skill 双层架构

组合拳公式

AI 输出质量 = 输入质量 × 上下文质量 × 推理深度

三个工具分别解决链路上的三个瓶颈:

金句摘录

Justin 视角

延伸阅读