“构建 AI 应用的重心,已经从提示词工程转向上下文工程。”
就在 Anthropic 推出 Claude Sonnet 4.5 的第二天,其工程团队发布了一篇极具前瞻性的博客:《AI 智能体的高效上下文设计》。这篇博文不仅呼应了 Andrej Karpathy 的观点,也正式宣告了 “上下文工程”(Context Engineering) 正成为构建工业级大模型应用的核心方法论。
本文将带你深入解读这篇博客的核心思想,系统梳理上下文工程与提示词工程的区别、为何它如此重要,以及如何在实践中构建高效的上下文结构。
一、从“提示词工程”到“上下文工程”:一场范式迁移
1.1 什么是“上下文” Context?
在大语言模型(LLM)中,上下文指的是模型在采样生成时所能看到的所有 token,包括:
- 系统提示(System Prompt)
- 用户输入与对话历史
- 工具调用记录
- 外部数据检索结果
- 模型输出及反馈
换句话说:上下文 = LLM 当前状态下能“看到”的全部信息。
1.2 提示词工程 vs 上下文工程
| 维度 |
提示词工程(Prompt Engineering) |
上下文工程(Context Engineering) |
| 核心目标 |
编写最优提示以获得理想输出 |
在整个推理过程中管理最优信息集合 |
| 关注点 |
单次请求的指令设计 |
多轮交互中的状态持续优化 |
| 时间范围 |
静态、一次性 |