AI 智能体时代的上下文工程剖析

Source

“构建 AI 应用的重心,已经从提示词工程转向上下文工程。”
 

就在 Anthropic 推出 Claude Sonnet 4.5 的第二天,其工程团队发布了一篇极具前瞻性的博客:《AI 智能体的高效上下文设计》。这篇博文不仅呼应了 Andrej Karpathy 的观点,也正式宣告了 上下文工程”(Context Engineering) 正成为构建工业级大模型应用的核心方法论。

本文将带你深入解读这篇博客的核心思想,系统梳理上下文工程与提示词工程的区别、为何它如此重要,以及如何在实践中构建高效的上下文结构。


一、从“提示词工程”到“上下文工程”:一场范式迁移

1.1 什么是“上下文” Context?

在大语言模型(LLM)中,上下文指的是模型在采样生成时所能看到的所有 token,包括:

  • 系统提示(System Prompt)
  • 用户输入与对话历史
  • 工具调用记录
  • 外部数据检索结果
  • 模型输出及反馈

换句话说:上下文 = LLM 当前状态下能“看到”的全部信息。

1.2 提示词工程 vs 上下文工程

维度

提示词工程(Prompt Engineering)

上下文工程(Context Engineering)

核心目标

编写最优提示以获得理想输出

在整个推理过程中管理最优信息集合

关注点

单次请求的指令设计

多轮交互中的状态持续优化

时间范围

静态、一次性