主动式上下文工程(ACE)是传统提示工程(Prompt Engineering)的进化形式,它超越了静态地向模型输入一个优化过的提示词。
ACE 的核心思想是:让 AI 智能体/模型能够主动、动态地收集、处理、选择和生成其所需的上下文(Context),从而在多步骤、复杂任务中保持一致性、准确性和深度。
1. 为什么需要 ACE?
传统的 LLM 在处理复杂或多步骤任务时面临两大挑战:
上下文窗口限制:模型的输入窗口是有限的,无法容纳执行复杂任务所需的所有信息(例如:阅读一个项目的全部代码库和白皮书)。
上下文漂移 (Context Drift):在一个长对话或一系列任务中,模型可能会忘记早期指令或信息,导致输出偏离最初的目标。
ACE 通过赋予 AI **自我感知(Self-Awareness)、自我查询(Self-Query)和自我更新(Self-Refinement)**的能力来解决这些问题。
2. ACE 的三大核心组成部分
ACE 的工作流可以分解为三个相互关联的阶段,它们模拟了人类解决复杂问题时的思维过程:
目标:主动识别当前任务所缺乏的关键信息。
机制:AI 智能体不满足于初始提示,而是根据任务目标(Goal)和当前状态(State),主动生成额外的查询(例如:搜索查询、数据库查询、函数调用)。
实例:智能体需要评估一个 DeFi 协议的风险,它会主动查询:“该协议的合约是否经过审计?”、“近六个月的锁仓量(TVL)变化趋势如何?”。
目标:高效地管理和提取所有收集到的信息。
机制:使用RAG (Retrieval-Augmented Generation)架构,通常是向量数据库,将大量外部文档和历史对话转换为可检索的向量表示。
实例:智能体将查询到的 TVL 数据、审计报告的摘要、历史风险评估结果等存储起来。当执行下一步任务时,它能根据当前需求精确检索相关的历史信息。
目标:在每次生成输出之前,构建一个最小且最优的上下文块。
机制:智能体根据任务的当前步骤,从检索系统中选择最相关的少量信息,并结合内部推理链(Chain-of-Thought),形成一个临时的、高度优化的上下文,再喂给 LLM。
实例:在生成最终风险报告时,模型会构建这样的上下文:“目标:生成风险等级。已知信息:审计无重大漏洞,但TVL在下降 30%。”——模型基于这个动态情境,得出最终结论。
ACE 在 Web3 中的实例说明
ACE 架构在 Web3 领域具有天然的优势,因为它能处理高复杂性、高风险且信息分散的任务,例如 DeFi 协议分析、链上治理决策等。
实例:一个 DAO 治理智能体 (dAgent)
假设一个 DAO 雇佣了一个 ACE 驱动的智能体来协助其成员评估一个复杂的跨链提案。
| 步骤 | dAgent的ACE行动 | 对应的ACE阶段 | 结果与价值 |
| 1. 接收任务 | 接收到 DAO 提案:“是否批准向 X 协议提供 100 万美元流动性?” | 任务初始化 | 任务目标确立。 |
| 2. 初始查询 | 智能体主动生成多个查询:1. X 协议合约的 GithubRepo。2. 过去 90 天的 AUM 变化。3. 合作方 Y 的信誉。 | 感知与查询 | 确保信息全面性,弥补 DAO 提案的不足。 |
| 3. 数据处理 | 智能体下载 Repo 代码,并用 CodeLLM 进行初步安全分析;将 AUM 数据转化为向量并存储。 | 存储与检索 | 原始数据被转化为可查询、可引用的上下文。 |
| 4. 风险评估 | 智能体根据风险评估框架,从存储中检索“审计结果摘要”和“历史风险报告”,生成风险评分草稿。 | 动态情境生成 | 基于事实与框架的初稿,减少模型的臆想成分。 |
| 5. 最终报告 | 智能体综合风险评分草稿和最初的 DAO 提案,生成一份简洁、可追溯的建议报告,并引用其查询到的数据来源(AUM 链接、审计 Hash)。 | 生成最终输出 | 最终输出是透明且可验证的,这是 Web3 信任的关键。 |
核心价值总结
在 Web3 中,ACE 赋予智能体可验证性(Verifiability)和可信赖性(Trustworthiness):
透明度:智能体能够指出其信息的来源和推理的依据,使得 DAO 成员可以追溯和验证其结论。
深度分析:能够处理动辄数万行代码的智能合约和复杂的经济模型,这是传统提示工程无法企及的深度。
ACE 是将 AI 从一个简单的文本生成工具,转变为 Web3 中自主、可信赖的执行和决策实体的关键桥梁。