上下文管理
“Context” 是一个含义很广的术语。你可能关心的上下文主要有两类:
- 你的代码在一次运行期间可以访问的本地上下文:工具所需的依赖或数据、如
onHandoff的回调,以及生命周期钩子。 - 语言模型在生成响应时可见的智能体/LLM 上下文。
本地上下文由 RunContext<T> 类型表示。你可以创建任意对象来保存状态或依赖,并将它传递给 Runner.run()。所有工具调用和钩子都会接收一个 RunContext 包装器,以便读取或修改该对象。
import { Agent, run, RunContext, tool } from '@openai/agents';import { z } from 'zod';
interface UserInfo { name: string; uid: number;}
const fetchUserAge = tool({ name: 'fetch_user_age', description: 'Return the age of the current user', parameters: z.object({}), execute: async ( _args, runContext?: RunContext<UserInfo>, ): Promise<string> => { return `User ${runContext?.context.name} is 47 years old`; },});
async function main() { const userInfo: UserInfo = { name: 'John', uid: 123 };
const agent = new Agent<UserInfo>({ name: 'Assistant', tools: [fetchUserAge], });
const result = await run(agent, 'What is the age of the user?', { context: userInfo, });
console.log(result.finalOutput); // The user John is 47 years old.}
main().catch((error) => { console.error(error); process.exit(1);});参与同一次运行的每个智能体、工具和钩子都必须使用相同类型的上下文。
将本地上下文用于以下场景:
- 有关本次运行的数据(用户名、ID 等)
- 依赖项,例如日志记录器或数据获取器
- 帮助函数
智能体/LLM 上下文
Section titled “智能体/LLM 上下文”当调用 LLM 时,它唯一可见的数据来自对话历史。要提供额外信息,你可以:
- 将信息添加到智能体的
instructions——也称为系统或开发者消息。它可以是静态字符串,或接收上下文并返回字符串的函数。 - 在调用
Runner.run()时,将其包含在input中。这与 instructions 的方式类似,但允许你将消息放在指令链中更靠后的位置。 - 通过函数工具暴露信息,让 LLM 按需获取数据。
- 使用检索或 Web 搜索工具,使响应以来自文件、数据库或 Web 的相关数据为依据。