智能体
智能体是 OpenAI Agents SDK 的核心构建模块。一个Agent是一个已完成如下配置的大语言模型(LLM):
- Instructions——告知模型它是谁以及应如何回复的系统提示。
- Model——要调用的 OpenAI 模型,以及可选的模型调优参数。
- Tools——LLM 可调用以完成任务的函数或 API 列表。
import { Agent } from '@openai/agents';
const agent = new Agent({ name: 'Haiku Agent', instructions: 'Always respond in haiku form.', model: 'gpt-5.4', // optional – falls back to the default model});当您想定义或定制单个
Agent时,请使用本页。如果您在决定多个智能体应如何协作,请阅读智能体编排。
后续指南选择
Section titled “后续指南选择”将本页作为智能体定义的中心。根据您下一步需要做的决策,跳转到对应指南。
| 如果您想要…… | 下一步阅读 |
|---|---|
| 选择模型或配置存储提示 | 模型 |
| 为智能体添加能力 | 工具 |
| 在管理者与交接之间做选择 | 智能体编排 |
| 配置交接行为 | 交接 |
| 运行轮次、流式传输事件或管理状态 | 运行智能体 |
| 检查最终输出、运行条目或恢复执行 | 执行结果 |
本页剩余部分将更详细地介绍 Agent 的各项功能。
Agent 构造函数接收一个配置对象。最常用的属性如下所示。
| 属性 | 必填 | 说明 |
|---|---|---|
name | 是 | 简短、可读的人类标识符。 |
instructions | 是 | 系统提示(字符串或函数——参见动态说明)。 |
prompt | 否 | OpenAI Responses API 的 prompt 配置。支持静态 prompt 对象或函数。参见Prompt。 |
handoffDescription | 否 | 当该智能体作为交接工具提供时使用的简短描述。 |
handoffs | 否 | 将对话委派给专用智能体。参见组合模式和交接指南。 |
model | 否 | 模型名称或自定义 Model 实现。 |
modelSettings | 否 | 调优参数(temperature、top_p 等)。参见模型。如果所需属性不在顶层,可放在 providerData 下。 |
tools | 否 | 模型可调用的 Tool 实例数组。参见工具。 |
mcpServers | 否 | 智能体可用的 MCP 支持工具。参见MCP 集成指南。 |
inputGuardrails | 否 | 应用于此智能体链路首个用户输入的护栏。参见护栏。 |
outputGuardrails | 否 | 应用于此智能体最终输出的护栏。参见护栏。 |
outputType | 否 | 返回结构化输出而非纯文本。参见输出类型和执行结果。 |
toolUseBehavior | 否 | 控制函数工具结果是回传给模型继续处理,还是直接结束运行。参见强制工具使用。 |
resetToolChoice | 否 | 工具调用后将 toolChoice 重置为默认值(默认:true),以防止工具调用循环。参见强制工具使用。 |
handoffOutputTypeWarningEnabled | 否 | 当交接输出类型不一致时发出警告(默认:true)。参见执行结果。 |
import { Agent, tool } from '@openai/agents';import { z } from 'zod';
const getWeather = tool({ name: 'get_weather', description: 'Return the weather for a given city.', parameters: z.object({ city: z.string() }), async execute({ city }) { return `The weather in ${city} is sunny.`; },});
const agent = new Agent({ name: 'Weather bot', instructions: 'You are a helpful weather bot.', model: 'gpt-4.1', tools: [getWeather],});智能体在其上下文类型上是泛型的——即 Agent<TContext, TOutput>。上下文是您创建并传给 Runner.run() 的依赖注入对象。它会传递给每个工具、护栏、交接等,适合存储状态或提供共享服务(数据库连接、用户元数据、功能开关等)。
import { Agent } from '@openai/agents';
interface Purchase { id: string; uid: string; deliveryStatus: string;}interface UserContext { uid: string; isProUser: boolean;
// this function can be used within tools fetchPurchases(): Promise<Purchase[]>;}
const agent = new Agent<UserContext>({ name: 'Personal shopper', instructions: 'Recommend products the user will love.',});
// Laterimport { run } from '@openai/agents';
const result = await run(agent, 'Find me a new pair of running shoes', { context: { uid: 'abc', isProUser: true, fetchPurchases: async () => [] },});默认情况下,Agent 返回纯文本(string)。如果您希望模型返回结构化对象,可指定 outputType 属性。SDK 支持:
- Zod schema(
z.object({...}))。 - 任意兼容 JSON schema 的对象。
import { Agent } from '@openai/agents';import { z } from 'zod';
const CalendarEvent = z.object({ name: z.string(), date: z.string(), participants: z.array(z.string()),});
const extractor = new Agent({ name: 'Calendar extractor', instructions: 'Extract calendar events from the supplied text.', outputType: CalendarEvent,});提供 outputType 后,SDK 会自动使用structured outputs,而不是纯文本。
OpenAI 平台映射
Section titled “OpenAI 平台映射”一些智能体概念与 OpenAI 平台概念一一对应,另一些则是在运行智能体时而非定义时配置。
| SDK 概念 | OpenAI 指南 | 适用场景 |
|---|---|---|
outputType | Structured Outputs | 智能体应返回带类型的 JSON 或经 Zod 校验的对象,而非文本。 |
tools / 托管工具 | Tools guide | 模型应执行搜索、检索、代码执行或调用您的函数/工具。 |
conversationId / previousResponseId | Conversation state | 您希望 OpenAI 在轮次之间持久化或串联对话状态。 |
conversationId 和 previousResponseId 是运行时控制项,不是 Agent 构造字段。需要这些 SDK 入口时,请使用运行智能体。
当智能体参与更大的工作流时,最常见的两个 SDK 入口是:
- 管理者(Agents as tools)——中心智能体掌控对话,并调用以工具形式暴露的专用智能体。
- 交接——初始智能体在识别用户请求后,将整个对话委派给专用智能体。
这两种方式可以互补。管理者模式便于在单点实施护栏或速率限制;交接模式让每个智能体专注单一任务,而无需持续掌控对话。关于设计权衡和选型时机,请参见智能体编排。
管理者(Agents as tools)
Section titled “管理者(Agents as tools)”在此模式下,管理者永不移交控制权——LLM 使用工具,管理者汇总最终答案。更多内容见工具指南。
import { Agent } from '@openai/agents';
const bookingAgent = new Agent({ name: 'Booking expert', instructions: 'Answer booking questions and modify reservations.',});
const refundAgent = new Agent({ name: 'Refund expert', instructions: 'Help customers process refunds and credits.',});
const customerFacingAgent = new Agent({ name: 'Customer-facing agent', instructions: 'Talk to the user directly. When they need booking or refund help, call the matching tool.', tools: [ bookingAgent.asTool({ toolName: 'booking_expert', toolDescription: 'Handles booking questions and requests.', }), refundAgent.asTool({ toolName: 'refund_expert', toolDescription: 'Handles refund questions and requests.', }), ],});在交接模式下,分诊智能体负责路由请求;一旦发生交接,专用智能体将接管对话,直到产出最终输出。这能保持提示简洁,并让您可独立分析每个智能体。更多内容见交接指南。
import { Agent } from '@openai/agents';
const bookingAgent = new Agent({ name: 'Booking Agent', instructions: 'Help users with booking requests.',});
const refundAgent = new Agent({ name: 'Refund Agent', instructions: 'Process refund requests politely and efficiently.',});
// Use Agent.create method to ensure the finalOutput type considers handoffsconst triageAgent = Agent.create({ name: 'Triage Agent', instructions: `Help the user with their questions. If the user asks about booking, hand off to the booking agent. If the user asks about refunds, hand off to the refund agent.`.trimStart(), handoffs: [bookingAgent, refundAgent],});如果您的交接目标可能返回不同输出类型,建议使用 Agent.create(...) 而不是 new Agent(...)。这样 TypeScript 可以推断交接图中 finalOutput 可能形态的联合类型,并避免由 handoffOutputTypeWarningEnabled 控制的运行时警告。完整示例参见执行结果指南。
高级配置与运行时控制
Section titled “高级配置与运行时控制”instructions 可以是函数而非字符串。该函数接收当前 RunContext 和 Agent 实例,可返回字符串或Promise<string>。
import { Agent, RunContext } from '@openai/agents';
interface UserContext { name: string;}
function buildInstructions(runContext: RunContext<UserContext>) { return `The user's name is ${runContext.context.name}. Be extra friendly!`;}
const agent = new Agent<UserContext>({ name: 'Personalized helper', instructions: buildInstructions,});支持同步函数和 async 函数。
prompt 支持与 instructions 相同的回调形态,但返回的是 prompt 配置对象而非字符串。这在 prompt ID、版本或变量依赖当前运行上下文时很有用。
import { Agent, RunContext } from '@openai/agents';
interface PromptContext { customerTier: 'free' | 'pro';}
function buildPrompt(runContext: RunContext<PromptContext>) { return { promptId: 'pmpt_support_agent', version: '7', variables: { customer_tier: runContext.context.customerTier, }, };}
const agent = new Agent<PromptContext>({ name: 'Prompt-backed helper', prompt: buildPrompt,});仅在使用 OpenAI Responses API 时支持。支持同步函数和 async 函数。
生命周期钩子
Section titled “生命周期钩子”在高级用例中,您可以通过监听事件观察 Agent 生命周期。
Agent 实例会为该实例发出生命周期事件,而 Runner 会在整个运行过程中以单一事件流发出相同事件名。这对多智能体工作流很有用,便于在一个位置观察交接和工具调用。
共享事件名如下:
| 事件 | Agent 钩子参数 | Runner 钩子参数 |
|---|---|---|
agent_start | (context, agent, turnInput?) | (context, agent, turnInput?) |
agent_end | (context, output) | (context, agent, output) |
agent_handoff | (context, nextAgent) | (context, fromAgent, toAgent) |
agent_tool_start | (context, tool, { toolCall }) | (context, agent, tool, { toolCall }) |
agent_tool_end | (context, tool, result, { toolCall }) | (context, agent, tool, result, { toolCall }) |
import { Agent } from '@openai/agents';
const agent = new Agent({ name: 'Verbose agent', instructions: 'Explain things thoroughly.',});
agent.on('agent_start', (ctx, agent) => { console.log(`[${agent.name}] started`);});agent.on('agent_end', (ctx, output) => { console.log(`[agent] produced:`, output);});护栏允许您校验或转换用户输入与智能体输出。它们通过 inputGuardrails 和 outputGuardrails 数组配置。详见护栏指南。
智能体克隆与复制
Section titled “智能体克隆与复制”需要现有智能体的一个小改动版本?使用 clone() 方法,它会返回一个全新的 Agent 实例。
import { Agent } from '@openai/agents';
const pirateAgent = new Agent({ name: 'Pirate', instructions: 'Respond like a pirate – lots of “Arrr!”', model: 'gpt-5.4',});
const robotAgent = pirateAgent.clone({ name: 'Robot', instructions: 'Respond like a robot – be precise and factual.',});强制工具使用
Section titled “强制工具使用”提供工具并不保证 LLM 会调用。您可以通过 modelSettings.toolChoice 强制工具使用:
'auto'(默认)——由 LLM 决定是否使用工具。'required'——LLM 必须调用工具(可自行选择调用哪个)。'none'——LLM 不得调用工具。- 指定工具名,例如
'calculator'——LLM 必须调用该工具。
当可用工具是 OpenAI Responses 上的 computerTool() 时,toolChoice: 'computer' 有特殊含义:它会强制使用 GA 内置计算机工具,而不是把 'computer' 当作普通函数名。SDK 也接受适配旧集成的预览兼容计算机选择器,但新代码应优先使用 'computer'。若无可用计算机工具,该字符串会像其他函数工具名一样处理。
import { Agent, tool } from '@openai/agents';import { z } from 'zod';
const calculatorTool = tool({ name: 'Calculator', description: 'Use this tool to answer questions about math problems.', parameters: z.object({ question: z.string() }), execute: async (input) => { throw new Error('TODO: implement this'); },});
const agent = new Agent({ name: 'Strict tool user', instructions: 'Always answer using the calculator tool.', tools: [calculatorTool], modelSettings: { toolChoice: 'required' },});当您使用延迟加载的 Responses 工具(如 toolNamespace())、设置了 deferLoading: true 的函数工具,或设置了 deferLoading: true 的托管 MCP 工具时,请将 modelSettings.toolChoice 保持为 'auto'。SDK 会拒绝按名称强制调用延迟工具或内置 tool_search 辅助工具,因为模型需要自行决定何时加载这些定义。完整的 tool-search 配置请参见工具指南。
无限循环防护
Section titled “无限循环防护”工具调用后,SDK 会自动将 toolChoice 重置为 'auto'。这可防止模型陷入反复调用工具的无限循环。您可通过 resetToolChoice 标志或配置 toolUseBehavior 来覆盖此行为:
'run_llm_again'(默认)——携带工具结果再次运行 LLM。'stop_on_first_tool'——将第一次工具结果视为最终答案。{ stopAtToolNames: ['my_tool'] }——当调用到列表中任一工具时停止。(context, toolResults) => ...——返回是否应结束运行的自定义函数。
const agent = new Agent({ ..., toolUseBehavior: 'stop_on_first_tool',});注意:toolUseBehavior 仅适用于函数工具。托管工具始终会将结果返回给模型处理。