跳转到内容

模型

每个 Agent 最终都会调用一个 LLM。SDK 通过两个轻量级接口对模型进行了抽象:

  • Model——知道如何针对特定 API 发起一次请求。
  • ModelProvider——将人类可读的模型名称(例如 'gpt‑5.4')解析为 Model 实例。

在日常使用中,您通常只会与模型名称以及偶尔使用的 ModelSettings 打交道。

为每个智能体指定模型
import { Agent } from '@openai/agents';
const agent = new Agent({
name: 'Creative writer',
model: 'gpt-5.4',
});

当您在初始化 Agent 时未指定模型,将使用默认模型。当前默认值是 gpt-4.1,以兼顾兼容性和低延迟。如果您有权限访问,我们建议将智能体设置为 gpt-5.4 以获得更高质量,同时保留显式的 modelSettings

如果您想切换到其他模型,例如 gpt-5.4,可以通过两种方式配置智能体。

首先,如果您希望所有未设置自定义模型的智能体始终使用某个特定模型,请在运行智能体之前设置 OPENAI_DEFAULT_MODEL 环境变量。

Terminal window
export OPENAI_DEFAULT_MODEL=gpt-5.4
node my-awesome-agent.js

其次,您可以为 Runner 实例设置一个默认模型。如果没有为某个智能体设置模型,则会使用该 Runner 的默认模型。

为 Runner 设置默认模型
import { Runner } from '@openai/agents';
const runner = new Runner({ model: 'gpt‑4.1-mini' });

当您以这种方式使用任何 GPT-5.x 模型(例如 gpt-5.4)时,SDK 会应用默认的 modelSettings。它会设置最适合大多数场景的默认值。若要调整默认模型的推理强度,请传入您自己的 modelSettings

自定义 GPT-5 默认设置
import { Agent } from '@openai/agents';
const myAgent = new Agent({
name: 'My Agent',
instructions: "You're a helpful agent.",
// If OPENAI_DEFAULT_MODEL=gpt-5.4 is set, passing only modelSettings works.
// It's also fine to pass a GPT-5.x model name explicitly:
model: 'gpt-5.4',
modelSettings: {
reasoning: { effort: 'high' },
text: { verbosity: 'low' },
},
});

如果延迟很重要,请先在 gpt-5.4 上使用 reasoning.effort: "none",仅在任务确实需要更审慎推理时再提高。gpt-4.1 系列(包括 mini 和 nano 变体)在构建交互式智能体应用时仍然是可靠的选择。

如果您传入非 GPT-5 的模型名称且未提供自定义 modelSettings,SDK 会回退到与任意模型兼容的通用 modelSettings


默认的 ModelProvider 使用 OpenAI API 解析名称。它支持两个不同的端点:

API用途调用 setOpenAIAPI()
Chat Completions标准聊天与函数调用setOpenAIAPI('chat_completions')
Responses新的以流式传输优先的生成式 API(工具调用、灵活输出)setOpenAIAPI('responses') (默认)
设置默认 OpenAI key
import { setDefaultOpenAIKey } from '@openai/agents';
setDefaultOpenAIKey(process.env.OPENAI_API_KEY!); // sk-...

如果您需要自定义网络设置,也可以通过 setDefaultOpenAIClient(client) 注入您自己的 OpenAI 客户端。

当您将 OpenAI provider 与 Responses API 一起使用时,可以通过 WebSocket 传输发送请求,而不是默认的 HTTP 传输。

可通过 setOpenAIResponsesTransport('websocket') 全局启用,也可通过 new OpenAIProvider({ useResponses: true, useResponsesWebSocket: true }) 为单个 provider 启用。

仅为了使用 WebSocket 传输,您不需要 withResponsesWebSocketSession(...) 或自定义 OpenAIProvider。如果每次运行/请求时重新连接是可以接受的,那么在启用 setOpenAIResponsesTransport('websocket') 后,现有的 run() / Runner.run() 用法仍可继续工作。

传输方式的选择遵循模型解析逻辑:

  • setOpenAIResponsesTransport('websocket') 只会影响之后通过 OpenAI provider 且使用 Responses API 解析的字符串模型名称。
  • 如果您向 AgentRunner 传入一个具体的 Model 实例,则会按原样使用该实例。OpenAIResponsesWSModel 保持使用 WebSocket,OpenAIResponsesModel 保持使用 HTTP,OpenAIChatCompletionsModel 保持使用 Chat Completions。
  • 如果您提供了自己的 modelProvider,则该 provider 会控制模型解析。此时应在那里启用 WebSocket,而不是依赖全局设置器。
  • 如果您通过代理、网关或其他 OpenAI 兼容端点进行路由,目标端必须支持 WebSocket /responses 端点。您可能还需要显式设置 websocketBaseURL

只有当您想优化连接复用并更显式地管理 websocket provider 生命周期时,才需要使用 withResponsesWebSocketSession(...) 或自定义 OpenAIProvider / Runner

  • withResponsesWebSocketSession(...):提供方便的作用域生命周期管理,在回调结束后自动清理。
  • 自定义 OpenAIProvider / Runner:在您自己的应用架构中显式控制生命周期(包括关闭时清理)。

尽管名为 withResponsesWebSocketSession(...),它实际上是一个传输生命周期辅助工具,与会话指南中描述的内存 Session 接口无关。

如果您使用 websocket 代理或网关,请在 OpenAIProvider 上配置 websocketBaseURL,或设置 OPENAI_WEBSOCKET_BASE_URL

如果您自行实例化 OpenAIProvider,请记住,基于 websocket 的 Responses 模型包装器默认会被缓存以复用连接。请在关闭时调用 await provider.close() 以释放这些缓存连接。withResponsesWebSocketSession(...) 很大程度上就是为了帮您管理这一生命周期:它会创建一个启用了 websocket 的 provider 和 runner,将它们传给您的回调,并在之后始终关闭该 provider。对临时 provider 使用 providerOptions,对回调作用域内的 runner 默认值使用 runnerConfig

有关使用 Responses WebSocket 传输的完整流式传输 + HITL 示例,请参见 examples/basic/stream-ws.ts

toolSearchTool()toolNamespace(),以及设置了 deferLoading: true 的函数工具或远程 MCP 服务器工具,都要求使用 OpenAI Responses API。Chat Completions provider 会拒绝带命名空间的函数工具或延迟加载的函数工具,而 AI SDK 适配器也不支持延迟 Responses 工具加载流程。需要工具搜索时,请直接使用 Responses 模型。

工具搜索仅支持 GPT-5.4 及更新的、在 Responses API 中支持该能力的模型版本。

当某次运行包含延迟工具时,请将 toolSearchTool() 添加到同一个智能体中,并保持 modelSettings.toolChoice'auto'。SDK 不允许您按名称强制使用内置 tool_search 工具或某个延迟函数工具,因为模型需要自行决定何时加载这些定义。完整配置请参见工具指南以及官方的 OpenAI tool search guide


ModelSettings 映射 OpenAI 参数,但与 provider 无关。

FieldTypeNotes
temperaturenumber创造性与确定性的平衡。
topPnumber核采样。
frequencyPenaltynumber惩罚重复 token。
presencePenaltynumber鼓励生成新 token。
toolChoice'auto' | 'required' | 'none' | string参见强制使用工具。在 OpenAI Responses 中,toolChoice: 'computer' 会在可用时强制使用 GA 内置计算机工具。
parallelToolCallsboolean在支持时允许并行函数调用。
truncation'auto' | 'disabled'token 截断策略。
maxTokensnumber响应中的最大 token 数。
storeboolean持久化响应,以用于检索 / RAG 工作流。
promptCacheRetention'in-memory' | '24h' | null在支持时控制 provider 的提示缓存保留策略。
reasoning.effort'none' | 'minimal' | 'low' | 'medium' | 'high' | 'xhigh'gpt-5.x 模型的推理强度。
reasoning.summary'auto' | 'concise' | 'detailed'控制模型返回多少推理摘要。
text.verbosity'low' | 'medium' | 'high'gpt-5.x 等模型的文本详细程度。
providerDataRecord<string, any>透传到底层模型的 provider 特定选项。
retryModelRetrySettings仅运行时生效的可选重试配置。参见模型重试

可以在任一层级附加这些设置:

模型设置
import { Runner, Agent } from '@openai/agents';
const agent = new Agent({
name: 'Creative writer',
// ...
modelSettings: { temperature: 0.7, toolChoice: 'auto' },
});
// or globally
new Runner({ modelSettings: { temperature: 0.3 } });

Runner 级别的设置会覆盖每个智能体级别中冲突的设置。显著的例外是 retry:其嵌套字段会在 runner 和智能体设置之间合并,除非您通过 undefined 显式清除继承值。

重试仅在运行时生效,且需要显式开启。除非您配置了 modelSettings.retry 且策略返回重试决策,否则 SDK 不会重试模型请求。

启用模型重试
import { Agent, Runner, retryPolicies } from '@openai/agents';
const sharedRetry = {
maxRetries: 4,
backoff: {
initialDelayMs: 500,
maxDelayMs: 5_000,
multiplier: 2,
jitter: true,
},
policy: retryPolicies.any(
retryPolicies.providerSuggested(),
retryPolicies.retryAfter(),
retryPolicies.networkError(),
retryPolicies.httpStatus([408, 409, 429, 500, 502, 503, 504]),
),
};
const runner = new Runner({
modelSettings: {
retry: sharedRetry,
},
});
const agent = new Agent({
name: 'Assistant',
instructions: 'You are a concise assistant.',
modelSettings: {
retry: {
maxRetries: 2,
backoff: {
maxDelayMs: 2_000,
},
},
},
});
await runner.run(agent, 'Summarize exponential backoff in plain English.');

ModelRetrySettings 有三个字段:

FieldTypeNotes
maxRetriesnumber在初始请求之后允许的重试次数。
backoff{ initialDelayMs?, maxDelayMs?, multiplier?, jitter? }当策略决定重试但未返回 delayMs 时使用的默认延迟策略。
policyRetryPolicy决定是否重试的回调。该函数仅在运行时生效,不会被序列化到持久化的运行状态中。

重试策略会收到一个 RetryPolicyContext,其中包含:

  • attemptmaxRetries,便于您做出与尝试次数相关的决策。
  • stream,便于您区分流式与非流式行为。
  • error,用于原始检查。
  • normalized 事实,例如 statusCoderetryAfterMserrorCodeisNetworkErrorisAbort
  • providerAdvice,当底层模型/provider 能提供重试建议时可用。

策略可以返回:

  • true / false,表示简单的重试决策。
  • { retry, delayMs?, reason? },当您想覆盖延迟或附加用于日志记录的诊断原因时。

SDK 在 retryPolicies 上导出了现成的辅助方法:

HelperBehavior
retryPolicies.never()始终不重试。
retryPolicies.providerSuggested()在可用时遵循 provider 的重试建议。
retryPolicies.networkError()匹配临时的传输/连接故障。
retryPolicies.httpStatus([..])匹配选定的 HTTP 状态码。
retryPolicies.retryAfter()仅当存在 retry-after 提示时重试,并使用该延迟。
retryPolicies.any(...)任一嵌套策略允许时即重试。
retryPolicies.all(...)仅当所有嵌套策略都允许时才重试。

组合策略时,providerSuggested() 是最安全的首个构件,因为当 provider 能区分这些情况时,它会保留 provider 的否决和重放安全批准。

某些失败永远不会被自动重试:

  • Abort 错误。
  • 在已发出任何可见事件或原始模型事件之后的流式运行。
  • provider 建议标记为重放不安全的情况。

使用 previousResponseIdconversationId 的有状态后续请求也会被更保守地处理。对于这类请求,仅使用 networkError()httpStatus([500]) 之类的非 provider 谓词本身是不够的。重试策略必须包含来自 provider 的重放安全批准,通常通过 retryPolicies.providerSuggested() 实现。

retry 会在 runner 级和智能体级 modelSettings 之间进行深度合并:

  • 智能体可以只覆盖 retry.maxRetries,同时继承 runner 的 policy
  • 智能体可以只覆盖 retry.backoff 的部分字段,并保留 runner 中同级的其他 backoff 字段。
  • 如果您需要移除继承的 policybackoff,请将该字段显式设置为 undefined

更完整的日志示例请参见 examples/basic/retry.tsexamples/ai-sdk/retry.ts


智能体可以通过 prompt 参数进行配置,用于指定一个服务器端存储的 prompt 配置,以控制 Agent 的行为。目前,该选项仅在您使用 OpenAI Responses API 时受支持。

prompt 可以是静态对象,也可以是在运行时返回对象的函数。关于回调形式,请参见动态提示

FieldTypeNotes
promptIdstringprompt 的唯一标识符。
versionstring您希望使用的 prompt 版本。
variablesobject要替换进 prompt 的键值对变量。值可以是字符串,也可以是文本、图像或文件等内容输入类型。
带 prompt 的智能体
import { parseArgs } from 'node:util';
import { Agent, run } from '@openai/agents';
/*
NOTE: This example will not work out of the box, because the default prompt ID will not
be available in your project.
To use it, please:
1. Go to https://platform.openai.com/chat/edit
2. Create a new prompt variable, `poem_style`.
3. Create a system prompt with the content:
Write a poem in {{poem_style}}
4. Run the example with the `--prompt-id` flag.
*/
const DEFAULT_PROMPT_ID =
'pmpt_6965a984c7ac8194a8f4e79b00f838840118c1e58beb3332';
const POEM_STYLES = ['limerick', 'haiku', 'ballad'];
function pickPoemStyle(): string {
return POEM_STYLES[Math.floor(Math.random() * POEM_STYLES.length)];
}
async function runDynamic(promptId: string) {
const poemStyle = pickPoemStyle();
console.log(`[debug] Dynamic poem_style: ${poemStyle}`);
const agent = new Agent({
name: 'Assistant',
prompt: {
promptId,
version: '1',
variables: { poem_style: poemStyle },
},
});
const result = await run(agent, 'Tell me about recursion in programming.');
console.log(result.finalOutput);
}
async function runStatic(promptId: string) {
const agent = new Agent({
name: 'Assistant',
prompt: {
promptId,
version: '1',
variables: { poem_style: 'limerick' },
},
});
const result = await run(agent, 'Tell me about recursion in programming.');
console.log(result.finalOutput);
}
async function main() {
const args = parseArgs({
options: {
dynamic: { type: 'boolean', default: false },
'prompt-id': { type: 'string', default: DEFAULT_PROMPT_ID },
},
});
const promptId = args.values['prompt-id'];
if (!promptId) {
console.error('Please provide a prompt ID via --prompt-id.');
process.exit(1);
}
if (args.values.dynamic) {
await runDynamic(promptId);
} else {
await runStatic(promptId);
}
}
main().catch((error) => {
console.error(error);
process.exit(1);
});

任何额外的智能体配置(如工具或 instructions)都会覆盖您在存储 prompt 中可能已配置的值。

当存储 prompt 已经定义了模型时,除非您显式覆盖,否则 SDK 不会发送智能体的默认模型。这对 computerTool() 很重要:由 prompt 管理的运行默认会保留旧版预览线缆格式以保持兼容性。若要在由 prompt 管理的运行中启用 GA Responses 计算机工具,请显式设置 modelSettings.toolChoice: 'computer',或发送一个显式模型,例如 gpt-5.4。有关计算机操作的更多细节,请参见工具


实现您自己的 provider 很直接——实现 ModelProviderModel,然后将该 provider 传给 Runner 构造函数:

最小自定义 provider
import {
ModelProvider,
Model,
ModelRequest,
ModelResponse,
ResponseStreamEvent,
} from '@openai/agents-core';
import { Agent, Runner } from '@openai/agents';
class EchoModel implements Model {
name: string;
constructor() {
this.name = 'Echo';
}
async getResponse(request: ModelRequest): Promise<ModelResponse> {
return {
usage: {},
output: [{ role: 'assistant', content: request.input as string }],
} as any;
}
async *getStreamedResponse(
_request: ModelRequest,
): AsyncIterable<ResponseStreamEvent> {
yield {
type: 'response.completed',
response: { output: [], usage: {} },
} as any;
}
}
class EchoProvider implements ModelProvider {
getModel(_modelName?: string): Promise<Model> | Model {
return new EchoModel();
}
}
const runner = new Runner({ modelProvider: new EchoProvider() });
console.log(runner.config.modelProvider.getModel());
const agent = new Agent({
name: 'Test Agent',
instructions: 'You are a helpful assistant.',
model: new EchoModel(),
modelSettings: { temperature: 0.7, toolChoice: 'auto' },
});
console.log(agent.model);

如果您希望每次 run() 调用以及每个新构造的 Runner 默认都使用同一个 provider,请在应用启动时设置一次:

设置默认模型 provider
import { setDefaultModelProvider } from '@openai/agents';
setDefaultModelProvider({
async getModel() {
// Return any Model implementation here.
throw new Error('Provide your own model implementation.');
},
});

当您的应用标准化使用非 OpenAI provider,且您不想在各处传递自定义 Runner 时,这会很有用。

如果您想在不自行实现 ModelProvider 的情况下使用非 OpenAI 模型,请参见通过 Vercel 的 AI SDK 使用任意模型。该适配器允许您将 AI SDK 模型直接接入 Agents 运行时,这在您的应用已经标准化使用 AI SDK provider,或者您想访问更广泛的 provider 生态时非常有用。文档中还说明了 Agents SDK 的 providerData 如何映射到 AI SDK 的 providerMetadata,以及可用于 AI SDK UI 路由的流辅助方法。


在受支持的服务器运行时中,追踪默认已启用。仅当追踪导出应使用不同于默认 OpenAI API key 的凭证时,才需要使用 setTracingExportApiKey()

设置追踪导出 API key
import { setTracingExportApiKey } from '@openai/agents';
setTracingExportApiKey('sk-...');

这会使用该凭证将追踪发送到 OpenAI dashboard。有关导出器自定义(例如自定义接收端点或重试调优),请参见追踪