跳转至

模型

Agents SDK 开箱即用支持两种形式的 OpenAI 模型:

模型设置选择

从最符合你当前设置的最简单路径开始:

如果你想要…… 推荐路径 了解更多
仅使用 OpenAI 模型 使用默认 OpenAI provider 和 Responses 模型路径 OpenAI 模型
通过 websocket 传输使用 OpenAI Responses API 保持 Responses 模型路径并启用 websocket 传输 Responses WebSocket 传输
使用一个非 OpenAI provider 从内置 provider 集成点开始 非 OpenAI 模型
在多个智能体之间混合模型或 provider 按每次运行或每个智能体选择 provider,并查看功能差异 在一个工作流中混合模型跨 provider 混合模型
调整高级 OpenAI Responses 请求设置 在 OpenAI Responses 路径上使用 ModelSettings 高级 OpenAI Responses 设置
使用第三方适配器进行非 OpenAI 或混合 provider 路由 比较支持的 beta 适配器,并验证你计划上线的 provider 路径 第三方适配器

OpenAI 模型

对于大多数仅使用 OpenAI 的应用,推荐路径是使用字符串模型名、默认 OpenAI provider,并保持在 Responses 模型路径上。

当你在初始化 Agent 时未指定模型,将使用默认模型。当前默认是 gpt-4.1,以兼顾兼容性和低延迟。若你有访问权限,我们建议将智能体设置为 gpt-5.4 以获得更高质量,同时保持显式 model_settings

如果你想切换到其他模型(例如 gpt-5.4),有两种方式可配置智能体。

默认模型

首先,如果你希望所有未设置自定义模型的智能体都稳定使用某个特定模型,请在运行智能体前设置 OPENAI_DEFAULT_MODEL 环境变量。

export OPENAI_DEFAULT_MODEL=gpt-5.4
python3 my_awesome_agent.py

其次,你可以通过 RunConfig 为一次运行设置默认模型。如果你未为某个智能体设置模型,将使用本次运行的模型。

from agents import Agent, RunConfig, Runner

agent = Agent(
    name="Assistant",
    instructions="You're a helpful agent.",
)

result = await Runner.run(
    agent,
    "Hello",
    run_config=RunConfig(model="gpt-5.4"),
)

GPT-5 模型

当你以这种方式使用任意 GPT-5 模型(例如 gpt-5.4)时,SDK 会应用默认 ModelSettings。它会设置在大多数场景下效果最佳的选项。要调整默认模型的推理力度,请传入你自己的 ModelSettings

from openai.types.shared import Reasoning
from agents import Agent, ModelSettings

my_agent = Agent(
    name="My Agent",
    instructions="You're a helpful agent.",
    # If OPENAI_DEFAULT_MODEL=gpt-5.4 is set, passing only model_settings works.
    # It's also fine to pass a GPT-5 model name explicitly:
    model="gpt-5.4",
    model_settings=ModelSettings(reasoning=Reasoning(effort="high"), verbosity="low")
)

为了更低延迟,建议在 gpt-5.4 上使用 reasoning.effort="none"。gpt-4.1 系列(包括 mini 和 nano 变体)在构建交互式智能体应用时也依然是稳健选择。

ComputerTool 模型选择

如果一个智能体包含 ComputerTool,实际 Responses 请求中的有效模型将决定 SDK 发送哪种 computer-tool 负载。显式 gpt-5.4 请求会使用 GA 内置 computer 工具,而显式 computer-use-preview 请求会保留旧的 computer_use_preview 负载。

由提示词管理的调用是主要例外。如果提示模板拥有模型且 SDK 在请求中省略 model,SDK 会默认使用与 preview 兼容的 computer 负载,以避免猜测提示固定了哪个模型。要在该流程中保持 GA 路径,可在请求中显式设置 model="gpt-5.4",或使用 ModelSettings(tool_choice="computer")ModelSettings(tool_choice="computer_use") 强制 GA 选择器。

当已注册 ComputerTool 时,tool_choice="computer""computer_use""computer_use_preview" 会被规范化为与有效请求模型匹配的内置选择器。若未注册 ComputerTool,这些字符串仍按普通函数名处理。

与 preview 兼容的请求必须提前序列化 environment 和显示尺寸,因此使用 ComputerProvider 工厂的提示词管理流程应传入具体的 ComputerAsyncComputer 实例,或在发送请求前强制使用 GA 选择器。完整迁移细节见 工具

非 GPT-5 模型

如果你传入非 GPT-5 模型名且未提供自定义 model_settings,SDK 会回退到与任意模型兼容的通用 ModelSettings

仅限 Responses 的工具搜索功能

以下工具功能仅在 OpenAI Responses 模型下受支持:

这些功能在 Chat Completions 模型和非 Responses 后端上会被拒绝。当你使用延迟加载工具时,请将 ToolSearchTool() 添加到智能体,并让模型通过 autorequired 的工具选择来加载工具,而不是强制使用裸命名空间名称或仅延迟加载的函数名。配置细节和当前限制见 工具

Responses WebSocket 传输

默认情况下,OpenAI Responses API 请求使用 HTTP 传输。使用 OpenAI 支持的模型时,你可以选择启用 websocket 传输。

基本设置

from agents import set_default_openai_responses_transport

set_default_openai_responses_transport("websocket")

这会影响由默认 OpenAI provider 解析的 OpenAI Responses 模型(包括 "gpt-5.4" 这类字符串模型名)。

传输方式的选择发生在 SDK 将模型名解析为模型实例时。如果你传入具体的 Model 对象,其传输方式已固定:OpenAIResponsesWSModel 使用 websocket,OpenAIResponsesModel 使用 HTTP,而 OpenAIChatCompletionsModel 保持在 Chat Completions。若你传入 RunConfig(model_provider=...),则由该 provider 控制传输选择,而非全局默认值。

provider 或运行级设置

你也可以按 provider 或按运行配置 websocket 传输:

from agents import Agent, OpenAIProvider, RunConfig, Runner

provider = OpenAIProvider(
    use_responses_websocket=True,
    # Optional; if omitted, OPENAI_WEBSOCKET_BASE_URL is used when set.
    websocket_base_url="wss://your-proxy.example/v1",
)

agent = Agent(name="Assistant")
result = await Runner.run(
    agent,
    "Hello",
    run_config=RunConfig(model_provider=provider),
)

使用 MultiProvider 的高级路由

如果你需要基于前缀的模型路由(例如在一次运行中混用 openai/...any-llm/... 模型名),请改用 MultiProvider,并在其中设置 openai_use_responses_websocket=True

MultiProvider 保留两个历史默认行为:

  • openai/... 被视为 OpenAI provider 的别名,因此 openai/gpt-4.1 会按模型 gpt-4.1 路由。
  • 未知前缀会抛出 UserError,而不是透传。

当你将 OpenAI provider 指向一个期望字面命名空间模型 ID 的 OpenAI 兼容端点时,请显式启用透传行为。在启用 websocket 的设置中,也请在 MultiProvider 上保持 openai_use_responses_websocket=True

from agents import Agent, MultiProvider, RunConfig, Runner

provider = MultiProvider(
    openai_base_url="https://openrouter.ai/api/v1",
    openai_api_key="...",
    openai_use_responses_websocket=True,
    openai_prefix_mode="model_id",
    unknown_prefix_mode="model_id",
)

agent = Agent(
    name="Assistant",
    instructions="Be concise.",
    model="openai/gpt-4.1",
)

result = await Runner.run(
    agent,
    "Hello",
    run_config=RunConfig(model_provider=provider),
)

当后端期望字面 openai/... 字符串时,使用 openai_prefix_mode="model_id"。当后端期望其他命名空间模型 ID(如 openrouter/openai/gpt-4.1-mini)时,使用 unknown_prefix_mode="model_id"。这些选项也可用于 websocket 传输之外的 MultiProvider;本示例保持 websocket 启用是因为它属于本节描述的传输设置。相同选项也可用于 responses_websocket_session()

如果你使用自定义 OpenAI 兼容端点或代理,websocket 传输还需要兼容的 websocket /responses 端点。在这些设置中,你可能需要显式设置 websocket_base_url

说明

  • 这是通过 websocket 传输的 Responses API,不是 Realtime API。除非支持 Responses websocket /responses 端点,否则不适用于 Chat Completions 或非 OpenAI provider。
  • 如果你的环境中还没有 websockets 包,请安装它。
  • 启用 websocket 传输后,你可以直接使用 Runner.run_streamed()。对于希望在多轮工作流(以及嵌套的 Agents-as-tools 调用)中复用同一 websocket 连接的场景,推荐使用 responses_websocket_session() 辅助函数。请参阅 运行智能体 指南和 examples/basic/stream_ws.py

非 OpenAI 模型

如果你需要非 OpenAI provider,先从 SDK 内置的 provider 集成点开始。在许多设置中,无需增加第三方适配器即可满足需求。各模式示例见 examples/model_providers

非 OpenAI provider 集成方式

方式 适用场景 范围
set_default_openai_client 一个 OpenAI 兼容端点应作为大多数或全部智能体的默认值 全局默认
ModelProvider 一个自定义 provider 仅应用于单次运行 每次运行
Agent.model 不同智能体需要不同 provider 或具体模型对象 每个智能体
第三方适配器 你需要内置路径未提供的适配器管理 provider 覆盖或路由 第三方适配器

你可以通过以下内置路径集成其他 LLM provider:

  1. set_default_openai_client 适用于你希望全局使用 AsyncOpenAI 实例作为 LLM 客户端的场景。这适用于 LLM provider 提供 OpenAI 兼容 API 端点,且你可设置 base_urlapi_key。可配置示例见 examples/model_providers/custom_example_global.py
  2. ModelProvider 作用于 Runner.run 级别。你可以指定“本次运行中所有智能体都使用自定义模型 provider”。可配置示例见 examples/model_providers/custom_example_provider.py
  3. Agent.model 允许你在特定 Agent 实例上指定模型。这使你可以为不同智能体混用不同 provider。可配置示例见 examples/model_providers/custom_example_agent.py

当你没有来自 platform.openai.com 的 API key 时,我们建议通过 set_tracing_disabled() 禁用追踪,或配置其他追踪进程

from agents import Agent, AsyncOpenAI, OpenAIChatCompletionsModel, set_tracing_disabled

set_tracing_disabled(disabled=True)

client = AsyncOpenAI(api_key="Api_Key", base_url="Base URL of Provider")
model = OpenAIChatCompletionsModel(model="Model_Name", openai_client=client)

agent= Agent(name="Helping Agent", instructions="You are a Helping Agent", model=model)

Note

在这些示例中,我们使用 Chat Completions API/模型,因为许多 LLM provider 仍不支持 Responses API。如果你的 LLM provider 支持它,我们建议使用 Responses。

单一工作流中的模型混用

在单个工作流中,你可能希望为每个智能体使用不同模型。例如,你可以在分诊中使用更小、更快的模型,而在复杂任务中使用更大、更强的模型。配置 Agent 时,你可通过以下任一方式选择特定模型:

  1. 传入模型名称。
  2. 传入任意模型名称 + 一个可将该名称映射到模型实例的 ModelProvider
  3. 直接提供 Model 实现。

Note

虽然我们的 SDK 同时支持 OpenAIResponsesModelOpenAIChatCompletionsModel 两种形态,但我们建议每个工作流只使用一种模型形态,因为两者支持的功能和工具集合不同。如果你的工作流必须混用模型形态,请确保你使用的全部功能在两者上都可用。

from agents import Agent, Runner, AsyncOpenAI, OpenAIChatCompletionsModel
import asyncio

spanish_agent = Agent(
    name="Spanish agent",
    instructions="You only speak Spanish.",
    model="gpt-5-mini", # (1)!
)

english_agent = Agent(
    name="English agent",
    instructions="You only speak English",
    model=OpenAIChatCompletionsModel( # (2)!
        model="gpt-5-nano",
        openai_client=AsyncOpenAI()
    ),
)

triage_agent = Agent(
    name="Triage agent",
    instructions="Handoff to the appropriate agent based on the language of the request.",
    handoffs=[spanish_agent, english_agent],
    model="gpt-5.4",
)

async def main():
    result = await Runner.run(triage_agent, input="Hola, ¿cómo estás?")
    print(result.final_output)
  1. 直接设置 OpenAI 模型名称。
  2. 提供一个 Model 实现。

当你希望进一步配置智能体使用的模型时,可以传入 [ModelSettings][agents.models.interface.ModelSettings],它提供如 temperature 等可选模型配置参数。

from agents import Agent, ModelSettings

english_agent = Agent(
    name="English agent",
    instructions="You only speak English",
    model="gpt-4.1",
    model_settings=ModelSettings(temperature=0.1),
)

高级 OpenAI Responses 设置

当你使用 OpenAI Responses 路径并需要更多控制时,请先从 ModelSettings 开始。

常见高级 ModelSettings 选项

当你使用 OpenAI Responses API 时,多个请求字段已在 ModelSettings 中有直接对应字段,因此无需为其使用 extra_args

  • parallel_tool_calls:允许或禁止同一轮中的多个工具调用。
  • truncation:设置为 "auto",让 Responses API 在上下文将溢出时丢弃最旧对话项,而不是失败。
  • store:控制生成响应是否在服务端存储以供后续检索。这对依赖响应 ID 的后续工作流,以及在 store=False 时可能需要回退到本地输入的会话压缩流程都很重要。
  • prompt_cache_retention:让缓存的提示词前缀保留更久,例如 "24h"
  • response_include:请求更丰富的响应负载,例如 web_search_call.action.sourcesfile_search_call.resultsreasoning.encrypted_content
  • top_logprobs:请求输出文本的 top-token logprobs。SDK 也会自动添加 message.output_text.logprobs
  • retry:为模型调用启用由 runner 管理的重试设置。见 Runner 管理的重试
from agents import Agent, ModelSettings

research_agent = Agent(
    name="Research agent",
    model="gpt-5.4",
    model_settings=ModelSettings(
        parallel_tool_calls=False,
        truncation="auto",
        store=True,
        prompt_cache_retention="24h",
        response_include=["web_search_call.action.sources"],
        top_logprobs=5,
    ),
)

当你设置 store=False 时,Responses API 不会保留该响应以供之后服务端检索。这对无状态或零数据保留风格流程很有用,但也意味着原本会复用响应 ID 的功能需要依赖本地管理状态。例如,OpenAIResponsesCompactionSession 会在上次响应未存储时,将默认 "auto" 压缩路径切换为基于输入的压缩。见会话指南

传递 extra_args

当你需要 SDK 尚未直接在顶层暴露的 provider 特定字段或较新请求字段时,使用 extra_args

此外,当你使用 OpenAI 的 Responses API 时,还有一些其他可选参数(如 userservice_tier 等)。若它们未在顶层可用,也可通过 extra_args 传递。

from agents import Agent, ModelSettings

english_agent = Agent(
    name="English agent",
    instructions="You only speak English",
    model="gpt-4.1",
    model_settings=ModelSettings(
        temperature=0.1,
        extra_args={"service_tier": "flex", "user": "user_12345"},
    ),
)

Runner 管理的重试

重试仅在运行时生效,且需主动启用。除非你设置 ModelSettings(retry=...) 且重试策略决定重试,否则 SDK 不会重试一般模型请求。

from agents import Agent, ModelRetrySettings, ModelSettings, retry_policies

agent = Agent(
    name="Assistant",
    model="gpt-5.4",
    model_settings=ModelSettings(
        retry=ModelRetrySettings(
            max_retries=4,
            backoff={
                "initial_delay": 0.5,
                "max_delay": 5.0,
                "multiplier": 2.0,
                "jitter": True,
            },
            policy=retry_policies.any(
                retry_policies.provider_suggested(),
                retry_policies.retry_after(),
                retry_policies.network_error(),
                retry_policies.http_status([408, 409, 429, 500, 502, 503, 504]),
            ),
        )
    ),
)

ModelRetrySettings 有三个字段:

字段 类型 说明
max_retries int | None 初始请求之后允许的重试次数。
backoff ModelRetryBackoffSettings | dict | None 当策略决定重试但未返回显式延迟时使用的默认延迟策略。
policy RetryPolicy | None 决定是否重试的回调。该字段仅在运行时使用,不会被序列化。

重试策略会接收一个 RetryPolicyContext,其中包含:

  • attemptmax_retries,便于你基于尝试次数作决策。
  • stream,便于你区分流式与非流式行为。
  • error,用于原始检查。
  • normalized 事实,如 status_coderetry_aftererror_codeis_network_erroris_timeoutis_abort
  • 当底层模型适配器可提供重试建议时的 provider_advice

策略可以返回:

  • True / False,用于简单重试决策。
  • RetryDecision,用于覆盖延迟或附加诊断原因。

SDK 在 retry_policies 中导出可直接使用的辅助函数:

辅助函数 行为
retry_policies.never() 始终不重试。
retry_policies.provider_suggested() 在可用时遵循 provider 的重试建议。
retry_policies.network_error() 匹配临时传输错误与超时失败。
retry_policies.http_status([...]) 匹配选定的 HTTP 状态码。
retry_policies.retry_after() 仅在存在 retry-after 提示时重试,并使用该延迟。
retry_policies.any(...) 当任一嵌套策略选择重试时重试。
retry_policies.all(...) 仅当每个嵌套策略都选择重试时重试。

组合策略时,provider_suggested() 是最安全的首个构建块,因为当 provider 能区分否决与可重放安全批准时,它会保留这些信息。

安全边界

某些失败永远不会自动重试:

  • 中止错误。
  • provider 建议标记为重放不安全的请求。
  • 在输出已开始且重放不安全的情况下进行的流式运行。

使用 previous_response_idconversation_id 的有状态后续请求也会被更保守地处理。对这类请求,仅有 network_error()http_status([500]) 这类非 provider 谓词本身并不足够。重试策略应包含来自 provider 的可重放安全批准,通常通过 retry_policies.provider_suggested()

Runner 与智能体合并行为

retry 会在 runner 级与智能体级 ModelSettings 间进行深度合并:

  • 智能体可以只覆盖 retry.max_retries,并继承 runner 的 policy
  • 智能体可以只覆盖 retry.backoff 的部分字段,并保留 runner 中其余同级字段。
  • policy 仅运行时有效,因此序列化后的 ModelSettings 会保留 max_retriesbackoff,但省略回调本身。

更完整示例见 examples/basic/retry.py由适配器支持的重试示例

非 OpenAI provider 故障排查

追踪客户端错误 401

如果你遇到与追踪相关的错误,这是因为 trace 会上传到 OpenAI 服务,而你没有 OpenAI API key。你有三种解决方式:

  1. 完全禁用追踪:set_tracing_disabled(True)
  2. 为追踪设置 OpenAI key:set_tracing_export_api_key(...)。此 API key 仅用于上传 trace,且必须来自 platform.openai.com
  3. 使用非 OpenAI 的追踪进程。见追踪文档

Responses API 支持

SDK 默认使用 Responses API,但许多其他 LLM provider 仍不支持。你可能因此看到 404 或类似问题。可通过两种方式解决:

  1. 调用 set_default_openai_api("chat_completions")。当你通过环境变量设置 OPENAI_API_KEYOPENAI_BASE_URL 时,此方式有效。
  2. 使用 OpenAIChatCompletionsModel。示例见这里

structured outputs 支持

某些模型 provider 不支持 structured outputs。这有时会导致类似如下错误:

BadRequestError: Error code: 400 - {'error': {'message': "'response_format.type' : value is not one of the allowed values ['text','json_object']", 'type': 'invalid_request_error'}}

这是某些模型 provider 的不足——它们支持 JSON 输出,但不允许你指定输出所用的 json_schema。我们正在修复这一点,但建议你依赖支持 JSON schema 输出的 provider,否则应用经常会因 JSON 格式错误而中断。

跨 provider 混合模型

你需要了解各模型 provider 的功能差异,否则可能会遇到错误。例如,OpenAI 支持 structured outputs、多模态输入,以及托管的文件检索和网络检索,但许多其他 provider 不支持这些功能。请注意以下限制:

  • 不要向不支持的 provider 发送其无法理解的 tools
  • 在调用仅文本模型前,过滤掉多模态输入
  • 注意不支持结构化 JSON 输出的 provider 偶尔会生成无效 JSON

第三方适配器

仅当 SDK 内置 provider 集成点不足时,再考虑第三方适配器。如果你仅在本 SDK 中使用 OpenAI 模型,优先选择内置 OpenAIResponsesModel 路径,而非 Any-LLM 或 LiteLLM。第三方适配器适用于你需要将 OpenAI 模型与非 OpenAI provider 组合,或需要内置路径未提供的适配器管理 provider 覆盖或路由的情况。适配器会在 SDK 与上游模型 provider 之间增加一层兼容层,因此功能支持与请求语义会因 provider 而异。SDK 当前以尽力而为的 beta 形式集成了 Any-LLM 和 LiteLLM。

Any-LLM

Any-LLM 支持以尽力而为的 beta 形式提供,适用于你需要 Any-LLM 管理的 provider 覆盖或路由的场景。

根据上游 provider 路径,Any-LLM 可能使用 Responses API、与 Chat Completions 兼容的 API,或 provider 特定的兼容层。

如果你需要 Any-LLM,请安装 openai-agents[any-llm],然后从 examples/model_providers/any_llm_auto.pyexamples/model_providers/any_llm_provider.py 开始。你可以在 MultiProvider 中使用 any-llm/... 模型名,直接实例化 AnyLLMModel,或在运行范围使用 AnyLLMProvider。如果你需要显式固定模型接口,请在构造 AnyLLMModel 时传入 api="responses"api="chat_completions"

Any-LLM 仍是第三方适配器层,因此 provider 依赖和能力缺口由 Any-LLM 上游定义,而非 SDK 定义。当上游 provider 返回使用量指标时会自动透传;但流式 Chat Completions 后端在发出使用量分块前可能需要 ModelSettings(include_usage=True)。如果你依赖 structured outputs、工具调用、使用量报告或 Responses 特定行为,请验证你计划部署的确切 provider 后端。

LiteLLM

LiteLLM 支持以尽力而为的 beta 形式提供,适用于你需要 LiteLLM 特定 provider 覆盖或路由的场景。

如果你需要 LiteLLM,请安装 openai-agents[litellm],然后从 examples/model_providers/litellm_auto.pyexamples/model_providers/litellm_provider.py 开始。你可以使用 litellm/... 模型名,或直接实例化 LitellmModel

部分由 LiteLLM 支持的 provider 默认不会填充 SDK 使用量指标。如果你需要使用量报告,请传入 ModelSettings(include_usage=True),并在你依赖 structured outputs、工具调用、使用量报告或适配器特定路由行为时,验证计划部署的确切 provider 后端。