工具
工具让智能体能够执行操作:例如获取数据、运行代码、调用外部 API,甚至使用计算机。SDK 支持五个目录:
- 由 OpenAI 托管的工具:与模型一起在 OpenAI 服务上运行。
- 本地/运行时执行工具:
ComputerTool和ApplyPatchTool始终在你的环境中运行,而ShellTool可以在本地或托管容器中运行。 - Function Calling:将任意 Python 函数封装为工具。
- Agents as tools:将智能体公开为可调用工具,无需完整任务转移。
- 实验性:Codex 工具:通过工具调用运行作用域限定在工作区内的 Codex 任务。
工具类型选择
将本页用作目录,然后跳转到与你控制的运行时匹配的部分。
| 如果你想要... | 从这里开始 |
|---|---|
| 使用 OpenAI 管理的工具(网络检索、文件检索、代码解释器、托管 MCP、图像生成) | 托管工具 |
| 通过工具搜索将大型工具表面推迟到运行时 | 托管工具搜索 |
| 在你自己的进程或环境中运行工具 | 本地运行时工具 |
| 将 Python 函数封装为工具 | 工具调用 |
| 让一个智能体在没有任务转移的情况下调用另一个智能体 | Agents as tools |
| 从智能体运行作用域限定在工作区内的 Codex 任务 | 实验性:Codex 工具 |
托管工具
使用 OpenAIResponsesModel 时,OpenAI 提供了一些内置工具:
WebSearchTool让智能体搜索网络。FileSearchTool允许从你的 OpenAI 向量存储中检索信息。CodeInterpreterTool让 LLM 在沙盒环境中执行代码。HostedMCPTool将远程 MCP 服务的工具公开给模型。ImageGenerationTool根据提示词生成图像。ToolSearchTool让模型按需加载延迟的工具、命名空间或托管 MCP 服务。
高级托管搜索选项:
- 除了
vector_store_ids和max_num_results,FileSearchTool还支持filters、ranking_options和include_search_results。 WebSearchTool支持filters、user_location和search_context_size。
from agents import Agent, FileSearchTool, Runner, WebSearchTool
agent = Agent(
name="Assistant",
tools=[
WebSearchTool(),
FileSearchTool(
max_num_results=3,
vector_store_ids=["VECTOR_STORE_ID"],
),
],
)
async def main():
result = await Runner.run(agent, "Which coffee shop should I go to, taking into account my preferences and the weather today in SF?")
print(result.final_output)
托管工具搜索
工具搜索让 OpenAI Responses 模型能够将大型工具表面推迟到运行时,因此模型只加载当前轮次所需的子集。当你有许多工具调用、命名空间组或托管 MCP 服务,并且希望减少工具 schema token、同时不预先暴露每个工具时,这会很有用。
当你构建智能体时候选工具已经已知,请从托管工具搜索开始。如果你的应用需要动态决定加载什么,Responses API 也支持客户端执行的工具搜索,但标准 Runner 不会自动执行该模式。
from typing import Annotated
from agents import Agent, Runner, ToolSearchTool, function_tool, tool_namespace
@function_tool(defer_loading=True)
def get_customer_profile(
customer_id: Annotated[str, "The customer ID to look up."],
) -> str:
"""Fetch a CRM customer profile."""
return f"profile for {customer_id}"
@function_tool(defer_loading=True)
def list_open_orders(
customer_id: Annotated[str, "The customer ID to look up."],
) -> str:
"""List open orders for a customer."""
return f"open orders for {customer_id}"
crm_tools = tool_namespace(
name="crm",
description="CRM tools for customer lookups.",
tools=[get_customer_profile, list_open_orders],
)
agent = Agent(
name="Operations assistant",
model="gpt-5.5",
instructions="Load the crm namespace before using CRM tools.",
tools=[*crm_tools, ToolSearchTool()],
)
result = await Runner.run(agent, "Look up customer_42 and list their open orders.")
print(result.final_output)
需要了解的事项:
- 托管工具搜索仅适用于 OpenAI Responses 模型。当前 Python SDK 支持取决于
openai>=2.25.0。 - 在智能体上配置延迟加载表面时,恰好添加一个
ToolSearchTool()。 - 可搜索表面包括
@function_tool(defer_loading=True)、tool_namespace(name=..., description=..., tools=[...]),以及HostedMCPTool(tool_config={..., "defer_loading": True})。 - 延迟加载的工具调用必须与
ToolSearchTool()配对。仅命名空间的设置也可以使用ToolSearchTool(),以便让模型按需加载正确的组。 tool_namespace()将FunctionTool实例分组到共享的命名空间名称和描述下。当你有许多相关工具(例如crm、billing或shipping)时,这通常最合适。- OpenAI 的官方最佳实践指南是尽可能使用命名空间。
- 尽可能优先使用命名空间或托管 MCP 服务,而不是许多单独延迟的函数。它们通常能为模型提供更好的高层搜索表面,并带来更好的 token 节省。
- 命名空间可以混合立即可用和延迟的工具。没有
defer_loading=True的工具仍可立即调用,而同一命名空间中的延迟工具会通过工具搜索加载。 - 根据经验法则,每个命名空间应保持相当小,最好少于 10 个函数。
- 具名
tool_choice不能指向裸命名空间名称或仅延迟的工具。优先使用auto、required,或真实的顶层可调用工具名称。 ToolSearchTool(execution="client")用于手动 Responses 编排。如果模型发出客户端执行的tool_search_call,标准Runner会抛出异常,而不是替你执行它。- 工具搜索活动会出现在
RunResult.new_items中,并以专用条目和事件类型出现在RunItemStreamEvent中。 - 请参阅
examples/tools/tool_search.py,其中包含覆盖命名空间加载和顶层延迟工具的完整可运行示例。 - 官方平台指南:工具搜索。
托管容器 shell + 技能
ShellTool 还支持 OpenAI 托管的容器执行。当你希望模型在受管容器中运行 shell 命令,而不是在你的本地运行时中运行时,请使用此模式。
from agents import Agent, Runner, ShellTool, ShellToolSkillReference
csv_skill: ShellToolSkillReference = {
"type": "skill_reference",
"skill_id": "skill_698bbe879adc81918725cbc69dcae7960bc5613dadaed377",
"version": "1",
}
agent = Agent(
name="Container shell agent",
model="gpt-5.5",
instructions="Use the mounted skill when helpful.",
tools=[
ShellTool(
environment={
"type": "container_auto",
"network_policy": {"type": "disabled"},
"skills": [csv_skill],
}
)
],
)
result = await Runner.run(
agent,
"Use the configured skill to analyze CSV files in /mnt/data and summarize totals by region.",
)
print(result.final_output)
若要在后续运行中复用现有容器,请设置 environment={"type": "container_reference", "container_id": "cntr_..."}。
需要了解的事项:
- 托管 shell 可通过 Responses API shell 工具使用。
container_auto会为请求预置一个容器;container_reference会复用现有容器。container_auto还可以包含file_ids和memory_limit。environment.skills接受技能引用和内联技能包。- 使用托管环境时,不要在
ShellTool上设置executor、needs_approval或on_approval。 network_policy支持disabled和allowlist模式。- 在 allowlist 模式下,
network_policy.domain_secrets可以按名称注入域作用域的密钥。 - 请参阅
examples/tools/container_shell_skill_reference.py和examples/tools/container_shell_inline_skill.py,了解完整示例。 - OpenAI 平台指南:Shell 和 Skills。
本地运行时工具
本地运行时工具在模型响应本身之外执行。模型仍会决定何时调用它们,但实际工作由你的应用或配置的执行环境完成。
ComputerTool 和 ApplyPatchTool 始终需要你提供本地实现。ShellTool 跨越两种模式:当你希望托管执行时,使用上面的托管容器配置;当你希望命令在自己的进程中运行时,使用下面的本地运行时配置。
本地运行时工具要求你提供实现:
ComputerTool:实现Computer或AsyncComputer接口,以启用 GUI/浏览器自动化。ShellTool:用于本地执行和托管容器执行的最新 shell 工具。LocalShellTool:旧版本地 shell 集成。ApplyPatchTool:实现ApplyPatchEditor以在本地应用 diff。- 本地 shell 技能可通过
ShellTool(environment={"type": "local", "skills": [...]})使用。
ComputerTool 与 Responses 计算机工具
ComputerTool 仍然是一个本地 harness:你提供 Computer 或 AsyncComputer 实现,SDK 会将该 harness 映射到 OpenAI Responses API 的计算机表面。
对于显式的 gpt-5.5 请求,SDK 发送 GA 内置工具载荷 {"type": "computer"}。较旧的 computer-use-preview 模型保留预览载荷 {"type": "computer_use_preview", "environment": ..., "display_width": ..., "display_height": ...}。这与 OpenAI 的计算机操作指南中描述的平台迁移一致:
- 模型:
computer-use-preview->gpt-5.5 - 工具选择器:
computer_use_preview->computer - 计算机调用形态:每个
computer_call一个action->computer_call上的批量actions[] - 截断:预览路径上需要
ModelSettings(truncation="auto")-> GA 路径上不需要
SDK 会根据实际 Responses 请求上的有效模型选择该线缆形态。如果你使用提示模板,并且由于提示自身拥有模型而请求省略了 model,SDK 会保持预览兼容的计算机载荷,除非你显式保留 model="gpt-5.5",或使用 ModelSettings(tool_choice="computer") 或 ModelSettings(tool_choice="computer_use") 强制使用 GA 选择器。
当存在 ComputerTool 时,tool_choice="computer"、"computer_use" 和 "computer_use_preview" 都会被接受,并规范化为与有效请求模型匹配的内置选择器。没有 ComputerTool 时,这些字符串仍像普通函数名一样工作。
当 ComputerTool 由 ComputerProvider 工厂提供支持时,这一区别很重要。GA computer 载荷在序列化时不需要 environment 或尺寸,因此未解析的工厂也没问题。预览兼容的序列化仍需要已解析的 Computer 或 AsyncComputer 实例,以便 SDK 能发送 environment、display_width 和 display_height。
运行时,两条路径仍使用相同的本地 harness。预览响应会发出带有单个 action 的 computer_call 条目;gpt-5.5 可以发出批量 actions[],SDK 会按顺序执行它们,然后生成一个 computer_call_output 截图条目。请参阅 examples/tools/computer_use.py,了解基于 Playwright 的可运行 harness。
from agents import Agent, ApplyPatchTool, ShellTool
from agents.computer import AsyncComputer
from agents.editor import ApplyPatchResult, ApplyPatchOperation, ApplyPatchEditor
class NoopComputer(AsyncComputer):
environment = "browser"
dimensions = (1024, 768)
async def screenshot(self): return ""
async def click(self, x, y, button): ...
async def double_click(self, x, y): ...
async def scroll(self, x, y, scroll_x, scroll_y): ...
async def type(self, text): ...
async def wait(self): ...
async def move(self, x, y): ...
async def keypress(self, keys): ...
async def drag(self, path): ...
class NoopEditor(ApplyPatchEditor):
async def create_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def update_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def delete_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def run_shell(request):
return "shell output"
agent = Agent(
name="Local tools agent",
tools=[
ShellTool(executor=run_shell),
ApplyPatchTool(editor=NoopEditor()),
# ComputerTool expects a Computer/AsyncComputer implementation; omitted here for brevity.
],
)
工具调用
你可以将任意 Python 函数用作工具。Agents SDK 会自动设置该工具:
- 工具名称将是 Python 函数的名称(或者你可以提供一个名称)
- 工具描述将来自函数的 docstring(或者你可以提供描述)
- 函数输入的 schema 会根据函数参数自动创建
- 除非禁用,否则每个输入的描述都来自函数的 docstring
我们使用 Python 的 inspect 模块提取函数签名,并结合 griffe 解析 docstring,使用 pydantic 创建 schema。
当你使用 OpenAI Responses 模型时,@function_tool(defer_loading=True) 会隐藏工具调用,直到 ToolSearchTool() 加载它。你也可以使用 tool_namespace() 对相关工具调用进行分组。请参阅托管工具搜索,了解完整设置和约束。
import json
from typing_extensions import TypedDict, Any
from agents import Agent, FunctionTool, RunContextWrapper, function_tool
class Location(TypedDict):
lat: float
long: float
@function_tool # (1)!
async def fetch_weather(location: Location) -> str:
# (2)!
"""Fetch the weather for a given location.
Args:
location: The location to fetch the weather for.
"""
# In real life, we'd fetch the weather from a weather API
return "sunny"
@function_tool(name_override="fetch_data") # (3)!
def read_file(ctx: RunContextWrapper[Any], path: str, directory: str | None = None) -> str:
"""Read the contents of a file.
Args:
path: The path to the file to read.
directory: The directory to read the file from.
"""
# In real life, we'd read the file from the file system
return "<file contents>"
agent = Agent(
name="Assistant",
tools=[fetch_weather, read_file], # (4)!
)
for tool in agent.tools:
if isinstance(tool, FunctionTool):
print(tool.name)
print(tool.description)
print(json.dumps(tool.params_json_schema, indent=2))
print()
- 你可以将任意 Python 类型用作函数参数,函数可以是同步或异步的。
- 如果存在 docstring,会用于捕获描述和参数描述
- 函数可以选择接收
context(必须是第一个参数)。你还可以设置覆盖项,例如工具名称、描述、使用哪种 docstring 风格等。 - 你可以将装饰后的函数传入工具列表。
展开查看输出
fetch_weather
Fetch the weather for a given location.
{
"$defs": {
"Location": {
"properties": {
"lat": {
"title": "Lat",
"type": "number"
},
"long": {
"title": "Long",
"type": "number"
}
},
"required": [
"lat",
"long"
],
"title": "Location",
"type": "object"
}
},
"properties": {
"location": {
"$ref": "#/$defs/Location",
"description": "The location to fetch the weather for."
}
},
"required": [
"location"
],
"title": "fetch_weather_args",
"type": "object"
}
fetch_data
Read the contents of a file.
{
"properties": {
"path": {
"description": "The path to the file to read.",
"title": "Path",
"type": "string"
},
"directory": {
"anyOf": [
{
"type": "string"
},
{
"type": "null"
}
],
"default": null,
"description": "The directory to read the file from.",
"title": "Directory"
}
},
"required": [
"path"
],
"title": "fetch_data_args",
"type": "object"
}
从工具调用返回图像或文件
除了返回文本输出,你还可以将一个或多个图像或文件作为工具调用的输出返回。为此,你可以返回以下任意内容:
- 图像:
ToolOutputImage(或 TypedDict 版本ToolOutputImageDict) - 文件:
ToolOutputFileContent(或 TypedDict 版本ToolOutputFileContentDict) - 文本:字符串或可字符串化对象,或者
ToolOutputText(或 TypedDict 版本ToolOutputTextDict)
自定义工具调用
有时,你不想将 Python 函数用作工具。如果你愿意,可以直接创建 FunctionTool。你需要提供:
namedescriptionparams_json_schema,即参数的 JSON schemaon_invoke_tool,这是一个异步函数,接收ToolContext和以 JSON 字符串形式传入的参数,并返回工具输出(例如文本、结构化工具输出对象,或输出列表)。
from typing import Any
from pydantic import BaseModel
from agents import RunContextWrapper, FunctionTool
def do_some_work(data: str) -> str:
return "done"
class FunctionArgs(BaseModel):
username: str
age: int
async def run_function(ctx: RunContextWrapper[Any], args: str) -> str:
parsed = FunctionArgs.model_validate_json(args)
return do_some_work(data=f"{parsed.username} is {parsed.age} years old")
tool = FunctionTool(
name="process_user",
description="Processes extracted user data",
params_json_schema=FunctionArgs.model_json_schema(),
on_invoke_tool=run_function,
)
自动参数与 docstring 解析
如前所述,我们会自动解析函数签名以提取工具的 schema,并解析 docstring 以提取工具及各个参数的描述。相关说明:
- 签名解析通过
inspect模块完成。我们使用类型注解来理解参数类型,并动态构建一个 Pydantic 模型来表示整体 schema。它支持大多数类型,包括 Python primitives、Pydantic 模型、TypedDict 等。 - 我们使用
griffe解析 docstring。支持的 docstring 格式包括google、sphinx和numpy。我们会尝试自动检测 docstring 格式,但这是尽力而为;你也可以在调用function_tool时显式设置。你还可以通过将use_docstring_info设置为False来禁用 docstring 解析。
用于 schema 提取的代码位于 agents.function_schema。
使用 Pydantic Field 约束和描述参数
你可以使用 Pydantic 的 Field 为工具参数添加约束(例如数字的最小/最大值、字符串的长度或模式)和描述。与 Pydantic 中一样,两种形式都受支持:基于默认值的形式(arg: int = Field(..., ge=1))和 Annotated(arg: Annotated[int, Field(..., ge=1)])。生成的 JSON schema 和验证都会包含这些约束。
from typing import Annotated
from pydantic import Field
from agents import function_tool
# Default-based form
@function_tool
def score_a(score: int = Field(..., ge=0, le=100, description="Score from 0 to 100")) -> str:
return f"Score recorded: {score}"
# Annotated form
@function_tool
def score_b(score: Annotated[int, Field(..., ge=0, le=100, description="Score from 0 to 100")]) -> str:
return f"Score recorded: {score}"
工具调用超时
你可以使用 @function_tool(timeout=...) 为异步工具调用设置每次调用的超时时间。
import asyncio
from agents import Agent, Runner, function_tool
@function_tool(timeout=2.0)
async def slow_lookup(query: str) -> str:
await asyncio.sleep(10)
return f"Result for {query}"
agent = Agent(
name="Timeout demo",
instructions="Use tools when helpful.",
tools=[slow_lookup],
)
达到超时时,默认行为是 timeout_behavior="error_as_result",它会发送一条模型可见的超时消息(例如 Tool 'slow_lookup' timed out after 2 seconds.)。
你可以控制超时处理:
timeout_behavior="error_as_result"(默认):向模型返回超时消息,以便模型恢复。timeout_behavior="raise_exception":抛出ToolTimeoutError并使运行失败。timeout_error_function=...:使用error_as_result时自定义超时消息。
import asyncio
from agents import Agent, Runner, ToolTimeoutError, function_tool
@function_tool(timeout=1.5, timeout_behavior="raise_exception")
async def slow_tool() -> str:
await asyncio.sleep(5)
return "done"
agent = Agent(name="Timeout hard-fail", tools=[slow_tool])
try:
await Runner.run(agent, "Run the tool")
except ToolTimeoutError as e:
print(f"{e.tool_name} timed out in {e.timeout_seconds} seconds")
Note
仅异步 @function_tool 处理程序支持超时配置。
工具调用中的错误处理
通过 @function_tool 创建工具调用时,你可以传入 failure_error_function。这是一个在工具调用崩溃时向 LLM 提供错误响应的函数。
- 默认情况下(即你不传入任何内容),它会运行
default_tool_error_function,告知 LLM 发生了错误。 - 如果你传入自己的错误函数,它会改为运行该函数,并将响应发送给 LLM。
- 如果你显式传入
None,则任何工具调用错误都会重新抛出,由你处理。这可能是模型生成无效 JSON 时的ModelBehaviorError,或你的代码崩溃时的UserError等。
from agents import function_tool, RunContextWrapper
from typing import Any
def my_custom_error_function(context: RunContextWrapper[Any], error: Exception) -> str:
"""A custom function to provide a user-friendly error message."""
print(f"A tool call failed with the following error: {error}")
return "An internal server error occurred. Please try again later."
@function_tool(failure_error_function=my_custom_error_function)
def get_user_profile(user_id: str) -> str:
"""Fetches a user profile from a mock API.
This function demonstrates a 'flaky' or failing API call.
"""
if user_id == "user_123":
return "User profile for user_123 successfully retrieved."
else:
raise ValueError(f"Could not retrieve profile for user_id: {user_id}. API returned an error.")
如果你手动创建 FunctionTool 对象,则必须在 on_invoke_tool 函数内部处理错误。
Agents as tools
在某些工作流中,你可能希望由一个中央智能体编排一组专门智能体,而不是移交控制权。你可以通过将智能体建模为工具来实现这一点。
from agents import Agent, Runner
import asyncio
spanish_agent = Agent(
name="Spanish agent",
instructions="You translate the user's message to Spanish",
)
french_agent = Agent(
name="French agent",
instructions="You translate the user's message to French",
)
orchestrator_agent = Agent(
name="orchestrator_agent",
instructions=(
"You are a translation agent. You use the tools given to you to translate."
"If asked for multiple translations, you call the relevant tools."
),
tools=[
spanish_agent.as_tool(
tool_name="translate_to_spanish",
tool_description="Translate the user's message to Spanish",
),
french_agent.as_tool(
tool_name="translate_to_french",
tool_description="Translate the user's message to French",
),
],
)
async def main():
result = await Runner.run(orchestrator_agent, input="Say 'Hello, how are you?' in Spanish.")
print(result.final_output)
工具智能体自定义
agent.as_tool 函数是一个便捷方法,便于将智能体转换为工具。它支持常见运行时选项,例如 max_turns、run_config、hooks、previous_response_id、conversation_id、session 和 needs_approval。它还支持通过 parameters、input_builder 和 include_input_schema 实现结构化输入。对于高级编排(例如条件重试、回退行为或链接多个智能体调用),请在工具实现中直接使用 Runner.run:
@function_tool
async def run_my_agent() -> str:
"""A tool that runs the agent with custom configs"""
agent = Agent(name="My agent", instructions="...")
result = await Runner.run(
agent,
input="...",
max_turns=5,
run_config=...
)
return str(result.final_output)
工具智能体的结构化输入
默认情况下,Agent.as_tool() 期望单个字符串输入({"input": "..."}),但你可以通过传入 parameters(Pydantic 模型或 dataclass 类型)来公开结构化 schema。
其他选项:
include_input_schema=True会在生成的嵌套输入中包含完整的 JSON Schema。input_builder=...让你完全自定义结构化工具参数如何变成嵌套智能体输入。RunContextWrapper.tool_input包含嵌套运行上下文中的已解析结构化载荷。
from pydantic import BaseModel, Field
class TranslationInput(BaseModel):
text: str = Field(description="Text to translate.")
source: str = Field(description="Source language.")
target: str = Field(description="Target language.")
translator_tool = translator_agent.as_tool(
tool_name="translate_text",
tool_description="Translate text between languages.",
parameters=TranslationInput,
include_input_schema=True,
)
请参阅 examples/agent_patterns/agents_as_tools_structured.py,了解完整可运行示例。
工具智能体的审批门禁
Agent.as_tool(..., needs_approval=...) 使用与 function_tool 相同的审批流程。如果需要审批,运行会暂停,待处理条目会出现在 result.interruptions 中;然后使用 result.to_state(),并在调用 state.approve(...) 或 state.reject(...) 后恢复。请参阅人机协同指南,了解完整的暂停/恢复模式。
自定义输出提取
在某些情况下,你可能希望在将工具智能体的输出返回给中央智能体之前修改它。如果你想要:
- 从子智能体的聊天历史中提取特定信息片段(例如 JSON 载荷)。
- 转换或重新格式化智能体的最终答案(例如将 Markdown 转换为纯文本或 CSV)。
- 验证输出,或在智能体响应缺失或格式错误时提供回退值。
你可以通过向 as_tool 方法提供 custom_output_extractor 参数来实现:
async def extract_json_payload(run_result: RunResult) -> str:
# Scan the agent’s outputs in reverse order until we find a JSON-like message from a tool call.
for item in reversed(run_result.new_items):
if isinstance(item, ToolCallOutputItem) and item.output.strip().startswith("{"):
return item.output.strip()
# Fallback to an empty JSON object if nothing was found
return "{}"
json_tool = data_agent.as_tool(
tool_name="get_data_json",
tool_description="Run the data agent and return only its JSON payload",
custom_output_extractor=extract_json_payload,
)
在自定义提取器内部,嵌套的 RunResult 还会暴露
agent_tool_invocation,当你在后处理嵌套结果时
需要外层工具名称、调用 ID 或原始参数,这很有用。
请参阅结果指南。
嵌套智能体运行的流式传输
向 as_tool 传入 on_stream 回调,以监听嵌套智能体发出的流式传输事件,同时仍在流完成后返回其最终输出。
from agents import AgentToolStreamEvent
async def handle_stream(event: AgentToolStreamEvent) -> None:
# Inspect the underlying StreamEvent along with agent metadata.
print(f"[stream] {event['agent'].name} :: {event['event'].type}")
billing_agent_tool = billing_agent.as_tool(
tool_name="billing_helper",
tool_description="Answer billing questions.",
on_stream=handle_stream, # Can be sync or async.
)
预期行为:
- 事件类型与
StreamEvent["type"]相对应:raw_response_event、run_item_stream_event、agent_updated_stream_event。 - 提供
on_stream会自动以流式传输模式运行嵌套智能体,并在返回最终输出前消耗完该流。 - 处理程序可以是同步或异步的;每个事件会按到达顺序交付。
- 当工具通过模型工具调用被调用时,
tool_call存在;直接调用时它可能为None。 - 请参阅
examples/agent_patterns/agents_as_tools_streaming.py,了解完整可运行示例。
条件性工具启用
你可以使用 is_enabled 参数在运行时有条件地启用或禁用智能体工具。这使你能够根据上下文、用户偏好或运行时条件,动态筛选哪些工具可供 LLM 使用。
import asyncio
from agents import Agent, AgentBase, Runner, RunContextWrapper
from pydantic import BaseModel
class LanguageContext(BaseModel):
language_preference: str = "french_spanish"
def french_enabled(ctx: RunContextWrapper[LanguageContext], agent: AgentBase) -> bool:
"""Enable French for French+Spanish preference."""
return ctx.context.language_preference == "french_spanish"
# Create specialized agents
spanish_agent = Agent(
name="spanish_agent",
instructions="You respond in Spanish. Always reply to the user's question in Spanish.",
)
french_agent = Agent(
name="french_agent",
instructions="You respond in French. Always reply to the user's question in French.",
)
# Create orchestrator with conditional tools
orchestrator = Agent(
name="orchestrator",
instructions=(
"You are a multilingual assistant. You use the tools given to you to respond to users. "
"You must call ALL available tools to provide responses in different languages. "
"You never respond in languages yourself, you always use the provided tools."
),
tools=[
spanish_agent.as_tool(
tool_name="respond_spanish",
tool_description="Respond to the user's question in Spanish",
is_enabled=True, # Always enabled
),
french_agent.as_tool(
tool_name="respond_french",
tool_description="Respond to the user's question in French",
is_enabled=french_enabled,
),
],
)
async def main():
context = RunContextWrapper(LanguageContext(language_preference="french_spanish"))
result = await Runner.run(orchestrator, "How are you?", context=context.context)
print(result.final_output)
asyncio.run(main())
is_enabled 参数接受:
- 布尔值:
True(始终启用)或False(始终禁用) - 可调用函数:接收
(context, agent)并返回布尔值的函数 - 异步函数:用于复杂条件逻辑的异步函数
禁用的工具在运行时会对 LLM 完全隐藏,因此这适用于:
- 基于用户权限的功能门控
- 环境特定的工具可用性(dev 与 prod)
- 对不同工具配置进行 A/B 测试
- 基于运行时状态的动态工具筛选
实验性:Codex 工具
codex_tool 封装了 Codex CLI,使智能体能够在工具调用期间运行作用域限定在工作区内的任务(shell、文件编辑、MCP 工具)。此表面处于实验阶段,可能会发生变化。
当你希望主智能体将有界的工作区任务委派给 Codex,且不离开当前运行时,请使用它。默认情况下,工具名称是 codex。如果你设置自定义名称,它必须是 codex 或以 codex_ 开头。当智能体包含多个 Codex 工具时,每个工具都必须使用唯一名称。
from agents import Agent
from agents.extensions.experimental.codex import ThreadOptions, TurnOptions, codex_tool
agent = Agent(
name="Codex Agent",
instructions="Use the codex tool to inspect the workspace and answer the question.",
tools=[
codex_tool(
sandbox_mode="workspace-write",
working_directory="/path/to/repo",
default_thread_options=ThreadOptions(
model="gpt-5.5",
model_reasoning_effort="low",
network_access_enabled=True,
web_search_mode="disabled",
approval_policy="never",
),
default_turn_options=TurnOptions(
idle_timeout_seconds=60,
),
persist_session=True,
)
],
)
从以下选项组开始:
- 执行表面:
sandbox_mode和working_directory定义 Codex 可以在哪里操作。将它们配对使用;当工作目录不在 Git 仓库中时,设置skip_git_repo_check=True。 - 线程默认值:
default_thread_options=ThreadOptions(...)配置模型、推理强度、审批策略、附加目录、网络访问和网络检索模式。优先使用web_search_mode,而不是旧版web_search_enabled。 - 轮次默认值:
default_turn_options=TurnOptions(...)配置每轮行为,例如idle_timeout_seconds和可选取消signal。 - 工具 I/O:工具调用必须至少包含一个
inputs条目,其形式为{ "type": "text", "text": ... }或{ "type": "local_image", "path": ... }。output_schema让你要求 Codex 返回结构化响应。
线程复用和持久化是独立控制项:
persist_session=True会对同一工具实例的重复调用复用一个 Codex 线程。use_run_context_thread_id=True会在共享同一可变上下文对象的多次运行之间,在运行上下文中存储并复用线程 ID。- 线程 ID 优先级为:每次调用的
thread_id,然后是运行上下文线程 ID(如果启用),然后是配置的thread_id选项。 - 对于
name="codex",默认运行上下文键是codex_thread_id;对于name="codex_<suffix>",则是codex_thread_id_<suffix>。可用run_context_thread_id_key覆盖它。
运行时配置:
- 认证:设置
CODEX_API_KEY(首选)或OPENAI_API_KEY,或传入codex_options={"api_key": "..."}。 - 运行时:
codex_options.base_url会覆盖 CLI base URL。 - 二进制解析:设置
codex_options.codex_path_override(或CODEX_PATH)以固定 CLI 路径。否则,SDK 会先从PATH解析codex,然后回退到捆绑的 vendor 二进制文件。 - 环境:
codex_options.env完全控制子进程环境。提供该项时,子进程不会继承os.environ。 - 流限制:
codex_options.codex_subprocess_stream_limit_bytes(或OPENAI_AGENTS_CODEX_SUBPROCESS_STREAM_LIMIT_BYTES)控制 stdout/stderr 读取器限制。有效范围为65536到67108864;默认值为8388608。 - 流式传输:
on_stream接收线程/轮次生命周期事件和条目事件(reasoning、command_execution、mcp_tool_call、file_change、web_search、todo_list和error条目更新)。 - 输出:结果包含
response、usage和thread_id;usage 会添加到RunContextWrapper.usage。
参考:
- Codex 工具 API 参考
- ThreadOptions 参考
- TurnOptions 参考
- 请参阅
examples/tools/codex.py和examples/tools/codex_same_thread.py,了解完整可运行示例。