跳转至

智能体

智能体是你应用中的核心构建模块。智能体是一个大型语言模型(LLM),配置了 instructions、tools,以及可选的运行时行为,例如任务转移、安全防护措施和structured outputs。

当你想定义或自定义单个智能体时,请使用本页。如果你正在决定多个智能体应如何协作,请阅读智能体编排

下一指南选择

将本页作为智能体定义的中心。跳转到与你下一步决策匹配的相邻指南。

如果你想要... 下一步阅读
选择模型或 provider 配置 模型
为智能体添加能力 工具
在 manager 风格编排与任务转移之间做选择 智能体编排
配置任务转移行为 任务转移
运行轮次、流式传输事件或管理对话状态 运行智能体
检查最终输出、运行项或可恢复状态 结果
共享本地依赖与运行时状态 上下文管理

基础配置

智能体最常见的属性有:

属性 必填 描述
name 人类可读的智能体名称。
instructions 系统提示词或动态 instructions 回调。参见动态说明
prompt OpenAI Responses API 提示词配置。接受静态提示词对象或函数。参见提示词模板
handoff_description 当该智能体作为任务转移目标提供时展示的简短描述。
handoffs 将对话委托给专长智能体。参见任务转移
model 使用哪个 LLM。参见模型
model_settings 模型调优参数,例如 temperaturetop_ptool_choice
tools 智能体可调用的工具。参见工具
mcp_servers 智能体可用的 MCP 支持工具。参见MCP 指南
input_guardrails 在该智能体链的首次用户输入上运行的安全防护措施。参见安全防护措施
output_guardrails 在该智能体最终输出上运行的安全防护措施。参见安全防护措施
output_type 使用结构化输出类型而非纯文本。参见输出类型
tool_use_behavior 控制工具结果是回传给模型,还是结束运行。参见工具使用行为
reset_tool_choice 工具调用后重置 tool_choice(默认:True)以避免工具使用循环。参见强制工具使用
from agents import Agent, ModelSettings, function_tool

@function_tool
def get_weather(city: str) -> str:
    """returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Haiku agent",
    instructions="Always respond in haiku form",
    model="gpt-5-nano",
    tools=[get_weather],
)

提示词模板

你可以通过设置 prompt 来引用在 OpenAI 平台中创建的提示词模板。这适用于使用 Responses API 的 OpenAI 模型。

要使用它,请:

  1. 前往 https://platform.openai.com/playground/prompts
  2. 创建一个新的提示词变量 poem_style
  3. 创建一个系统提示词,内容为:

    Write a poem in {{poem_style}}
    
  4. 使用 --prompt-id 标志运行该示例。

from agents import Agent

agent = Agent(
    name="Prompted assistant",
    prompt={
        "id": "pmpt_123",
        "version": "1",
        "variables": {"poem_style": "haiku"},
    },
)

你也可以在运行时动态生成提示词:

from dataclasses import dataclass

from agents import Agent, GenerateDynamicPromptData, Runner

@dataclass
class PromptContext:
    prompt_id: str
    poem_style: str


async def build_prompt(data: GenerateDynamicPromptData):
    ctx: PromptContext = data.context.context
    return {
        "id": ctx.prompt_id,
        "version": "1",
        "variables": {"poem_style": ctx.poem_style},
    }


agent = Agent(name="Prompted assistant", prompt=build_prompt)
result = await Runner.run(
    agent,
    "Say hello",
    context=PromptContext(prompt_id="pmpt_123", poem_style="limerick"),
)

上下文

智能体在其 context 类型上是泛型的。上下文是一个依赖注入工具:它是你创建并传给 Runner.run() 的对象,会传递给每个智能体、工具、任务转移等,并作为智能体运行期间依赖与状态的集合。你可以提供任何 Python 对象作为上下文。

阅读上下文指南以了解完整的 RunContextWrapper 接口、共享使用量跟踪、嵌套 tool_input 以及序列化注意事项。

@dataclass
class UserContext:
    name: str
    uid: str
    is_pro_user: bool

    async def fetch_purchases() -> list[Purchase]:
        return ...

agent = Agent[UserContext](
    ...,
)

输出类型

默认情况下,智能体产生纯文本(即 str)输出。如果你希望智能体产生特定类型的输出,可以使用 output_type 参数。常见选择是使用 Pydantic 对象,但我们支持任何可被 Pydantic TypeAdapter 包装的类型——dataclasses、lists、TypedDict 等。

from pydantic import BaseModel
from agents import Agent


class CalendarEvent(BaseModel):
    name: str
    date: str
    participants: list[str]

agent = Agent(
    name="Calendar extractor",
    instructions="Extract calendar events from text",
    output_type=CalendarEvent,
)

Note

当你传入 output_type 时,会告知模型使用structured outputs而不是常规纯文本响应。

多智能体系统设计模式

设计多智能体系统的方法有很多,但我们常见两种广泛适用的模式:

  1. Manager(Agents as tools):中央 manager/编排器将专长子智能体作为工具调用,并保留对对话的控制权。
  2. 任务转移:对等智能体将控制权移交给接管对话的专长智能体。这是去中心化的。

更多细节请参见我们的智能体构建实用指南

Manager(Agents as tools)

customer_facing_agent 处理所有用户交互,并调用以工具形式暴露的专长子智能体。更多内容见工具文档。

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

customer_facing_agent = Agent(
    name="Customer-facing agent",
    instructions=(
        "Handle all direct user communication. "
        "Call the relevant tools when specialized expertise is needed."
    ),
    tools=[
        booking_agent.as_tool(
            tool_name="booking_expert",
            tool_description="Handles booking questions and requests.",
        ),
        refund_agent.as_tool(
            tool_name="refund_expert",
            tool_description="Handles refund questions and requests.",
        )
    ],
)

任务转移

任务转移是智能体可委托的子智能体。当发生任务转移时,被委托的智能体会接收对话历史并接管对话。该模式支持模块化、专精于单一任务的智能体。更多内容见任务转移文档。

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

triage_agent = Agent(
    name="Triage agent",
    instructions=(
        "Help the user with their questions. "
        "If they ask about booking, hand off to the booking agent. "
        "If they ask about refunds, hand off to the refund agent."
    ),
    handoffs=[booking_agent, refund_agent],
)

动态说明

在大多数情况下,你可以在创建智能体时提供说明。不过,你也可以通过函数提供动态说明。该函数会接收智能体和上下文,并必须返回提示词。支持普通函数和 async 函数。

def dynamic_instructions(
    context: RunContextWrapper[UserContext], agent: Agent[UserContext]
) -> str:
    return f"The user's name is {context.context.name}. Help them with their questions."


agent = Agent[UserContext](
    name="Triage agent",
    instructions=dynamic_instructions,
)

生命周期事件(hooks)

有时你会希望观察智能体的生命周期。例如,你可能希望在特定事件发生时记录日志、预取数据或记录使用情况。

有两种 hook 作用域:

  • RunHooks 观察整个 Runner.run(...) 调用,包括向其他智能体的任务转移。
  • AgentHooks 通过 agent.hooks 附加到特定智能体实例。

回调上下文也会随事件而变化:

  • 智能体开始/结束 hooks 接收 AgentHookContext,它包装你的原始上下文并携带共享的运行使用状态。
  • LLM、工具和任务转移 hooks 接收 RunContextWrapper

典型 hook 时机:

  • on_agent_start / on_agent_end:特定智能体开始或结束生成最终输出时。
  • on_llm_start / on_llm_end:每次模型调用前后。
  • on_tool_start / on_tool_end:每次本地工具调用前后。
  • on_handoff:控制权从一个智能体转移到另一个智能体时。

当你希望为整个工作流设置单一观察者时使用 RunHooks,当某个智能体需要自定义副作用时使用 AgentHooks

from agents import Agent, RunHooks, Runner


class LoggingHooks(RunHooks):
    async def on_agent_start(self, context, agent):
        print(f"Starting {agent.name}")

    async def on_llm_end(self, context, agent, response):
        print(f"{agent.name} produced {len(response.output)} output items")

    async def on_agent_end(self, context, agent, output):
        print(f"{agent.name} finished with usage: {context.usage}")


agent = Agent(name="Assistant", instructions="Be concise.")
result = await Runner.run(agent, "Explain quines", hooks=LoggingHooks())
print(result.final_output)

完整回调接口请参见生命周期 API 参考

安全防护措施

安全防护措施允许你在智能体运行的同时并行对用户输入执行检查/验证,并在智能体输出生成后进行检查/验证。例如,你可以筛查用户输入和智能体输出的相关性。更多内容见安全防护措施文档。

智能体克隆/复制

通过对智能体使用 clone() 方法,你可以复制一个智能体,并可选择性地更改任意属性。

pirate_agent = Agent(
    name="Pirate",
    instructions="Write like a pirate",
    model="gpt-5.4",
)

robot_agent = pirate_agent.clone(
    name="Robot",
    instructions="Write like a robot",
)

强制工具使用

提供工具列表并不总是意味着 LLM 会使用工具。你可以通过设置 ModelSettings.tool_choice 来强制使用工具。有效值包括:

  1. auto:允许 LLM 自行决定是否使用工具。
  2. required:要求 LLM 必须使用工具(但它可智能决定使用哪个工具)。
  3. none:要求 LLM 使用工具。
  4. 设置特定字符串,例如 my_tool:要求 LLM 使用该特定工具。
from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    model_settings=ModelSettings(tool_choice="get_weather")
)

工具使用行为

Agent 配置中的 tool_use_behavior 参数控制如何处理工具输出:

  • "run_llm_again":默认值。运行工具后,由 LLM 处理结果并生成最终响应。
  • "stop_on_first_tool":将首次工具调用的输出作为最终响应,不再进行后续 LLM 处理。
from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior="stop_on_first_tool"
)
  • StopAtTools(stop_at_tool_names=[...]):若调用了任一指定工具则停止,并将其输出作为最终响应。
from agents import Agent, Runner, function_tool
from agents.agent import StopAtTools

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

@function_tool
def sum_numbers(a: int, b: int) -> int:
    """Adds two numbers."""
    return a + b

agent = Agent(
    name="Stop At Stock Agent",
    instructions="Get weather or sum numbers.",
    tools=[get_weather, sum_numbers],
    tool_use_behavior=StopAtTools(stop_at_tool_names=["get_weather"])
)
  • ToolsToFinalOutputFunction:自定义函数,用于处理工具结果并决定停止还是继续由 LLM 处理。
from agents import Agent, Runner, function_tool, FunctionToolResult, RunContextWrapper
from agents.agent import ToolsToFinalOutputResult
from typing import List, Any

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

def custom_tool_handler(
    context: RunContextWrapper[Any],
    tool_results: List[FunctionToolResult]
) -> ToolsToFinalOutputResult:
    """Processes tool results to decide final output."""
    for result in tool_results:
        if result.output and "sunny" in result.output:
            return ToolsToFinalOutputResult(
                is_final_output=True,
                final_output=f"Final weather: {result.output}"
            )
    return ToolsToFinalOutputResult(
        is_final_output=False,
        final_output=None
    )

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior=custom_tool_handler
)

Note

为防止无限循环,框架会在工具调用后自动将 tool_choice 重置为 "auto"。该行为可通过 agent.reset_tool_choice 配置。出现无限循环的原因是:工具结果会发送给 LLM,而后者又因为 tool_choice 再次生成工具调用,如此无限重复。