コンテンツにスキップ

エージェント

エージェントは、アプリにおける中核的な構成要素です。エージェントは、 instructions、tools、およびハンドオフ、ガードレール、structured outputs などの任意のランタイム動作で設定された大規模言語モデル (LLM) です。

単一のプレーンな Agent を定義またはカスタマイズしたい場合は、このページを使用してください。複数のエージェントをどのように協調させるかを決める場合は、エージェントオーケストレーションをお読みください。エージェントを、マニフェストで定義されたファイルとサンドボックスネイティブな機能を持つ分離ワークスペース内で実行する必要がある場合は、サンドボックスエージェントの概念をお読みください。

SDK は OpenAI モデルに対してデフォルトで Responses API を使用しますが、ここでの違いはオーケストレーションです。AgentRunner により、SDK がターン、ツール、ガードレール、ハンドオフ、セッションを管理できます。このループを自分で制御したい場合は、代わりに Responses API を直接使用してください。

次のガイドの選択

このページは、エージェント定義のハブとして使用してください。次に行う必要がある判断に合った隣接ガイドへ移動してください。

したいこと 次に読むもの
モデルまたはプロバイダー設定を選択する モデル
エージェントに機能を追加する ツール
実際のリポジトリ、ドキュメントバンドル、または分離ワークスペースに対してエージェントを実行する サンドボックスエージェントのクイックスタート
マネージャー形式のオーケストレーションとハンドオフのどちらにするかを決める エージェントオーケストレーション
ハンドオフ動作を設定する ハンドオフ
ターンの実行、イベントのストリーミング、または会話状態の管理を行う エージェントの実行
最終出力、実行アイテム、または再開可能な状態を確認する 結果
ローカル依存関係とランタイム状態を共有する コンテキスト管理

基本設定

エージェントの最も一般的なプロパティは次のとおりです。

プロパティ 必須 説明
name はい 人間が読めるエージェント名。
instructions はい システムプロンプトまたは動的 instructions コールバック。動的 instructionsを参照してください。
prompt いいえ OpenAI Responses API のプロンプト設定。静的プロンプトオブジェクトまたは関数を受け付けます。プロンプトテンプレートを参照してください。
handoff_description いいえ このエージェントがハンドオフ先として提示されるときに公開される短い説明。
handoffs いいえ 会話を専門エージェントに委任します。ハンドオフを参照してください。
model いいえ 使用する LLM。モデルを参照してください。
model_settings いいえ temperaturetop_ptool_choice などのモデル調整パラメーター。
tools いいえ エージェントが呼び出せるツール。ツールを参照してください。
mcp_servers いいえ エージェント用の MCP バックのツール。MCP ガイドを参照してください。
mcp_config いいえ 厳密なスキーマ変換や MCP 失敗時の整形など、MCP ツールの準備方法を微調整します。MCP ガイドを参照してください。
input_guardrails いいえ このエージェントチェーンの最初のユーザー入力で実行されるガードレール。ガードレールを参照してください。
output_guardrails いいえ このエージェントの最終出力で実行されるガードレール。ガードレールを参照してください。
output_type いいえ プレーンテキストの代わりとなる structured outputs 型。出力型を参照してください。
hooks いいえ エージェントスコープのライフサイクルコールバック。ライフサイクルイベント (hooks)を参照してください。
tool_use_behavior いいえ ツール結果をモデルに戻してループさせるか、実行を終了するかを制御します。ツール使用動作を参照してください。
reset_tool_choice いいえ ツール使用ループを避けるため、ツール呼び出し後に tool_choice をリセットします (デフォルト: True)。ツール使用の強制を参照してください。
from agents import Agent, ModelSettings, function_tool

@function_tool
def get_weather(city: str) -> str:
    """returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Haiku agent",
    instructions="Always respond in haiku form",
    model="gpt-5-nano",
    tools=[get_weather],
)

このセクションのすべては Agent に適用されます。SandboxAgent は同じ考え方を基にしており、ワークスペーススコープの実行のために default_manifestbase_instructionscapabilitiesrun_as を追加します。サンドボックスエージェントの概念を参照してください。

プロンプトテンプレート

prompt を設定することで、OpenAI プラットフォームで作成したプロンプトテンプレートを参照できます。これは Responses API を使用する OpenAI モデルで機能します。

使用するには、次を行ってください。

  1. https://platform.openai.com/playground/prompts に移動します
  2. 新しいプロンプト変数 poem_style を作成します。
  3. 次の内容でシステムプロンプトを作成します。

    Write a poem in {{poem_style}}
    
  4. --prompt-id フラグを指定して例を実行します。

from agents import Agent

agent = Agent(
    name="Prompted assistant",
    prompt={
        "id": "pmpt_123",
        "version": "1",
        "variables": {"poem_style": "haiku"},
    },
)

実行時にプロンプトを動的に生成することもできます。

from dataclasses import dataclass

from agents import Agent, GenerateDynamicPromptData, Runner

@dataclass
class PromptContext:
    prompt_id: str
    poem_style: str


async def build_prompt(data: GenerateDynamicPromptData):
    ctx: PromptContext = data.context.context
    return {
        "id": ctx.prompt_id,
        "version": "1",
        "variables": {"poem_style": ctx.poem_style},
    }


agent = Agent(name="Prompted assistant", prompt=build_prompt)
result = await Runner.run(
    agent,
    "Say hello",
    context=PromptContext(prompt_id="pmpt_123", poem_style="limerick"),
)

コンテキスト

エージェントは context 型に対してジェネリックです。コンテキストは依存性注入ツールです。これは、作成して Runner.run() に渡すオブジェクトであり、すべてのエージェント、ツール、ハンドオフなどに渡され、エージェント実行のための依存関係と状態をまとめて保持するものとして機能します。任意の Python オブジェクトをコンテキストとして提供できます。

完全な RunContextWrapper のインターフェース、共有使用量トラッキング、ネストされた tool_input、およびシリアライズ時の注意点については、コンテキストガイドをお読みください。

@dataclass
class UserContext:
    name: str
    uid: str
    is_pro_user: bool

    async def fetch_purchases() -> list[Purchase]:
        return ...

agent = Agent[UserContext](
    ...,
)

出力型

デフォルトでは、エージェントはプレーンテキスト (つまり str) の出力を生成します。エージェントに特定の型の出力を生成させたい場合は、output_type パラメーターを使用できます。一般的な選択肢は Pydantic オブジェクトを使用することですが、Pydantic の TypeAdapter でラップできる任意の型をサポートしています。dataclasses、lists、TypedDict などです。

from pydantic import BaseModel
from agents import Agent


class CalendarEvent(BaseModel):
    name: str
    date: str
    participants: list[str]

agent = Agent(
    name="Calendar extractor",
    instructions="Extract calendar events from text",
    output_type=CalendarEvent,
)

Note

output_type を渡すと、通常のプレーンテキスト応答の代わりに structured outputs を使用するようモデルに指示します。

マルチエージェントシステムの設計パターン

マルチエージェントシステムを設計する方法は多数ありますが、一般的には広く適用できる 2 つのパターンがよく見られます。

  1. マネージャー (agents as tools): 中央のマネージャー / オーケストレーターが、ツールとして公開された専門サブエージェントを呼び出し、会話の制御を保持します。
  2. ハンドオフ: 対等なエージェントが、会話を引き継ぐ専門エージェントへ制御を渡します。これは分散型です。

詳細については、エージェント構築の実践ガイドを参照してください。

マネージャー (agents as tools)

customer_facing_agent はすべてのユーザー操作を処理し、ツールとして公開された専門サブエージェントを呼び出します。詳細は ツール ドキュメントをお読みください。

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

customer_facing_agent = Agent(
    name="Customer-facing agent",
    instructions=(
        "Handle all direct user communication. "
        "Call the relevant tools when specialized expertise is needed."
    ),
    tools=[
        booking_agent.as_tool(
            tool_name="booking_expert",
            tool_description="Handles booking questions and requests.",
        ),
        refund_agent.as_tool(
            tool_name="refund_expert",
            tool_description="Handles refund questions and requests.",
        )
    ],
)

ハンドオフ

ハンドオフは、エージェントが委任できるサブエージェントです。ハンドオフが発生すると、委任先のエージェントは会話履歴を受け取り、会話を引き継ぎます。このパターンにより、単一タスクに優れたモジュール型の専門エージェントを実現できます。詳細は ハンドオフ ドキュメントをお読みください。

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

triage_agent = Agent(
    name="Triage agent",
    instructions=(
        "Help the user with their questions. "
        "If they ask about booking, hand off to the booking agent. "
        "If they ask about refunds, hand off to the refund agent."
    ),
    handoffs=[booking_agent, refund_agent],
)

動的 instructions

ほとんどの場合、エージェントを作成するときに instructions を指定できます。ただし、関数を介して動的 instructions を指定することもできます。この関数はエージェントとコンテキストを受け取り、プロンプトを返す必要があります。通常の関数と async 関数の両方が受け付けられます。

def dynamic_instructions(
    context: RunContextWrapper[UserContext], agent: Agent[UserContext]
) -> str:
    return f"The user's name is {context.context.name}. Help them with their questions."


agent = Agent[UserContext](
    name="Triage agent",
    instructions=dynamic_instructions,
)

ライフサイクルイベント (hooks)

場合によっては、エージェントのライフサイクルを観察したいことがあります。たとえば、特定のイベントが発生したときに、イベントのログ記録、データの事前取得、使用量の記録を行いたい場合があります。

フックには 2 つのスコープがあります。

  • RunHooks は、他のエージェントへのハンドオフを含む Runner.run(...) 呼び出し全体を観察します。
  • AgentHooksagent.hooks を介して特定のエージェントインスタンスにアタッチされます。

コールバックコンテキストも、イベントによって変わります。

  • エージェント開始 / 終了フックは AgentHookContext を受け取ります。これは元のコンテキストをラップし、共有実行使用量状態を保持します。
  • LLM、ツール、ハンドオフのフックは RunContextWrapper を受け取ります。

典型的なフックのタイミングは次のとおりです。

  • on_agent_start / on_agent_end: 特定のエージェントが最終出力の生成を開始または完了したとき。
  • on_llm_start / on_llm_end: 各モデル呼び出しの直前直後。
  • on_tool_start / on_tool_end: 各ローカルツール呼び出しの前後。 関数ツールでは、フックの context は通常 ToolContext であるため、tool_call_id などのツール呼び出しメタデータを確認できます。
  • on_handoff: 制御が 1 つのエージェントから別のエージェントへ移るとき。

ワークフロー全体に対して 1 つのオブザーバーが必要な場合は RunHooks を使用し、1 つのエージェントにカスタム副作用が必要な場合は AgentHooks を使用してください。

from agents import Agent, RunHooks, Runner


class LoggingHooks(RunHooks):
    async def on_agent_start(self, context, agent):
        print(f"Starting {agent.name}")

    async def on_llm_end(self, context, agent, response):
        print(f"{agent.name} produced {len(response.output)} output items")

    async def on_agent_end(self, context, agent, output):
        print(f"{agent.name} finished with usage: {context.usage}")


agent = Agent(name="Assistant", instructions="Be concise.")
result = await Runner.run(agent, "Explain quines", hooks=LoggingHooks())
print(result.final_output)

完全なコールバックインターフェースについては、Lifecycle API リファレンスを参照してください。

ガードレール

ガードレールを使用すると、エージェントの実行と並行してユーザー入力に対するチェック / 検証を実行し、生成後のエージェント出力に対しても実行できます。たとえば、ユーザー入力とエージェント出力の関連性をスクリーニングできます。詳細は ガードレール ドキュメントをお読みください。

エージェントのクローン / コピー

エージェントの clone() メソッドを使用すると、Agent を複製し、必要に応じて任意のプロパティを変更できます。

pirate_agent = Agent(
    name="Pirate",
    instructions="Write like a pirate",
    model="gpt-5.5",
)

robot_agent = pirate_agent.clone(
    name="Robot",
    instructions="Write like a robot",
)

ツール使用の強制

ツールのリストを指定しても、LLM が必ずツールを使用するとは限りません。ModelSettings.tool_choice を設定することで、ツール使用を強制できます。有効な値は次のとおりです。

  1. auto: LLM がツールを使用するかどうかを判断できるようにします。
  2. required: LLM にツールの使用を必須にします (ただし、どのツールを使うかは賢く判断できます)。
  3. none: LLM にツールを使用しないことを必須にします。
  4. 特定の文字列 (例: my_tool) を設定すると、LLM にその特定のツールの使用を必須にします。

OpenAI Responses のツール検索を使用している場合、名前付きツール選択にはより多くの制限があります。tool_choice で bare namespace 名や deferred-only ツールを対象にすることはできず、tool_choice="tool_search"ToolSearchTool を対象にしません。このような場合は、auto または required を優先してください。Responses 固有の制約については、ホスト型ツール検索を参照してください。

from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    model_settings=ModelSettings(tool_choice="get_weather")
)

ツール使用動作

Agent 設定の tool_use_behavior パラメーターは、ツール出力の処理方法を制御します。

  • "run_llm_again": デフォルトです。ツールが実行され、LLM がその結果を処理して最終応答を生成します。
  • "stop_on_first_tool": 最初のツール呼び出しの出力が、それ以上の LLM 処理なしで最終応答として使用されます。
from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior="stop_on_first_tool"
)
  • StopAtTools(stop_at_tool_names=[...]): 指定されたツールのいずれかが呼び出された場合に停止し、その出力を最終応答として使用します。
from agents import Agent, Runner, function_tool
from agents.agent import StopAtTools

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

@function_tool
def sum_numbers(a: int, b: int) -> int:
    """Adds two numbers."""
    return a + b

agent = Agent(
    name="Stop At Stock Agent",
    instructions="Get weather or sum numbers.",
    tools=[get_weather, sum_numbers],
    tool_use_behavior=StopAtTools(stop_at_tool_names=["get_weather"])
)
  • ToolsToFinalOutputFunction: ツール結果を処理し、LLM で停止するか継続するかを決定するカスタム関数。
from agents import Agent, Runner, function_tool, FunctionToolResult, RunContextWrapper
from agents.agent import ToolsToFinalOutputResult
from typing import List, Any

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

def custom_tool_handler(
    context: RunContextWrapper[Any],
    tool_results: List[FunctionToolResult]
) -> ToolsToFinalOutputResult:
    """Processes tool results to decide final output."""
    for result in tool_results:
        if result.output and "sunny" in result.output:
            return ToolsToFinalOutputResult(
                is_final_output=True,
                final_output=f"Final weather: {result.output}"
            )
    return ToolsToFinalOutputResult(
        is_final_output=False,
        final_output=None
    )

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior=custom_tool_handler
)

Note

無限ループを防ぐため、フレームワークはツール呼び出し後に tool_choice を自動的に "auto" にリセットします。この動作は agent.reset_tool_choice で設定できます。無限ループが起きる理由は、ツール結果が LLM に送信され、その後 tool_choice によって LLM がさらに別のツール呼び出しを生成し、これが際限なく続くためです。