ツール
ツールは、エージェントがアクションを実行できるようにします。たとえば、データの取得、コードの実行、外部 API の呼び出し、さらにはコンピュータの使用などです。この SDK は、5 つのカテゴリーをサポートしています。
- OpenAI がホストするツール: OpenAI サーバー上で、モデルと並行して実行されます。
- ローカルランタイムツール: お使いの環境で実行されます (コンピュータ操作、シェル、パッチ適用)。
- Function Calling: 任意の Python 関数をツールとしてラップします。
- Agents as tools: 完全なハンドオフなしに、エージェントを呼び出し可能なツールとして公開します。
- 実験的: Codex ツール: ツール呼び出しから、ワークスペーススコープの Codex タスクを実行します。
ホストされるツール
OpenAI は、OpenAIResponsesModel を使用する際に、いくつかの組み込みツールを提供します。
WebSearchToolは、エージェントが Web 検索を行えるようにします。FileSearchToolは、OpenAI ベクトルストアから情報を取得できるようにします。CodeInterpreterToolは、LLM がサンドボックス環境でコードを実行できるようにします。HostedMCPToolは、リモートの MCP サーバーのツールをモデルに公開します。ImageGenerationToolは、プロンプトから画像を生成します。
from agents import Agent, FileSearchTool, Runner, WebSearchTool
agent = Agent(
name="Assistant",
tools=[
WebSearchTool(),
FileSearchTool(
max_num_results=3,
vector_store_ids=["VECTOR_STORE_ID"],
),
],
)
async def main():
result = await Runner.run(agent, "Which coffee shop should I go to, taking into account my preferences and the weather today in SF?")
print(result.final_output)
ローカルランタイムツール
ローカルランタイムツールはお使いの環境で実行され、実装の提供が必要です。
ComputerTool:ComputerまたはAsyncComputerインターフェースを実装して、GUI / ブラウザの自動化を有効にします。ShellToolまたはLocalShellTool: コマンドを実行するためのシェル実行器を提供します。ApplyPatchTool:ApplyPatchEditorを実装して、差分をローカルに適用します。
from agents import Agent, ApplyPatchTool, ShellTool
from agents.computer import AsyncComputer
from agents.editor import ApplyPatchResult, ApplyPatchOperation, ApplyPatchEditor
class NoopComputer(AsyncComputer):
environment = "browser"
dimensions = (1024, 768)
async def screenshot(self): return ""
async def click(self, x, y, button): ...
async def double_click(self, x, y): ...
async def scroll(self, x, y, scroll_x, scroll_y): ...
async def type(self, text): ...
async def wait(self): ...
async def move(self, x, y): ...
async def keypress(self, keys): ...
async def drag(self, path): ...
class NoopEditor(ApplyPatchEditor):
async def create_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def update_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def delete_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def run_shell(request):
return "shell output"
agent = Agent(
name="Local tools agent",
tools=[
ShellTool(executor=run_shell),
ApplyPatchTool(editor=NoopEditor()),
# ComputerTool expects a Computer/AsyncComputer implementation; omitted here for brevity.
],
)
関数ツール
任意の Python 関数をツールとして利用できます。Agents SDK がツールを自動的にセットアップします。
- ツール名は Python 関数名になります (または名前を指定できます)
- ツールの説明は、関数の docstring から取得されます (または説明を指定できます)
- 関数入力のスキーマは、関数の引数から自動的に作成されます
- 各入力の説明は、無効化されていない限り、関数の docstring から取得されます
関数シグネチャの抽出には Python の inspect モジュールを使用し、docstring の解析には griffe を、スキーマ作成には pydantic を使用します。
import json
from typing_extensions import TypedDict, Any
from agents import Agent, FunctionTool, RunContextWrapper, function_tool
class Location(TypedDict):
lat: float
long: float
@function_tool # (1)!
async def fetch_weather(location: Location) -> str:
# (2)!
"""Fetch the weather for a given location.
Args:
location: The location to fetch the weather for.
"""
# In real life, we'd fetch the weather from a weather API
return "sunny"
@function_tool(name_override="fetch_data") # (3)!
def read_file(ctx: RunContextWrapper[Any], path: str, directory: str | None = None) -> str:
"""Read the contents of a file.
Args:
path: The path to the file to read.
directory: The directory to read the file from.
"""
# In real life, we'd read the file from the file system
return "<file contents>"
agent = Agent(
name="Assistant",
tools=[fetch_weather, read_file], # (4)!
)
for tool in agent.tools:
if isinstance(tool, FunctionTool):
print(tool.name)
print(tool.description)
print(json.dumps(tool.params_json_schema, indent=2))
print()
- 関数の引数には任意の Python 型を使用でき、関数は同期でも非同期でもかまいません。
- docstring が存在する場合は、説明および引数の説明を取得するために使用されます。
- 関数は任意で
contextを受け取れます (最初の引数である必要があります)。また、ツール名、説明、使用する docstring スタイルなどの上書きも設定できます。 - デコレートした関数をツールのリストに渡せます。
出力を表示するには展開してください
fetch_weather
Fetch the weather for a given location.
{
"$defs": {
"Location": {
"properties": {
"lat": {
"title": "Lat",
"type": "number"
},
"long": {
"title": "Long",
"type": "number"
}
},
"required": [
"lat",
"long"
],
"title": "Location",
"type": "object"
}
},
"properties": {
"location": {
"$ref": "#/$defs/Location",
"description": "The location to fetch the weather for."
}
},
"required": [
"location"
],
"title": "fetch_weather_args",
"type": "object"
}
fetch_data
Read the contents of a file.
{
"properties": {
"path": {
"description": "The path to the file to read.",
"title": "Path",
"type": "string"
},
"directory": {
"anyOf": [
{
"type": "string"
},
{
"type": "null"
}
],
"default": null,
"description": "The directory to read the file from.",
"title": "Directory"
}
},
"required": [
"path"
],
"title": "fetch_data_args",
"type": "object"
}
関数ツールからの画像またはファイルの返却
関数ツールの出力としてテキストを返すことに加えて、1 つ以上の画像またはファイルを返せます。これを行うには、次のいずれかを返せます。
- 画像:
ToolOutputImage(または TypedDict 版のToolOutputImageDict) - ファイル:
ToolOutputFileContent(または TypedDict 版のToolOutputFileContentDict) - テキスト: 文字列または文字列化可能なオブジェクト、あるいは
ToolOutputText(または TypedDict 版のToolOutputTextDict)
カスタム関数ツール
場合によっては、Python 関数をツールとして使いたくないことがあります。その場合は、必要に応じて FunctionTool を直接作成できます。次の提供が必要です。
namedescriptionparams_json_schema(引数の JSON Schema)on_invoke_tool(ToolContextと、JSON 文字列としての引数を受け取る async 関数で、ツール出力を文字列として返す必要があります)
from typing import Any
from pydantic import BaseModel
from agents import RunContextWrapper, FunctionTool
def do_some_work(data: str) -> str:
return "done"
class FunctionArgs(BaseModel):
username: str
age: int
async def run_function(ctx: RunContextWrapper[Any], args: str) -> str:
parsed = FunctionArgs.model_validate_json(args)
return do_some_work(data=f"{parsed.username} is {parsed.age} years old")
tool = FunctionTool(
name="process_user",
description="Processes extracted user data",
params_json_schema=FunctionArgs.model_json_schema(),
on_invoke_tool=run_function,
)
引数および docstring の自動解析
前述のとおり、ツールのスキーマを抽出するために関数シグネチャを自動的に解析し、ツールおよび個々の引数の説明を抽出するために docstring を解析します。これに関する補足は次のとおりです。
- シグネチャの解析は
inspectモジュールで行います。引数の型を理解するために型アノテーションを使用し、全体スキーマを表す Pydantic モデルを動的に構築します。Python のプリミティブ、Pydantic モデル、TypedDict などを含む多くの型をサポートしています。 - docstring の解析には
griffeを使用します。サポートされる docstring 形式はgoogle、sphinx、numpyです。docstring 形式は自動検出を試みますが、これはベストエフォートであり、function_tool呼び出し時に明示的に設定できます。また、use_docstring_infoをFalseに設定することで docstring 解析を無効化できます。
スキーマ抽出のコードは agents.function_schema にあります。
Agents as tools
一部のワークフローでは、制御をハンドオフする代わりに、中心となるエージェントが専門エージェントのネットワークをオーケストレーションしたい場合があります。これは、エージェントをツールとしてモデル化することで実現できます。
from agents import Agent, Runner
import asyncio
spanish_agent = Agent(
name="Spanish agent",
instructions="You translate the user's message to Spanish",
)
french_agent = Agent(
name="French agent",
instructions="You translate the user's message to French",
)
orchestrator_agent = Agent(
name="orchestrator_agent",
instructions=(
"You are a translation agent. You use the tools given to you to translate."
"If asked for multiple translations, you call the relevant tools."
),
tools=[
spanish_agent.as_tool(
tool_name="translate_to_spanish",
tool_description="Translate the user's message to Spanish",
),
french_agent.as_tool(
tool_name="translate_to_french",
tool_description="Translate the user's message to French",
),
],
)
async def main():
result = await Runner.run(orchestrator_agent, input="Say 'Hello, how are you?' in Spanish.")
print(result.final_output)
ツールエージェントのカスタマイズ
agent.as_tool 関数は、エージェントをツールに変換しやすくするための便利メソッドです。max_turns、run_config、hooks、previous_response_id、conversation_id、session、needs_approval といった一般的なランタイムオプションをサポートします。また、parameters、input_builder、include_input_schema による構造化入力もサポートします。高度なオーケストレーション (たとえば、条件付きのリトライ、フォールバック動作、複数のエージェント呼び出しの連鎖) には、ツール実装内で Runner.run を直接使用してください。
@function_tool
async def run_my_agent() -> str:
"""A tool that runs the agent with custom configs"""
agent = Agent(name="My agent", instructions="...")
result = await Runner.run(
agent,
input="...",
max_turns=5,
run_config=...
)
return str(result.final_output)
ツールエージェント向けの構造化入力
デフォルトでは、Agent.as_tool() は単一の文字列入力 ({"input": "..."}) を想定しますが、parameters (Pydantic モデルまたは dataclass 型) を渡すことで、構造化されたスキーマを公開できます。
追加オプション:
include_input_schema=Trueは、生成されるネストされた入力に完全な JSON Schema を含めます。input_builder=...は、構造化されたツール引数をネストされたエージェント入力へ変換する方法を完全にカスタマイズできます。RunContextWrapper.tool_inputには、ネストされた実行コンテキスト内でパース済みの構造化ペイロードが含まれます。
from pydantic import BaseModel, Field
class TranslationInput(BaseModel):
text: str = Field(description="Text to translate.")
source: str = Field(description="Source language.")
target: str = Field(description="Target language.")
translator_tool = translator_agent.as_tool(
tool_name="translate_text",
tool_description="Translate text between languages.",
parameters=TranslationInput,
include_input_schema=True,
)
完全に実行可能な例については examples/agent_patterns/agents_as_tools_structured.py を参照してください。
ツールエージェントの承認ゲート
Agent.as_tool(..., needs_approval=...) は function_tool と同じ承認フローを使用します。承認が必要な場合、実行は一時停止し、保留中アイテムが result.interruptions に表示されます。その後 result.to_state() を使用し、state.approve(...) または state.reject(...) を呼び出してから再開します。完全な一時停止/再開パターンについては Human-in-the-loop ガイド を参照してください。
カスタム出力抽出
特定のケースでは、中心エージェントに返す前に、ツールエージェントの出力を変更したい場合があります。これは次のような場合に有用です。
- サブエージェントのチャット履歴から特定の情報 (例: JSON ペイロード) を抽出する。
- エージェントの最終回答を変換または整形し直す (例: Markdown をプレーンテキストや CSV に変換する)。
- 出力を検証する、またはエージェントの応答が欠落している/不正な形式である場合にフォールバック値を提供する。
これは、as_tool メソッドに custom_output_extractor 引数を指定することで行えます。
async def extract_json_payload(run_result: RunResult) -> str:
# Scan the agent’s outputs in reverse order until we find a JSON-like message from a tool call.
for item in reversed(run_result.new_items):
if isinstance(item, ToolCallOutputItem) and item.output.strip().startswith("{"):
return item.output.strip()
# Fallback to an empty JSON object if nothing was found
return "{}"
json_tool = data_agent.as_tool(
tool_name="get_data_json",
tool_description="Run the data agent and return only its JSON payload",
custom_output_extractor=extract_json_payload,
)
ネストされたエージェント実行のストリーミング
as_tool に on_stream コールバックを渡すことで、ストリームが完了した後に最終出力を返しつつ、ネストされたエージェントが発行するストリーミングイベントを監視できます。
from agents import AgentToolStreamEvent
async def handle_stream(event: AgentToolStreamEvent) -> None:
# Inspect the underlying StreamEvent along with agent metadata.
print(f"[stream] {event['agent'].name} :: {event['event'].type}")
billing_agent_tool = billing_agent.as_tool(
tool_name="billing_helper",
tool_description="Answer billing questions.",
on_stream=handle_stream, # Can be sync or async.
)
期待される動作:
- イベント種別は
StreamEvent["type"]を反映します:raw_response_event、run_item_stream_event、agent_updated_stream_event。 on_streamを指定すると、ネストされたエージェントは自動的にストリーミングモードで実行され、最終出力を返す前にストリームを最後まで消費します。- ハンドラーは同期でも非同期でもよく、各イベントは到着順に配信されます。
tool_callは、モデルのツール呼び出し経由でツールが起動された場合に存在します。直接呼び出しではNoneのままの場合があります。- 完全に実行可能なサンプルについては
examples/agent_patterns/agents_as_tools_streaming.pyを参照してください。
条件付きツール有効化
is_enabled パラメーターを使用して、実行時にエージェントツールを条件付きで有効/無効にできます。これにより、コンテキスト、ユーザー設定、またはランタイム条件に基づいて、LLM が利用できるツールを動的にフィルタリングできます。
import asyncio
from agents import Agent, AgentBase, Runner, RunContextWrapper
from pydantic import BaseModel
class LanguageContext(BaseModel):
language_preference: str = "french_spanish"
def french_enabled(ctx: RunContextWrapper[LanguageContext], agent: AgentBase) -> bool:
"""Enable French for French+Spanish preference."""
return ctx.context.language_preference == "french_spanish"
# Create specialized agents
spanish_agent = Agent(
name="spanish_agent",
instructions="You respond in Spanish. Always reply to the user's question in Spanish.",
)
french_agent = Agent(
name="french_agent",
instructions="You respond in French. Always reply to the user's question in French.",
)
# Create orchestrator with conditional tools
orchestrator = Agent(
name="orchestrator",
instructions=(
"You are a multilingual assistant. You use the tools given to you to respond to users. "
"You must call ALL available tools to provide responses in different languages. "
"You never respond in languages yourself, you always use the provided tools."
),
tools=[
spanish_agent.as_tool(
tool_name="respond_spanish",
tool_description="Respond to the user's question in Spanish",
is_enabled=True, # Always enabled
),
french_agent.as_tool(
tool_name="respond_french",
tool_description="Respond to the user's question in French",
is_enabled=french_enabled,
),
],
)
async def main():
context = RunContextWrapper(LanguageContext(language_preference="french_spanish"))
result = await Runner.run(orchestrator, "How are you?", context=context.context)
print(result.final_output)
asyncio.run(main())
is_enabled パラメーターが受け付けるもの:
- ブール値:
True(常に有効) またはFalse(常に無効) - 呼び出し可能関数:
(context, agent)を受け取りブール値を返す関数 - 非同期関数: 複雑な条件ロジックのための async 関数
無効化されたツールは、実行時に LLM から完全に隠されるため、次の用途に有用です。
- ユーザー権限に基づく機能ゲーティング
- 環境別のツール可用性 (dev vs prod)
- 異なるツール構成の A/B テスト
- 実行時状態に基づく動的なツールフィルタリング
実験的: Codex ツール
codex_tool は Codex CLI をラップし、エージェントがツール呼び出し中にワークスペーススコープのタスク (シェル、ファイル編集、MCP ツール) を実行できるようにします。このインターフェースは実験的であり、変更される可能性があります。デフォルトではツール名は codex です。カスタム名を設定する場合、codex であるか、codex_ で始まる必要があります。エージェントが複数の Codex ツールを含む場合、それぞれは (Codex 以外のツールを含めて) 一意の名前を使用する必要があります。
from agents import Agent
from agents.extensions.experimental.codex import ThreadOptions, TurnOptions, codex_tool
agent = Agent(
name="Codex Agent",
instructions="Use the codex tool to inspect the workspace and answer the question.",
tools=[
codex_tool(
sandbox_mode="workspace-write",
working_directory="/path/to/repo",
default_thread_options=ThreadOptions(
model="gpt-5.2-codex",
model_reasoning_effort="low",
network_access_enabled=True,
web_search_mode="disabled",
approval_policy="never",
),
default_turn_options=TurnOptions(
idle_timeout_seconds=60,
),
persist_session=True,
)
],
)
知っておくべきこと:
- 認証:
CODEX_API_KEY(推奨) またはOPENAI_API_KEYを設定するか、codex_options={"api_key": "..."}を渡してください。 - ランタイム:
codex_options.base_urlは CLI の base URL を上書きします。 - バイナリ解決:
codex_options.codex_path_override(またはCODEX_PATH) を設定して CLI パスを固定します。設定しない場合、SDK はPATHからcodexを解決し、それでも見つからなければ同梱の vendor バイナリへフォールバックします。 - 環境:
codex_options.envはサブプロセス環境を完全に制御します。これが提供されると、サブプロセスはos.environを継承しません。 - ストリーム制限:
codex_options.codex_subprocess_stream_limit_bytes(またはOPENAI_AGENTS_CODEX_SUBPROCESS_STREAM_LIMIT_BYTES) は stdout/stderr リーダーの制限を制御します。有効範囲は65536から67108864で、デフォルトは8388608です。 - 入力: ツール呼び出しは、
inputsに少なくとも 1 つの{ "type": "text", "text": ... }または{ "type": "local_image", "path": ... }を含む必要があります。 - スレッドのデフォルト:
default_thread_optionsでmodel_reasoning_effort、web_search_mode(レガシーのweb_search_enabledより推奨)、approval_policy、additional_directoriesを構成します。 - ターンのデフォルト:
default_turn_optionsでidle_timeout_secondsとキャンセル用signalを構成します。 - 安全性:
sandbox_modeはworking_directoryと組み合わせてください。Git リポジトリ外ではskip_git_repo_check=Trueを設定してください。 - 実行コンテキストのスレッド永続化:
use_run_context_thread_id=Trueは、同じコンテキストを共有する実行間で、実行コンテキスト内のthread_idを保存して再利用します。これは、変更可能な実行コンテキスト (例:dictや書き込み可能なオブジェクトフィールド) を必要とします。 - 実行コンテキストのキーのデフォルト: 保存されるキーは、
name="codex"の場合はcodex_thread_id、name="codex_<suffix>"の場合はcodex_thread_id_<suffix>がデフォルトです。上書きするにはrun_context_thread_id_keyを設定してください。 - スレッド ID の優先順位: 呼び出しごとの
thread_id入力が最優先で、次に (有効な場合) 実行コンテキストのthread_id、次に設定されたthread_idオプションが続きます。 - ストリーミング:
on_streamは、スレッド/ターンのライフサイクルイベントと、アイテムイベント (reasoning、command_execution、mcp_tool_call、file_change、web_search、todo_list、およびerrorのアイテム更新) を受け取ります。 - 出力: 結果には
response、usage、thread_idが含まれます。usage はRunContextWrapper.usageに追加されます。 - 構造:
output_schemaは、型付き出力が必要な場合に、構造化された Codex 応答を強制します。 - 完全に実行可能なサンプルについては
examples/tools/codex.pyとexamples/tools/codex_same_thread.pyを参照してください。
関数ツールにおけるエラー処理
@function_tool で関数ツールを作成する際に failure_error_function を渡せます。これは、ツール呼び出しがクラッシュした場合に、LLM へ返すエラー応答を提供する関数です。
- デフォルトでは (つまり何も渡さない場合)、
default_tool_error_functionが実行され、エラーが発生したことを LLM に伝えます。 - 独自のエラー関数を渡すと、代わりにそれが実行され、応答が LLM に送信されます。
- 明示的に
Noneを渡した場合、ツール呼び出しエラーは再送出され、ユーザー側で処理できます。これは、モデルが無効な JSON を生成した場合のModelBehaviorErrorや、コードがクラッシュした場合のUserErrorなどになりえます。
from agents import function_tool, RunContextWrapper
from typing import Any
def my_custom_error_function(context: RunContextWrapper[Any], error: Exception) -> str:
"""A custom function to provide a user-friendly error message."""
print(f"A tool call failed with the following error: {error}")
return "An internal server error occurred. Please try again later."
@function_tool(failure_error_function=my_custom_error_function)
def get_user_profile(user_id: str) -> str:
"""Fetches a user profile from a mock API.
This function demonstrates a 'flaky' or failing API call.
"""
if user_id == "user_123":
return "User profile for user_123 successfully retrieved."
else:
raise ValueError(f"Could not retrieve profile for user_id: {user_id}. API returned an error.")
FunctionTool オブジェクトを手動で作成する場合は、on_invoke_tool 関数内でエラーを処理する必要があります。