도구
도구를 사용하면 에이전트가 데이터 가져오기, 코드 실행, 외부 API 호출, 심지어 컴퓨터 사용과 같은 작업을 수행할 수 있습니다. SDK는 다섯 가지 카테고리를 지원합니다.
- 호스티드 OpenAI 도구: OpenAI 서버에서 모델과 함께 실행됩니다.
- 로컬/런타임 실행 도구:
ComputerTool및ApplyPatchTool은 항상 사용자의 환경에서 실행되며,ShellTool은 로컬 또는 호스티드 컨테이너에서 실행될 수 있습니다. - Function Calling: 모든 Python 함수를 도구로 래핑합니다.
- Agents as tools: 전체 핸드오프 없이 에이전트를 호출 가능한 도구로 노출합니다.
- 실험적: Codex 도구: 도구 호출에서 워크스페이스 범위의 Codex 작업을 실행합니다.
도구 유형 선택
이 페이지를 카탈로그로 사용한 다음, 제어하는 런타임에 맞는 섹션으로 이동하세요.
| 원하는 작업 | 시작 위치 |
|---|---|
| OpenAI가 관리하는 도구 사용(웹 검색, 파일 검색, code interpreter, 호스티드 MCP, 이미지 생성) | 호스티드 도구 |
| 도구 검색으로 큰 도구 표면을 런타임까지 지연 | 호스티드 도구 검색 |
| 자체 프로세스 또는 환경에서 도구 실행 | 로컬 런타임 도구 |
| Python 함수를 도구로 래핑 | 함수 도구 |
| 한 에이전트가 핸드오프 없이 다른 에이전트를 호출하도록 허용 | Agents as tools |
| 에이전트에서 워크스페이스 범위 Codex 작업 실행 | 실험적: Codex 도구 |
호스티드 도구
OpenAI는 OpenAIResponsesModel을 사용할 때 몇 가지 기본 제공 도구를 제공합니다.
WebSearchTool을 사용하면 에이전트가 웹을 검색할 수 있습니다.FileSearchTool은 OpenAI 벡터 스토어에서 정보를 검색할 수 있게 합니다.CodeInterpreterTool은 LLM이 샌드박스 환경에서 코드를 실행할 수 있게 합니다.HostedMCPTool은 원격 MCP 서버의 도구를 모델에 노출합니다.ImageGenerationTool은 프롬프트에서 이미지를 생성합니다.ToolSearchTool은 모델이 필요할 때 지연된 도구, 네임스페이스 또는 호스티드 MCP 서버를 로드할 수 있게 합니다.
고급 호스티드 검색 옵션:
FileSearchTool은vector_store_ids및max_num_results외에도filters,ranking_options,include_search_results를 지원합니다.WebSearchTool은filters,user_location,search_context_size를 지원합니다.
from agents import Agent, FileSearchTool, Runner, WebSearchTool
agent = Agent(
name="Assistant",
tools=[
WebSearchTool(),
FileSearchTool(
max_num_results=3,
vector_store_ids=["VECTOR_STORE_ID"],
),
],
)
async def main():
result = await Runner.run(agent, "Which coffee shop should I go to, taking into account my preferences and the weather today in SF?")
print(result.final_output)
호스티드 도구 검색
도구 검색을 사용하면 OpenAI Responses 모델이 큰 도구 표면을 런타임까지 지연시켜, 모델이 현재 턴에 필요한 하위 집합만 로드할 수 있습니다. 이는 함수 도구, 네임스페이스 그룹 또는 호스티드 MCP 서버가 많고 모든 도구를 미리 노출하지 않으면서 도구 스키마 토큰을 줄이고 싶을 때 유용합니다.
후보 도구를 에이전트를 빌드할 때 이미 알고 있다면 호스티드 도구 검색부터 시작하세요. 애플리케이션이 무엇을 로드할지 동적으로 결정해야 하는 경우 Responses API는 클라이언트 실행 도구 검색도 지원하지만, 표준 Runner는 해당 모드를 자동 실행하지 않습니다.
from typing import Annotated
from agents import Agent, Runner, ToolSearchTool, function_tool, tool_namespace
@function_tool(defer_loading=True)
def get_customer_profile(
customer_id: Annotated[str, "The customer ID to look up."],
) -> str:
"""Fetch a CRM customer profile."""
return f"profile for {customer_id}"
@function_tool(defer_loading=True)
def list_open_orders(
customer_id: Annotated[str, "The customer ID to look up."],
) -> str:
"""List open orders for a customer."""
return f"open orders for {customer_id}"
crm_tools = tool_namespace(
name="crm",
description="CRM tools for customer lookups.",
tools=[get_customer_profile, list_open_orders],
)
agent = Agent(
name="Operations assistant",
model="gpt-5.5",
instructions="Load the crm namespace before using CRM tools.",
tools=[*crm_tools, ToolSearchTool()],
)
result = await Runner.run(agent, "Look up customer_42 and list their open orders.")
print(result.final_output)
알아둘 사항:
- 호스티드 도구 검색은 OpenAI Responses 모델에서만 사용할 수 있습니다. 현재 Python SDK 지원은
openai>=2.25.0에 따라 달라집니다. - 에이전트에서 지연 로딩 표면을 구성할 때
ToolSearchTool()을 정확히 하나 추가하세요. - 검색 가능한 표면에는
@function_tool(defer_loading=True),tool_namespace(name=..., description=..., tools=[...]),HostedMCPTool(tool_config={..., "defer_loading": True})가 포함됩니다. - 지연 로딩 함수 도구는 반드시
ToolSearchTool()과 함께 사용해야 합니다. 네임스페이스만 사용하는 구성에서도 모델이 필요할 때 적절한 그룹을 로드하도록ToolSearchTool()을 사용할 수 있습니다. tool_namespace()는FunctionTool인스턴스를 공유 네임스페이스 이름과 설명 아래에 그룹화합니다. 이는 보통crm,billing,shipping처럼 관련 도구가 많을 때 가장 적합합니다.- OpenAI의 공식 모범 사례 가이드는 가능한 경우 네임스페이스 사용입니다.
- 가능하면 개별적으로 지연된 많은 함수보다 네임스페이스나 호스티드 MCP 서버를 선호하세요. 일반적으로 모델에 더 나은 상위 수준 검색 표면과 더 나은 토큰 절감을 제공합니다.
- 네임스페이스는 즉시 사용 가능한 도구와 지연된 도구를 함께 포함할 수 있습니다.
defer_loading=True가 없는 도구는 즉시 호출 가능한 상태로 유지되며, 같은 네임스페이스의 지연된 도구는 도구 검색을 통해 로드됩니다. - 경험상 각 네임스페이스는 비교적 작게 유지하되, 이상적으로는 함수 10개 미만으로 유지하세요.
- 이름이 지정된
tool_choice는 단독 네임스페이스 이름이나 지연 전용 도구를 대상으로 지정할 수 없습니다.auto,required또는 실제 최상위 호출 가능 도구 이름을 선호하세요. ToolSearchTool(execution="client")는 수동 Responses 오케스트레이션용입니다. 모델이 클라이언트 실행tool_search_call을 내보내면 표준Runner는 이를 실행하는 대신 예외를 발생시킵니다.- 도구 검색 활동은 전용 항목 및 이벤트 유형과 함께
RunResult.new_items및RunItemStreamEvent에 나타납니다. - 네임스페이스 로딩과 최상위 지연 도구를 모두 다루는 완전한 실행 가능 예제는
examples/tools/tool_search.py를 참조하세요. - 공식 플랫폼 가이드: 도구 검색
호스티드 컨테이너 셸 + 스킬
ShellTool은 OpenAI 호스티드 컨테이너 실행도 지원합니다. 모델이 로컬 런타임 대신 관리형 컨테이너에서 셸 명령을 실행하도록 하려면 이 모드를 사용하세요.
from agents import Agent, Runner, ShellTool, ShellToolSkillReference
csv_skill: ShellToolSkillReference = {
"type": "skill_reference",
"skill_id": "skill_698bbe879adc81918725cbc69dcae7960bc5613dadaed377",
"version": "1",
}
agent = Agent(
name="Container shell agent",
model="gpt-5.5",
instructions="Use the mounted skill when helpful.",
tools=[
ShellTool(
environment={
"type": "container_auto",
"network_policy": {"type": "disabled"},
"skills": [csv_skill],
}
)
],
)
result = await Runner.run(
agent,
"Use the configured skill to analyze CSV files in /mnt/data and summarize totals by region.",
)
print(result.final_output)
이후 실행에서 기존 컨테이너를 재사용하려면 environment={"type": "container_reference", "container_id": "cntr_..."}를 설정하세요.
알아둘 사항:
- 호스티드 셸은 Responses API 셸 도구를 통해 사용할 수 있습니다.
container_auto는 요청에 대한 컨테이너를 프로비저닝하며,container_reference는 기존 컨테이너를 재사용합니다.container_auto는file_ids및memory_limit도 포함할 수 있습니다.environment.skills는 스킬 참조와 인라인 스킬 번들을 허용합니다.- 호스티드 환경에서는
ShellTool에executor,needs_approval또는on_approval을 설정하지 마세요. network_policy는disabled및allowlist모드를 지원합니다.- 허용 목록 모드에서
network_policy.domain_secrets는 이름으로 도메인 범위의 시크릿을 주입할 수 있습니다. - 완전한 예제는
examples/tools/container_shell_skill_reference.py및examples/tools/container_shell_inline_skill.py를 참조하세요. - OpenAI 플랫폼 가이드: Shell 및 Skills
로컬 런타임 도구
로컬 런타임 도구는 모델 응답 자체 외부에서 실행됩니다. 모델은 여전히 언제 호출할지 결정하지만, 실제 작업은 애플리케이션 또는 구성된 실행 환경이 수행합니다.
ComputerTool 및 ApplyPatchTool에는 항상 사용자가 제공하는 로컬 구현이 필요합니다. ShellTool은 두 모드를 모두 포괄합니다. 관리형 실행을 원하면 위의 호스티드 컨테이너 구성을 사용하고, 명령이 자체 프로세스에서 실행되기를 원하면 아래 로컬 런타임 구성을 사용하세요.
로컬 런타임 도구에는 구현을 제공해야 합니다.
ComputerTool: GUI/브라우저 자동화를 활성화하려면Computer또는AsyncComputer인터페이스를 구현하세요.ShellTool: 로컬 실행과 호스티드 컨테이너 실행 모두를 위한 최신 셸 도구입니다.LocalShellTool: 레거시 로컬 셸 통합입니다.ApplyPatchTool: 로컬에서 diff를 적용하려면ApplyPatchEditor를 구현하세요.- 로컬 셸 스킬은
ShellTool(environment={"type": "local", "skills": [...]})와 함께 사용할 수 있습니다.
ComputerTool 및 Responses 컴퓨터 도구
ComputerTool은 여전히 로컬 하네스입니다. 사용자가 Computer 또는 AsyncComputer 구현을 제공하면, SDK가 해당 하네스를 OpenAI Responses API 컴퓨터 표면에 매핑합니다.
명시적 gpt-5.5 요청의 경우 SDK는 GA 기본 제공 도구 페이로드 {"type": "computer"}를 보냅니다. 더 오래된 computer-use-preview 모델은 프리뷰 페이로드 {"type": "computer_use_preview", "environment": ..., "display_width": ..., "display_height": ...}를 유지합니다. 이는 OpenAI의 컴퓨터 사용 가이드에 설명된 플랫폼 마이그레이션을 반영합니다.
- 모델:
computer-use-preview->gpt-5.5 - 도구 선택기:
computer_use_preview->computer - 컴퓨터 호출 형태:
computer_call당 하나의action->computer_call의 일괄 처리된actions[] - 잘림: 프리뷰 경로에서는
ModelSettings(truncation="auto")필요 -> GA 경로에서는 필요하지 않음
SDK는 실제 Responses 요청의 유효 모델에서 해당 wire 형태를 선택합니다. 프롬프트 템플릿을 사용하고 프롬프트가 모델을 소유하고 있어 요청에서 model을 생략하는 경우, model="gpt-5.5"를 명시적으로 유지하거나 ModelSettings(tool_choice="computer") 또는 ModelSettings(tool_choice="computer_use")로 GA 선택기를 강제하지 않는 한 SDK는 프리뷰 호환 컴퓨터 페이로드를 유지합니다.
ComputerTool이 있을 때는 tool_choice="computer", "computer_use", "computer_use_preview"가 모두 허용되며 유효 요청 모델과 일치하는 기본 제공 선택기로 정규화됩니다. ComputerTool이 없으면 이 문자열들은 여전히 일반 함수 이름처럼 동작합니다.
이 차이는 ComputerTool이 ComputerProvider 팩토리로 뒷받침될 때 중요합니다. GA computer 페이로드는 직렬화 시점에 environment 또는 크기가 필요하지 않으므로, 해결되지 않은 팩토리도 괜찮습니다. 프리뷰 호환 직렬화에는 SDK가 environment, display_width, display_height를 보낼 수 있도록 여전히 해결된 Computer 또는 AsyncComputer 인스턴스가 필요합니다.
런타임에는 두 경로 모두 동일한 로컬 하네스를 계속 사용합니다. 프리뷰 응답은 단일 action이 있는 computer_call 항목을 내보냅니다. gpt-5.5는 일괄 처리된 actions[]를 내보낼 수 있으며, SDK는 computer_call_output 스크린샷 항목을 생성하기 전에 이를 순서대로 실행합니다. 실행 가능한 Playwright 기반 하네스는 examples/tools/computer_use.py를 참조하세요.
from agents import Agent, ApplyPatchTool, ShellTool
from agents.computer import AsyncComputer
from agents.editor import ApplyPatchResult, ApplyPatchOperation, ApplyPatchEditor
class NoopComputer(AsyncComputer):
environment = "browser"
dimensions = (1024, 768)
async def screenshot(self): return ""
async def click(self, x, y, button): ...
async def double_click(self, x, y): ...
async def scroll(self, x, y, scroll_x, scroll_y): ...
async def type(self, text): ...
async def wait(self): ...
async def move(self, x, y): ...
async def keypress(self, keys): ...
async def drag(self, path): ...
class NoopEditor(ApplyPatchEditor):
async def create_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def update_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def delete_file(self, op: ApplyPatchOperation): return ApplyPatchResult(status="completed")
async def run_shell(request):
return "shell output"
agent = Agent(
name="Local tools agent",
tools=[
ShellTool(executor=run_shell),
ApplyPatchTool(editor=NoopEditor()),
# ComputerTool expects a Computer/AsyncComputer implementation; omitted here for brevity.
],
)
함수 도구
모든 Python 함수를 도구로 사용할 수 있습니다. Agents SDK가 도구를 자동으로 설정합니다.
- 도구 이름은 Python 함수의 이름이 됩니다(또는 이름을 제공할 수 있습니다)
- 도구 설명은 함수의 docstring에서 가져옵니다(또는 설명을 제공할 수 있습니다)
- 함수 입력의 스키마는 함수의 인수에서 자동으로 생성됩니다
- 비활성화하지 않는 한 각 입력에 대한 설명은 함수의 docstring에서 가져옵니다
함수 시그니처를 추출하기 위해 Python의 inspect 모듈을 사용하고, docstring을 파싱하기 위해 griffe를, 스키마 생성을 위해 pydantic을 사용합니다.
OpenAI Responses 모델을 사용할 때 @function_tool(defer_loading=True)는 ToolSearchTool()이 로드할 때까지 함수 도구를 숨깁니다. 관련 함수 도구를 tool_namespace()로 그룹화할 수도 있습니다. 전체 설정과 제약 사항은 호스티드 도구 검색을 참조하세요.
import json
from typing_extensions import TypedDict, Any
from agents import Agent, FunctionTool, RunContextWrapper, function_tool
class Location(TypedDict):
lat: float
long: float
@function_tool # (1)!
async def fetch_weather(location: Location) -> str:
# (2)!
"""Fetch the weather for a given location.
Args:
location: The location to fetch the weather for.
"""
# In real life, we'd fetch the weather from a weather API
return "sunny"
@function_tool(name_override="fetch_data") # (3)!
def read_file(ctx: RunContextWrapper[Any], path: str, directory: str | None = None) -> str:
"""Read the contents of a file.
Args:
path: The path to the file to read.
directory: The directory to read the file from.
"""
# In real life, we'd read the file from the file system
return "<file contents>"
agent = Agent(
name="Assistant",
tools=[fetch_weather, read_file], # (4)!
)
for tool in agent.tools:
if isinstance(tool, FunctionTool):
print(tool.name)
print(tool.description)
print(json.dumps(tool.params_json_schema, indent=2))
print()
- 함수 인수로 모든 Python 타입을 사용할 수 있으며, 함수는 동기 또는 비동기일 수 있습니다.
- Docstring이 있으면 설명과 인수 설명을 캡처하는 데 사용됩니다
- 함수는 선택적으로
context를 받을 수 있습니다(첫 번째 인수여야 함). 도구 이름, 설명, 사용할 docstring 스타일 등과 같은 재정의도 설정할 수 있습니다. - 데코레이트된 함수를 도구 목록에 전달할 수 있습니다.
출력을 보려면 펼치기
fetch_weather
Fetch the weather for a given location.
{
"$defs": {
"Location": {
"properties": {
"lat": {
"title": "Lat",
"type": "number"
},
"long": {
"title": "Long",
"type": "number"
}
},
"required": [
"lat",
"long"
],
"title": "Location",
"type": "object"
}
},
"properties": {
"location": {
"$ref": "#/$defs/Location",
"description": "The location to fetch the weather for."
}
},
"required": [
"location"
],
"title": "fetch_weather_args",
"type": "object"
}
fetch_data
Read the contents of a file.
{
"properties": {
"path": {
"description": "The path to the file to read.",
"title": "Path",
"type": "string"
},
"directory": {
"anyOf": [
{
"type": "string"
},
{
"type": "null"
}
],
"default": null,
"description": "The directory to read the file from.",
"title": "Directory"
}
},
"required": [
"path"
],
"title": "fetch_data_args",
"type": "object"
}
함수 도구에서 이미지 또는 파일 반환
텍스트 출력 반환 외에도 함수 도구의 출력으로 하나 이상의 이미지 또는 파일을 반환할 수 있습니다. 이를 위해 다음 중 하나를 반환할 수 있습니다.
- 이미지:
ToolOutputImage(또는 TypedDict 버전인ToolOutputImageDict) - 파일:
ToolOutputFileContent(또는 TypedDict 버전인ToolOutputFileContentDict) - 텍스트: 문자열 또는 문자열화 가능한 객체, 또는
ToolOutputText(또는 TypedDict 버전인ToolOutputTextDict)
사용자 지정 함수 도구
때로는 Python 함수를 도구로 사용하고 싶지 않을 수 있습니다. 원한다면 FunctionTool을 직접 만들 수 있습니다. 다음을 제공해야 합니다.
namedescriptionparams_json_schema: 인수에 대한 JSON 스키마on_invoke_tool:ToolContext와 인수를 JSON 문자열로 받고 도구 출력(예: 텍스트, 구조화된 도구 출력 객체 또는 출력 목록)을 반환하는 async 함수
from typing import Any
from pydantic import BaseModel
from agents import RunContextWrapper, FunctionTool
def do_some_work(data: str) -> str:
return "done"
class FunctionArgs(BaseModel):
username: str
age: int
async def run_function(ctx: RunContextWrapper[Any], args: str) -> str:
parsed = FunctionArgs.model_validate_json(args)
return do_some_work(data=f"{parsed.username} is {parsed.age} years old")
tool = FunctionTool(
name="process_user",
description="Processes extracted user data",
params_json_schema=FunctionArgs.model_json_schema(),
on_invoke_tool=run_function,
)
자동 인수 및 docstring 파싱
앞서 언급했듯이, 도구의 스키마를 추출하기 위해 함수 시그니처를 자동으로 파싱하고, 도구와 개별 인수의 설명을 추출하기 위해 docstring을 파싱합니다. 이에 대한 몇 가지 참고 사항은 다음과 같습니다.
- 시그니처 파싱은
inspect모듈을 통해 수행됩니다. 타입 어노테이션을 사용하여 인수의 타입을 이해하고, 전체 스키마를 나타내는 Pydantic 모델을 동적으로 빌드합니다. Python 기본 타입, Pydantic 모델, TypedDict 등 대부분의 타입을 지원합니다. griffe를 사용하여 docstring을 파싱합니다. 지원되는 docstring 형식은google,sphinx,numpy입니다. docstring 형식을 자동으로 감지하려고 시도하지만 이는 최선의 노력이며,function_tool을 호출할 때 명시적으로 설정할 수 있습니다.use_docstring_info를False로 설정하여 docstring 파싱을 비활성화할 수도 있습니다.
스키마 추출 코드는 agents.function_schema에 있습니다.
Pydantic Field로 인수 제한 및 설명
Pydantic의 Field를 사용하여 도구 인수에 제약(예: 숫자의 최소/최대, 문자열의 길이 또는 패턴)과 설명을 추가할 수 있습니다. Pydantic에서처럼 두 형식이 모두 지원됩니다. 기본값 기반(arg: int = Field(..., ge=1)) 및 Annotated(arg: Annotated[int, Field(..., ge=1)]). 생성된 JSON 스키마와 유효성 검사에는 이러한 제약이 포함됩니다.
from typing import Annotated
from pydantic import Field
from agents import function_tool
# Default-based form
@function_tool
def score_a(score: int = Field(..., ge=0, le=100, description="Score from 0 to 100")) -> str:
return f"Score recorded: {score}"
# Annotated form
@function_tool
def score_b(score: Annotated[int, Field(..., ge=0, le=100, description="Score from 0 to 100")]) -> str:
return f"Score recorded: {score}"
함수 도구 타임아웃
@function_tool(timeout=...)으로 async 함수 도구에 호출별 타임아웃을 설정할 수 있습니다.
import asyncio
from agents import Agent, Runner, function_tool
@function_tool(timeout=2.0)
async def slow_lookup(query: str) -> str:
await asyncio.sleep(10)
return f"Result for {query}"
agent = Agent(
name="Timeout demo",
instructions="Use tools when helpful.",
tools=[slow_lookup],
)
타임아웃에 도달하면 기본 동작은 timeout_behavior="error_as_result"이며, 모델이 볼 수 있는 타임아웃 메시지(예: Tool 'slow_lookup' timed out after 2 seconds.)를 보냅니다.
타임아웃 처리를 제어할 수 있습니다.
timeout_behavior="error_as_result"(기본값): 모델이 복구할 수 있도록 타임아웃 메시지를 반환합니다.timeout_behavior="raise_exception":ToolTimeoutError를 발생시키고 실행을 실패시킵니다.timeout_error_function=...:error_as_result를 사용할 때 타임아웃 메시지를 사용자 지정합니다.
import asyncio
from agents import Agent, Runner, ToolTimeoutError, function_tool
@function_tool(timeout=1.5, timeout_behavior="raise_exception")
async def slow_tool() -> str:
await asyncio.sleep(5)
return "done"
agent = Agent(name="Timeout hard-fail", tools=[slow_tool])
try:
await Runner.run(agent, "Run the tool")
except ToolTimeoutError as e:
print(f"{e.tool_name} timed out in {e.timeout_seconds} seconds")
Note
타임아웃 구성은 async @function_tool 핸들러에만 지원됩니다.
함수 도구의 오류 처리
@function_tool을 통해 함수 도구를 만들 때 failure_error_function을 전달할 수 있습니다. 이는 도구 호출이 충돌하는 경우 LLM에 오류 응답을 제공하는 함수입니다.
- 기본적으로(즉, 아무것도 전달하지 않으면) LLM에 오류가 발생했음을 알리는
default_tool_error_function이 실행됩니다. - 자체 오류 함수를 전달하면 대신 그것이 실행되고 응답이 LLM에 전송됩니다.
- 명시적으로
None을 전달하면 모든 도구 호출 오류가 다시 발생하여 직접 처리할 수 있습니다. 모델이 잘못된 JSON을 생성한 경우ModelBehaviorError일 수 있고, 코드가 충돌한 경우UserError일 수 있습니다.
from agents import function_tool, RunContextWrapper
from typing import Any
def my_custom_error_function(context: RunContextWrapper[Any], error: Exception) -> str:
"""A custom function to provide a user-friendly error message."""
print(f"A tool call failed with the following error: {error}")
return "An internal server error occurred. Please try again later."
@function_tool(failure_error_function=my_custom_error_function)
def get_user_profile(user_id: str) -> str:
"""Fetches a user profile from a mock API.
This function demonstrates a 'flaky' or failing API call.
"""
if user_id == "user_123":
return "User profile for user_123 successfully retrieved."
else:
raise ValueError(f"Could not retrieve profile for user_id: {user_id}. API returned an error.")
FunctionTool 객체를 수동으로 만드는 경우 on_invoke_tool 함수 내부에서 오류를 처리해야 합니다.
Agents as tools
일부 워크플로에서는 제어를 핸드오프하는 대신, 중앙 에이전트가 전문화된 에이전트 네트워크를 오케스트레이션하도록 하고 싶을 수 있습니다. 에이전트를 도구로 모델링하여 이를 수행할 수 있습니다.
from agents import Agent, Runner
import asyncio
spanish_agent = Agent(
name="Spanish agent",
instructions="You translate the user's message to Spanish",
)
french_agent = Agent(
name="French agent",
instructions="You translate the user's message to French",
)
orchestrator_agent = Agent(
name="orchestrator_agent",
instructions=(
"You are a translation agent. You use the tools given to you to translate."
"If asked for multiple translations, you call the relevant tools."
),
tools=[
spanish_agent.as_tool(
tool_name="translate_to_spanish",
tool_description="Translate the user's message to Spanish",
),
french_agent.as_tool(
tool_name="translate_to_french",
tool_description="Translate the user's message to French",
),
],
)
async def main():
result = await Runner.run(orchestrator_agent, input="Say 'Hello, how are you?' in Spanish.")
print(result.final_output)
도구 에이전트 사용자 지정
agent.as_tool 함수는 에이전트를 도구로 쉽게 전환할 수 있게 해주는 편의 메서드입니다. max_turns, run_config, hooks, previous_response_id, conversation_id, session, needs_approval 같은 일반적인 런타임 옵션을 지원합니다. 또한 parameters, input_builder, include_input_schema를 통한 structured input도 지원합니다. 고급 오케스트레이션(예: 조건부 재시도, fallback 동작 또는 여러 에이전트 호출 체이닝)의 경우 도구 구현에서 Runner.run을 직접 사용하세요.
@function_tool
async def run_my_agent() -> str:
"""A tool that runs the agent with custom configs"""
agent = Agent(name="My agent", instructions="...")
result = await Runner.run(
agent,
input="...",
max_turns=5,
run_config=...
)
return str(result.final_output)
도구 에이전트의 구조화된 입력
기본적으로 Agent.as_tool()은 단일 문자열 입력({"input": "..."})을 기대하지만, parameters(Pydantic 모델 또는 dataclass 타입)를 전달하여 구조화된 스키마를 노출할 수 있습니다.
추가 옵션:
include_input_schema=True는 생성된 중첩 입력에 전체 JSON Schema를 포함합니다.input_builder=...를 사용하면 구조화된 도구 인수가 중첩 에이전트 입력이 되는 방식을 완전히 사용자 지정할 수 있습니다.RunContextWrapper.tool_input은 중첩 실행 컨텍스트 안에 파싱된 구조화 페이로드를 포함합니다.
from pydantic import BaseModel, Field
class TranslationInput(BaseModel):
text: str = Field(description="Text to translate.")
source: str = Field(description="Source language.")
target: str = Field(description="Target language.")
translator_tool = translator_agent.as_tool(
tool_name="translate_text",
tool_description="Translate text between languages.",
parameters=TranslationInput,
include_input_schema=True,
)
완전한 실행 가능 예제는 examples/agent_patterns/agents_as_tools_structured.py를 참조하세요.
도구 에이전트의 승인 게이트
Agent.as_tool(..., needs_approval=...)은 function_tool과 동일한 승인 흐름을 사용합니다. 승인이 필요한 경우 실행이 일시 중지되고 보류 중인 항목이 result.interruptions에 나타납니다. 그런 다음 result.to_state()를 사용하고 state.approve(...) 또는 state.reject(...)를 호출한 뒤 재개하세요. 전체 일시 중지/재개 패턴은 휴먼인더루프 (HITL) 가이드를 참조하세요.
사용자 지정 출력 추출
특정 경우에는 중앙 에이전트에 반환하기 전에 도구 에이전트의 출력을 수정하고 싶을 수 있습니다. 이는 다음을 원할 때 유용할 수 있습니다.
- 하위 에이전트의 채팅 기록에서 특정 정보 조각(예: JSON 페이로드)을 추출
- 에이전트의 최종 답변을 변환하거나 다시 포맷(예: Markdown을 일반 텍스트 또는 CSV로 변환)
- 출력을 검증하거나 에이전트의 응답이 누락되었거나 잘못된 형식일 때 fallback 값 제공
as_tool 메서드에 custom_output_extractor 인수를 제공하여 이를 수행할 수 있습니다.
async def extract_json_payload(run_result: RunResult) -> str:
# Scan the agent’s outputs in reverse order until we find a JSON-like message from a tool call.
for item in reversed(run_result.new_items):
if isinstance(item, ToolCallOutputItem) and item.output.strip().startswith("{"):
return item.output.strip()
# Fallback to an empty JSON object if nothing was found
return "{}"
json_tool = data_agent.as_tool(
tool_name="get_data_json",
tool_description="Run the data agent and return only its JSON payload",
custom_output_extractor=extract_json_payload,
)
사용자 지정 추출기 안에서 중첩 RunResult는
agent_tool_invocation도 노출하며, 이는 중첩 결과를 후처리하는 동안
외부 도구 이름, 호출 ID 또는 원문 인수가 필요할 때 유용합니다.
결과 가이드를 참조하세요.
중첩 에이전트 실행 스트리밍
as_tool에 on_stream 콜백을 전달하면, 스트림이 완료된 뒤 최종 출력을 반환하면서도 중첩 에이전트가 내보내는 스트리밍 이벤트를 수신할 수 있습니다.
from agents import AgentToolStreamEvent
async def handle_stream(event: AgentToolStreamEvent) -> None:
# Inspect the underlying StreamEvent along with agent metadata.
print(f"[stream] {event['agent'].name} :: {event['event'].type}")
billing_agent_tool = billing_agent.as_tool(
tool_name="billing_helper",
tool_description="Answer billing questions.",
on_stream=handle_stream, # Can be sync or async.
)
예상 동작:
- 이벤트 유형은
StreamEvent["type"]를 반영합니다.raw_response_event,run_item_stream_event,agent_updated_stream_event on_stream을 제공하면 중첩 에이전트가 자동으로 스트리밍 모드로 실행되고 최종 출력을 반환하기 전에 스트림을 모두 소비합니다.- 핸들러는 동기 또는 비동기일 수 있으며, 각 이벤트는 도착하는 순서대로 전달됩니다.
tool_call은 도구가 모델 도구 호출을 통해 호출될 때 존재합니다. 직접 호출에서는None으로 남을 수 있습니다.- 완전한 실행 가능 샘플은
examples/agent_patterns/agents_as_tools_streaming.py를 참조하세요.
조건부 도구 활성화
is_enabled 매개변수를 사용하여 런타임에 에이전트 도구를 조건부로 활성화하거나 비활성화할 수 있습니다. 이를 통해 컨텍스트, 사용자 선호도 또는 런타임 조건에 따라 LLM에 사용 가능한 도구를 동적으로 필터링할 수 있습니다.
import asyncio
from agents import Agent, AgentBase, Runner, RunContextWrapper
from pydantic import BaseModel
class LanguageContext(BaseModel):
language_preference: str = "french_spanish"
def french_enabled(ctx: RunContextWrapper[LanguageContext], agent: AgentBase) -> bool:
"""Enable French for French+Spanish preference."""
return ctx.context.language_preference == "french_spanish"
# Create specialized agents
spanish_agent = Agent(
name="spanish_agent",
instructions="You respond in Spanish. Always reply to the user's question in Spanish.",
)
french_agent = Agent(
name="french_agent",
instructions="You respond in French. Always reply to the user's question in French.",
)
# Create orchestrator with conditional tools
orchestrator = Agent(
name="orchestrator",
instructions=(
"You are a multilingual assistant. You use the tools given to you to respond to users. "
"You must call ALL available tools to provide responses in different languages. "
"You never respond in languages yourself, you always use the provided tools."
),
tools=[
spanish_agent.as_tool(
tool_name="respond_spanish",
tool_description="Respond to the user's question in Spanish",
is_enabled=True, # Always enabled
),
french_agent.as_tool(
tool_name="respond_french",
tool_description="Respond to the user's question in French",
is_enabled=french_enabled,
),
],
)
async def main():
context = RunContextWrapper(LanguageContext(language_preference="french_spanish"))
result = await Runner.run(orchestrator, "How are you?", context=context.context)
print(result.final_output)
asyncio.run(main())
is_enabled 매개변수는 다음을 허용합니다.
- Boolean 값:
True(항상 활성화) 또는False(항상 비활성화) - 호출 가능한 함수:
(context, agent)를 받아 boolean을 반환하는 함수 - Async 함수: 복잡한 조건부 로직을 위한 async 함수
비활성화된 도구는 런타임에 LLM으로부터 완전히 숨겨지므로, 다음에 유용합니다.
- 사용자 권한에 기반한 기능 게이팅
- 환경별 도구 사용 가능성(dev vs prod)
- 서로 다른 도구 구성의 A/B 테스트
- 런타임 상태에 기반한 동적 도구 필터링
실험적: Codex 도구
codex_tool은 Codex CLI를 래핑하여 에이전트가 도구 호출 중에 워크스페이스 범위 작업(셸, 파일 편집, MCP 도구)을 실행할 수 있게 합니다. 이 표면은 실험적이며 변경될 수 있습니다.
메인 에이전트가 현재 실행을 벗어나지 않고 제한된 워크스페이스 작업을 Codex에 위임하도록 하려면 사용하세요. 기본적으로 도구 이름은 codex입니다. 사용자 지정 이름을 설정하는 경우 codex이거나 codex_로 시작해야 합니다. 에이전트에 여러 Codex 도구가 포함된 경우 각 도구는 고유한 이름을 사용해야 합니다.
from agents import Agent
from agents.extensions.experimental.codex import ThreadOptions, TurnOptions, codex_tool
agent = Agent(
name="Codex Agent",
instructions="Use the codex tool to inspect the workspace and answer the question.",
tools=[
codex_tool(
sandbox_mode="workspace-write",
working_directory="/path/to/repo",
default_thread_options=ThreadOptions(
model="gpt-5.5",
model_reasoning_effort="low",
network_access_enabled=True,
web_search_mode="disabled",
approval_policy="never",
),
default_turn_options=TurnOptions(
idle_timeout_seconds=60,
),
persist_session=True,
)
],
)
다음 옵션 그룹부터 시작하세요.
- 실행 표면:
sandbox_mode및working_directory는 Codex가 작동할 수 있는 위치를 정의합니다. 둘을 함께 사용하고, 작업 디렉터리가 Git 저장소 안에 있지 않으면skip_git_repo_check=True를 설정하세요. - 스레드 기본값:
default_thread_options=ThreadOptions(...)는 모델, reasoning effort, approval policy, 추가 디렉터리, 네트워크 액세스, 웹 검색 모드를 구성합니다. 레거시web_search_enabled보다web_search_mode를 선호하세요. - 턴 기본값:
default_turn_options=TurnOptions(...)는idle_timeout_seconds및 선택적 취소signal같은 턴별 동작을 구성합니다. - 도구 I/O: 도구 호출은
{ "type": "text", "text": ... }또는{ "type": "local_image", "path": ... }가 있는inputs항목을 최소 하나 포함해야 합니다.output_schema를 사용하면 구조화된 Codex 응답을 요구할 수 있습니다.
스레드 재사용과 지속성은 별도의 제어입니다.
persist_session=True는 같은 도구 인스턴스에 반복적으로 호출할 때 하나의 Codex 스레드를 재사용합니다.use_run_context_thread_id=True는 동일한 변경 가능한 컨텍스트 객체를 공유하는 실행 전반에서 실행 컨텍스트에 스레드 ID를 저장하고 재사용합니다.- 스레드 ID 우선순위는 호출별
thread_id, 실행 컨텍스트 스레드 ID(활성화된 경우), 구성된thread_id옵션 순입니다. - 기본 실행 컨텍스트 키는
name="codex"의 경우codex_thread_id이고,name="codex_<suffix>"의 경우codex_thread_id_<suffix>입니다.run_context_thread_id_key로 재정의하세요.
런타임 구성:
- 인증:
CODEX_API_KEY(권장) 또는OPENAI_API_KEY를 설정하거나codex_options={"api_key": "..."}를 전달하세요. - 런타임:
codex_options.base_url은 CLI 기본 URL을 재정의합니다. - 바이너리 해석: CLI 경로를 고정하려면
codex_options.codex_path_override(또는CODEX_PATH)를 설정하세요. 그렇지 않으면 SDK는PATH에서codex를 해석한 뒤, 번들된 벤더 바이너리로 fallback합니다. - 환경:
codex_options.env는 서브프로세스 환경을 완전히 제어합니다. 이 값이 제공되면 서브프로세스는os.environ을 상속하지 않습니다. - 스트림 제한:
codex_options.codex_subprocess_stream_limit_bytes(또는OPENAI_AGENTS_CODEX_SUBPROCESS_STREAM_LIMIT_BYTES)는 stdout/stderr reader 제한을 제어합니다. 유효 범위는65536부터67108864까지이며, 기본값은8388608입니다. - 스트리밍:
on_stream은 스레드/턴 수명 주기 이벤트와 항목 이벤트(reasoning,command_execution,mcp_tool_call,file_change,web_search,todo_list,error항목 업데이트)를 수신합니다. - 출력: 결과에는
response,usage,thread_id가 포함되며, usage는RunContextWrapper.usage에 추가됩니다.
참조:
- Codex 도구 API 참조
- ThreadOptions 참조
- TurnOptions 참조
- 완전한 실행 가능 샘플은
examples/tools/codex.py및examples/tools/codex_same_thread.py를 참조하세요.