콘텐츠로 이동

에이전트

에이전트는 앱의 핵심 구성 요소입니다. 에이전트는 instructions, tools, 그리고 핸드오프, 가드레일, structured outputs 같은 선택적 런타임 동작으로 구성된 대규모 언어 모델(LLM)입니다.

단일 일반 Agent를 정의하거나 사용자 지정하려는 경우 이 페이지를 사용하세요. 여러 에이전트가 어떻게 협업해야 할지 결정하는 중이라면 에이전트 오케스트레이션을 읽어보세요. 에이전트가 매니페스트로 정의된 파일과 샌드박스 네이티브 기능을 갖춘 격리된 워크스페이스 안에서 실행되어야 한다면 샌드박스 에이전트 개념을 읽어보세요.

SDK는 OpenAI 모델에 대해 기본적으로 Responses API를 사용하지만, 여기서의 차이는 오케스트레이션입니다. AgentRunner를 함께 사용하면 SDK가 턴, 도구, 가드레일, 핸드오프, 세션을 대신 관리합니다. 이 루프를 직접 제어하려면 대신 Responses API를 직접 사용하세요.

다음 가이드 선택

이 페이지를 에이전트 정의를 위한 허브로 사용하세요. 다음에 내려야 할 결정에 맞는 인접 가이드로 이동하세요.

원하는 작업 다음 읽을 문서
모델 또는 프로바이더 설정 선택 모델
에이전트에 기능 추가 도구
실제 리포지토리, 문서 번들 또는 격리된 워크스페이스에 대해 에이전트 실행 샌드박스 에이전트 빠른 시작
매니저 방식 오케스트레이션과 핸드오프 중 선택 에이전트 오케스트레이션
핸드오프 동작 구성 핸드오프
턴 실행, 이벤트 스트리밍 또는 대화 상태 관리 에이전트 실행
최종 출력, 실행 항목 또는 재개 가능한 상태 검사 결과
로컬 종속성 및 런타임 상태 공유 컨텍스트 관리

기본 구성

에이전트의 가장 일반적인 속성은 다음과 같습니다.

속성 필수 여부 설명
name 사람이 읽을 수 있는 에이전트 이름입니다.
instructions 시스템 프롬프트 또는 동적 instructions 콜백입니다. 동적 instructions를 참조하세요.
prompt 아니요 OpenAI Responses API 프롬프트 구성입니다. 정적 프롬프트 객체 또는 함수를 허용합니다. 프롬프트 템플릿을 참조하세요.
handoff_description 아니요 이 에이전트가 핸드오프 대상으로 제공될 때 노출되는 짧은 설명입니다.
handoffs 아니요 대화를 전문 에이전트에 위임합니다. 핸드오프를 참조하세요.
model 아니요 사용할 LLM입니다. 모델을 참조하세요.
model_settings 아니요 temperature, top_p, tool_choice 같은 모델 튜닝 매개변수입니다.
tools 아니요 에이전트가 호출할 수 있는 도구입니다. 도구를 참조하세요.
mcp_servers 아니요 에이전트를 위한 MCP 기반 도구입니다. MCP 가이드를 참조하세요.
mcp_config 아니요 엄격한 스키마 변환 및 MCP 실패 형식화와 같이 MCP 도구가 준비되는 방식을 세부 조정합니다. MCP 가이드를 참조하세요.
input_guardrails 아니요 이 에이전트 체인의 첫 사용자 입력에서 실행되는 가드레일입니다. 가드레일을 참조하세요.
output_guardrails 아니요 이 에이전트의 최종 출력에서 실행되는 가드레일입니다. 가드레일을 참조하세요.
output_type 아니요 일반 텍스트 대신 structured outputs 타입입니다. 출력 타입을 참조하세요.
hooks 아니요 에이전트 범위의 라이프사이클 콜백입니다. 라이프사이클 이벤트(훅)을 참조하세요.
tool_use_behavior 아니요 도구 결과가 모델로 다시 전달될지, 실행을 종료할지 제어합니다. 도구 사용 동작을 참조하세요.
reset_tool_choice 아니요 도구 사용 루프를 피하기 위해 도구 호출 후 tool_choice를 재설정합니다(기본값: True). 도구 사용 강제를 참조하세요.
from agents import Agent, ModelSettings, function_tool

@function_tool
def get_weather(city: str) -> str:
    """returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Haiku agent",
    instructions="Always respond in haiku form",
    model="gpt-5-nano",
    tools=[get_weather],
)

이 섹션의 모든 내용은 Agent에 적용됩니다. SandboxAgent는 동일한 아이디어를 기반으로 하며, 워크스페이스 범위 실행을 위해 default_manifest, base_instructions, capabilities, run_as를 추가합니다. 샌드박스 에이전트 개념을 참조하세요.

프롬프트 템플릿

prompt를 설정하여 OpenAI 플랫폼에서 생성한 프롬프트 템플릿을 참조할 수 있습니다. 이는 Responses API를 사용하는 OpenAI 모델에서 작동합니다.

사용하려면 다음을 수행하세요.

  1. https://platform.openai.com/playground/prompts 로 이동합니다
  2. 새 프롬프트 변수 poem_style을 만듭니다.
  3. 다음 내용으로 시스템 프롬프트를 만듭니다.

    Write a poem in {{poem_style}}
    
  4. --prompt-id 플래그로 예제를 실행합니다.

from agents import Agent

agent = Agent(
    name="Prompted assistant",
    prompt={
        "id": "pmpt_123",
        "version": "1",
        "variables": {"poem_style": "haiku"},
    },
)

런타임에 프롬프트를 동적으로 생성할 수도 있습니다.

from dataclasses import dataclass

from agents import Agent, GenerateDynamicPromptData, Runner

@dataclass
class PromptContext:
    prompt_id: str
    poem_style: str


async def build_prompt(data: GenerateDynamicPromptData):
    ctx: PromptContext = data.context.context
    return {
        "id": ctx.prompt_id,
        "version": "1",
        "variables": {"poem_style": ctx.poem_style},
    }


agent = Agent(name="Prompted assistant", prompt=build_prompt)
result = await Runner.run(
    agent,
    "Say hello",
    context=PromptContext(prompt_id="pmpt_123", poem_style="limerick"),
)

컨텍스트

에이전트는 context 타입에 대해 제네릭입니다. 컨텍스트는 의존성 주입 도구입니다. 사용자가 생성하여 Runner.run()에 전달하는 객체이며, 모든 에이전트, 도구, 핸드오프 등에 전달되고, 에이전트 실행을 위한 의존성과 상태를 담는 모음 역할을 합니다. 컨텍스트로는 어떤 Python 객체든 제공할 수 있습니다.

전체 RunContextWrapper 표면, 공유 사용량 추적, 중첩된 tool_input, 직렬화 시 주의 사항은 컨텍스트 가이드를 읽어보세요.

@dataclass
class UserContext:
    name: str
    uid: str
    is_pro_user: bool

    async def fetch_purchases() -> list[Purchase]:
        return ...

agent = Agent[UserContext](
    ...,
)

출력 타입

기본적으로 에이전트는 일반 텍스트(즉 str) 출력을 생성합니다. 에이전트가 특정 타입의 출력을 생성하도록 하려면 output_type 매개변수를 사용할 수 있습니다. 일반적인 선택은 Pydantic 객체를 사용하는 것이지만, Pydantic TypeAdapter로 래핑할 수 있는 모든 타입을 지원합니다. dataclasses, lists, TypedDict 등이 포함됩니다.

from pydantic import BaseModel
from agents import Agent


class CalendarEvent(BaseModel):
    name: str
    date: str
    participants: list[str]

agent = Agent(
    name="Calendar extractor",
    instructions="Extract calendar events from text",
    output_type=CalendarEvent,
)

Note

output_type을 전달하면, 이는 모델에 일반 일반 텍스트 응답 대신 structured outputs를 사용하라고 지시합니다.

멀티 에이전트 시스템 설계 패턴

멀티 에이전트 시스템을 설계하는 방법은 많지만, 일반적으로 폭넓게 적용 가능한 두 가지 패턴을 자주 볼 수 있습니다.

  1. 매니저(Agents as tools): 중앙 매니저/오케스트레이터가 전문 하위 에이전트를 도구로 호출하고 대화 제어를 유지합니다.
  2. 핸드오프: 동등한 에이전트가 대화 제어를 이를 이어받는 전문 에이전트에게 넘깁니다. 이는 분산형 방식입니다.

자세한 내용은 에이전트 구축을 위한 실용 가이드를 참조하세요.

매니저(Agents as tools)

customer_facing_agent는 모든 사용자 상호작용을 처리하고, 도구로 노출된 전문 하위 에이전트를 호출합니다. 자세한 내용은 도구 문서를 읽어보세요.

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

customer_facing_agent = Agent(
    name="Customer-facing agent",
    instructions=(
        "Handle all direct user communication. "
        "Call the relevant tools when specialized expertise is needed."
    ),
    tools=[
        booking_agent.as_tool(
            tool_name="booking_expert",
            tool_description="Handles booking questions and requests.",
        ),
        refund_agent.as_tool(
            tool_name="refund_expert",
            tool_description="Handles refund questions and requests.",
        )
    ],
)

핸드오프

핸드오프는 에이전트가 위임할 수 있는 하위 에이전트입니다. 핸드오프가 발생하면 위임된 에이전트가 대화 기록을 받고 대화를 이어받습니다. 이 패턴은 단일 작업에 뛰어난 모듈식 전문 에이전트를 가능하게 합니다. 자세한 내용은 핸드오프 문서를 읽어보세요.

from agents import Agent

booking_agent = Agent(...)
refund_agent = Agent(...)

triage_agent = Agent(
    name="Triage agent",
    instructions=(
        "Help the user with their questions. "
        "If they ask about booking, hand off to the booking agent. "
        "If they ask about refunds, hand off to the refund agent."
    ),
    handoffs=[booking_agent, refund_agent],
)

동적 instructions

대부분의 경우 에이전트를 만들 때 instructions를 제공할 수 있습니다. 그러나 함수를 통해 동적 instructions를 제공할 수도 있습니다. 함수는 에이전트와 컨텍스트를 받으며 프롬프트를 반환해야 합니다. 일반 함수와 async 함수가 모두 허용됩니다.

def dynamic_instructions(
    context: RunContextWrapper[UserContext], agent: Agent[UserContext]
) -> str:
    return f"The user's name is {context.context.name}. Help them with their questions."


agent = Agent[UserContext](
    name="Triage agent",
    instructions=dynamic_instructions,
)

라이프사이클 이벤트(훅)

때로는 에이전트의 라이프사이클을 관찰하고 싶을 수 있습니다. 예를 들어 특정 이벤트가 발생할 때 이벤트를 로깅하거나, 데이터를 미리 가져오거나, 사용량을 기록할 수 있습니다.

두 가지 훅 범위가 있습니다.

  • RunHooks는 다른 에이전트로의 핸드오프를 포함하여 전체 Runner.run(...) 호출을 관찰합니다.
  • AgentHooksagent.hooks를 통해 특정 에이전트 인스턴스에 연결됩니다.

콜백 컨텍스트도 이벤트에 따라 달라집니다.

  • 에이전트 시작/종료 훅은 AgentHookContext를 받으며, 이는 원래 컨텍스트를 래핑하고 공유 실행 사용량 상태를 포함합니다.
  • LLM, 도구, 핸드오프 훅은 RunContextWrapper를 받습니다.

일반적인 훅 타이밍은 다음과 같습니다.

  • on_agent_start / on_agent_end: 특정 에이전트가 최종 출력을 생성하기 시작하거나 완료할 때입니다.
  • on_llm_start / on_llm_end: 각 모델 호출의 바로 전후입니다.
  • on_tool_start / on_tool_end: 각 로컬 도구 호출의 전후입니다. 함수 도구의 경우 훅 context는 일반적으로 ToolContext이므로 tool_call_id 같은 도구 호출 메타데이터를 검사할 수 있습니다.
  • on_handoff: 제어가 한 에이전트에서 다른 에이전트로 이동할 때입니다.

전체 워크플로를 위한 단일 관찰자가 필요하면 RunHooks를 사용하고, 한 에이전트에 사용자 지정 부수 효과가 필요하면 AgentHooks를 사용하세요.

from agents import Agent, RunHooks, Runner


class LoggingHooks(RunHooks):
    async def on_agent_start(self, context, agent):
        print(f"Starting {agent.name}")

    async def on_llm_end(self, context, agent, response):
        print(f"{agent.name} produced {len(response.output)} output items")

    async def on_agent_end(self, context, agent, output):
        print(f"{agent.name} finished with usage: {context.usage}")


agent = Agent(name="Assistant", instructions="Be concise.")
result = await Runner.run(agent, "Explain quines", hooks=LoggingHooks())
print(result.final_output)

전체 콜백 표면은 라이프사이클 API 참조를 참조하세요.

가드레일

가드레일을 사용하면 에이전트가 실행되는 동안 사용자 입력에 대해 병렬로 검사/검증을 실행하고, 에이전트 출력이 생성된 후 그 출력에 대해서도 검사/검증을 실행할 수 있습니다. 예를 들어 사용자 입력과 에이전트 출력의 관련성을 검사할 수 있습니다. 자세한 내용은 가드레일 문서를 읽어보세요.

에이전트 복제/복사

에이전트의 clone() 메서드를 사용하면 Agent를 복제하고, 원하는 속성을 선택적으로 변경할 수 있습니다.

pirate_agent = Agent(
    name="Pirate",
    instructions="Write like a pirate",
    model="gpt-5.5",
)

robot_agent = pirate_agent.clone(
    name="Robot",
    instructions="Write like a robot",
)

도구 사용 강제

도구 목록을 제공한다고 해서 LLM이 항상 도구를 사용하는 것은 아닙니다. ModelSettings.tool_choice를 설정하여 도구 사용을 강제할 수 있습니다. 유효한 값은 다음과 같습니다.

  1. auto: LLM이 도구 사용 여부를 결정할 수 있게 합니다.
  2. required: LLM이 도구를 사용해야 합니다(하지만 어떤 도구를 사용할지는 지능적으로 결정할 수 있습니다).
  3. none: LLM이 도구를 사용하지 않도록 요구합니다.
  4. 특정 문자열(예: my_tool)을 설정하면 LLM이 해당 특정 도구를 사용해야 합니다.

OpenAI Responses 도구 검색을 사용하는 경우 명명된 도구 선택은 더 제한됩니다. tool_choice로 단순 네임스페이스 이름이나 지연 전용 도구를 대상으로 지정할 수 없으며, tool_choice="tool_search"ToolSearchTool을 대상으로 지정하지 않습니다. 이러한 경우에는 auto 또는 required를 선호하세요. Responses 관련 제약 조건은 호스티드 도구 검색을 참조하세요.

from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    model_settings=ModelSettings(tool_choice="get_weather")
)

도구 사용 동작

Agent 구성의 tool_use_behavior 매개변수는 도구 출력이 처리되는 방식을 제어합니다.

  • "run_llm_again": 기본값입니다. 도구가 실행되고, LLM이 결과를 처리하여 최종 응답을 생성합니다.
  • "stop_on_first_tool": 첫 번째 도구 호출의 출력이 추가 LLM 처리 없이 최종 응답으로 사용됩니다.
from agents import Agent, Runner, function_tool, ModelSettings

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior="stop_on_first_tool"
)
  • StopAtTools(stop_at_tool_names=[...]): 지정된 도구 중 하나라도 호출되면 중지하고, 그 출력을 최종 응답으로 사용합니다.
from agents import Agent, Runner, function_tool
from agents.agent import StopAtTools

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

@function_tool
def sum_numbers(a: int, b: int) -> int:
    """Adds two numbers."""
    return a + b

agent = Agent(
    name="Stop At Stock Agent",
    instructions="Get weather or sum numbers.",
    tools=[get_weather, sum_numbers],
    tool_use_behavior=StopAtTools(stop_at_tool_names=["get_weather"])
)
  • ToolsToFinalOutputFunction: 도구 결과를 처리하고 LLM으로 중지할지 계속할지 결정하는 사용자 지정 함수입니다.
from agents import Agent, Runner, function_tool, FunctionToolResult, RunContextWrapper
from agents.agent import ToolsToFinalOutputResult
from typing import List, Any

@function_tool
def get_weather(city: str) -> str:
    """Returns weather info for the specified city."""
    return f"The weather in {city} is sunny"

def custom_tool_handler(
    context: RunContextWrapper[Any],
    tool_results: List[FunctionToolResult]
) -> ToolsToFinalOutputResult:
    """Processes tool results to decide final output."""
    for result in tool_results:
        if result.output and "sunny" in result.output:
            return ToolsToFinalOutputResult(
                is_final_output=True,
                final_output=f"Final weather: {result.output}"
            )
    return ToolsToFinalOutputResult(
        is_final_output=False,
        final_output=None
    )

agent = Agent(
    name="Weather Agent",
    instructions="Retrieve weather details.",
    tools=[get_weather],
    tool_use_behavior=custom_tool_handler
)

Note

무한 루프를 방지하기 위해, 프레임워크는 도구 호출 후 tool_choice를 자동으로 "auto"로 재설정합니다. 이 동작은 agent.reset_tool_choice를 통해 구성할 수 있습니다. 무한 루프가 발생하는 이유는 도구 결과가 LLM으로 전송되고, 그러면 LLM이 tool_choice 때문에 또 다른 도구 호출을 생성하는 일이 무한히 반복되기 때문입니다.