エージェント
エージェントは OpenAI Agents SDK の主要な構成要素です。Agent は、以下で構成された Large Language Model (LLM) です。
- Instructions – モデルに「自分は誰か」「どのように応答すべきか」を伝える system prompt
- Model – 呼び出す OpenAI モデルと、任意のモデル調整パラメーター
- Tools – タスクを達成するために LLM が呼び出せる関数や API の一覧
import { Agent } from '@openai/agents';
const agent = new Agent({ name: 'Haiku Agent', instructions: 'Always respond in haiku form.', model: 'gpt-5-nano', // optional – falls back to the default model});
このページの残りでは、すべての Agent 機能を詳しく説明します。
Agent
コンストラクターは単一の設定オブジェクトを受け取ります。よく使われるプロパティは以下のとおりです。
Property | Required | Description |
---|---|---|
name | yes | 短い人間可読の識別子 |
instructions | yes | System prompt(文字列 または 関数 – 動的 instructions を参照) |
model | no | モデル名 または カスタム Model 実装 |
modelSettings | no | 調整パラメーター(temperature、top_p など)。必要なプロパティがトップレベルにない場合は、providerData 配下に含めることができます |
tools | no | モデルが呼び出せる Tool インスタンスの配列 |
import { Agent, tool } from '@openai/agents';import { z } from 'zod';
const getWeather = tool({ name: 'get_weather', description: 'Return the weather for a given city.', parameters: z.object({ city: z.string() }), async execute({ city }) { return `The weather in ${city} is sunny.`; },});
const agent = new Agent({ name: 'Weather bot', instructions: 'You are a helpful weather bot.', model: 'gpt-4.1', tools: [getWeather],});
コンテキスト
Section titled “コンテキスト”エージェントは コンテキスト型に対してジェネリック(例: Agent<TContext, TOutput>
)です。コンテキストは、あなたが作成して Runner.run()
に渡す依存性注入オブジェクトです。これはすべてのツール、ガードレール、ハンドオフなどに転送され、状態の保存や共有サービス(データベース接続、ユーザーのメタデータ、フィーチャーフラグ など)を提供するのに便利です。
import { Agent } from '@openai/agents';
interface Purchase { id: string; uid: string; deliveryStatus: string;}interface UserContext { uid: string; isProUser: boolean;
// this function can be used within tools fetchPurchases(): Promise<Purchase[]>;}
const agent = new Agent<UserContext>({ name: 'Personal shopper', instructions: 'Recommend products the user will love.',});
// Laterimport { run } from '@openai/agents';
const result = await run(agent, 'Find me a new pair of running shoes', { context: { uid: 'abc', isProUser: true, fetchPurchases: async () => [] },});
デフォルトでは、エージェントは プレーンテキスト(string
)を返します。モデルに構造化オブジェクトを返させたい場合は、outputType
プロパティを指定します。SDK は以下を受け付けます。
- Zod スキーマ(
z.object({...})
) - JSON‑schema 互換の任意のオブジェクト
import { Agent } from '@openai/agents';import { z } from 'zod';
const CalendarEvent = z.object({ name: z.string(), date: z.string(), participants: z.array(z.string()),});
const extractor = new Agent({ name: 'Calendar extractor', instructions: 'Extract calendar events from the supplied text.', outputType: CalendarEvent,});
outputType
が指定されると、SDK はプレーンテキストではなく自動的に
structured outputs を使用します。
マルチエージェントのシステム設計パターン
Section titled “マルチエージェントのシステム設計パターン”エージェントを組み合わせる方法は多数あります。実運用のアプリでよく見られるパターンは次の 2 つです。
- マネージャー(エージェントをツールとして) – 中央のエージェントが会話を所有し、ツールとして公開された専門エージェントを呼び出します
- ハンドオフ – 最初のエージェントが、ユーザーのリクエストを特定した後、会話全体をスペシャリストに委譲します
これらの手法は相補的です。マネージャーはガードレールやレート制限を一元的に適用でき、ハンドオフは各エージェントが会話の制御を保持せずに一つのタスクに専念できるようにします。
マネージャー(エージェントをツールとして)
Section titled “マネージャー(エージェントをツールとして)”このパターンでは、マネージャーは制御を手放しません。LLM がツールを使用し、マネージャーが最終回答を要約します。詳細はツールを参照してください。
import { Agent } from '@openai/agents';
const bookingAgent = new Agent({ name: 'Booking expert', instructions: 'Answer booking questions and modify reservations.',});
const refundAgent = new Agent({ name: 'Refund expert', instructions: 'Help customers process refunds and credits.',});
const customerFacingAgent = new Agent({ name: 'Customer-facing agent', instructions: 'Talk to the user directly. When they need booking or refund help, call the matching tool.', tools: [ bookingAgent.asTool({ toolName: 'booking_expert', toolDescription: 'Handles booking questions and requests.', }), refundAgent.asTool({ toolName: 'refund_expert', toolDescription: 'Handles refund questions and requests.', }), ],});
ハンドオフでは、トリアージエージェントがリクエストを振り分けますが、いったんハンドオフが起きると、スペシャリストエージェントが最終出力を生成するまで会話を所有します。これによりプロンプトが短くなり、各エージェントを独立して考察できます。詳細はハンドオフをご覧ください。
import { Agent } from '@openai/agents';
const bookingAgent = new Agent({ name: 'Booking Agent', instructions: 'Help users with booking requests.',});
const refundAgent = new Agent({ name: 'Refund Agent', instructions: 'Process refund requests politely and efficiently.',});
// Use Agent.create method to ensure the finalOutput type considers handoffsconst triageAgent = Agent.create({ name: 'Triage Agent', instructions: `Help the user with their questions. If the user asks about booking, hand off to the booking agent. If the user asks about refunds, hand off to the refund agent.`.trimStart(), handoffs: [bookingAgent, refundAgent],});
動的 instructions
Section titled “動的 instructions”instructions
は文字列の代わりに 関数 にできます。関数は現在の RunContext
と Agent インスタンスを受け取り、文字列 または Promise<string>
を返せます。
import { Agent, RunContext } from '@openai/agents';
interface UserContext { name: string;}
function buildInstructions(runContext: RunContext<UserContext>) { return `The user's name is ${runContext.context.name}. Be extra friendly!`;}
const agent = new Agent<UserContext>({ name: 'Personalized helper', instructions: buildInstructions,});
同期関数と async
関数の両方がサポートされています。
ライフサイクルフック
Section titled “ライフサイクルフック”高度なユースケースでは、イベントをリッスンして Agent のライフサイクルを観察できます。利用可能な項目は、こちらに一覧されているエージェントフックのイベント名を参照してください。
import { Agent } from '@openai/agents';
const agent = new Agent({ name: 'Verbose agent', instructions: 'Explain things thoroughly.',});
agent.on('agent_start', (ctx, agent) => { console.log(`[${agent.name}] started`);});agent.on('agent_end', (ctx, output) => { console.log(`[agent] produced:`, output);});
ガードレール
Section titled “ガードレール”ガードレールは、ユーザー入力やエージェント出力を検証・変換できます。inputGuardrails
と outputGuardrails
の配列で設定します。詳しくはガードレールを参照してください。
エージェントのクローン / 複製
Section titled “エージェントのクローン / 複製”既存のエージェントを少しだけ変更したバージョンが必要ですか?clone()
メソッドを使用すると、まったく新しい Agent
インスタンスを返します。
import { Agent } from '@openai/agents';
const pirateAgent = new Agent({ name: 'Pirate', instructions: 'Respond like a pirate – lots of “Arrr!”', model: 'gpt-5-mini',});
const robotAgent = pirateAgent.clone({ name: 'Robot', instructions: 'Respond like a robot – be precise and factual.',});
ツール使用の強制
Section titled “ツール使用の強制”ツールを提供しても、LLM が必ず呼び出すとは限りません。modelSettings.tool_choice
でツール使用を 強制 できます。
'auto'
(デフォルト)– ツールを使うかどうかは LLM が決定'required'
– LLM は必ずツールを呼び出す(どれを使うかは選択可能)'none'
– LLM はツールを呼び出しては ならない- 特定のツール名(例:
'calculator'
)– LLM はそのツールを必ず呼び出す
import { Agent, tool } from '@openai/agents';import { z } from 'zod';
const calculatorTool = tool({ name: 'Calculator', description: 'Use this tool to answer questions about math problems.', parameters: z.object({ question: z.string() }), execute: async (input) => { throw new Error('TODO: implement this'); },});
const agent = new Agent({ name: 'Strict tool user', instructions: 'Always answer using the calculator tool.', tools: [calculatorTool], modelSettings: { toolChoice: 'auto' },});
無限ループの防止
Section titled “無限ループの防止”ツール呼び出し後、SDK は自動的に tool_choice
を 'auto'
にリセットします。これは、モデルがツール呼び出しを繰り返して無限ループに入るのを防ぎます。この動作は resetToolChoice
フラグ、または toolUseBehavior
の設定で上書きできます。
'run_llm_again'
(デフォルト)– ツール結果を使って LLM を再実行'stop_on_first_tool'
– 最初のツール結果を最終回答として扱う{ stopAtToolNames: ['my_tool'] }
– 指定ツールのいずれかが呼ばれたら停止(context, toolResults) => ...
– 実行を終了すべきかを返すカスタム関数
const agent = new Agent({ ..., toolUseBehavior: 'stop_on_first_tool',});