エージェントの実行
エージェントはそれ自体では何もしません。Runner クラスまたは run() ユーティリティで 実行 します。
ターンの実行、イベントのストリーミング、会話状態の管理を行いたくなったら、このページを エージェント の後に読んでください。エージェントをどのように定義するかをまだ検討中であれば、まずは エージェント から始めてください。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Assistant', instructions: 'You are a helpful assistant',});
const result = await run( agent, 'Write a haiku about recursion in programming.',);console.log(result.finalOutput);
// Code within the code,// Functions calling themselves,// Infinite loop's dance.カスタム runner が不要な場合は、run() ユーティリティも使用できます。これはデフォルトの Runner シングルトンインスタンスを実行します。
あるいは、独自の runner インスタンスを作成することもできます。
import { Agent, Runner } from '@openai/agents';
const agent = new Agent({ name: 'Assistant', instructions: 'You are a helpful assistant',});
// You can pass custom configuration to the runnerconst runner = new Runner();
const result = await runner.run( agent, 'Write a haiku about recursion in programming.',);console.log(result.finalOutput);
// Code within the code,// Functions calling themselves,// Infinite loop's dance.エージェントを実行すると、最終出力と実行の完全な履歴を含む エージェントの実行結果 オブジェクトを受け取ります。
Runner のライフサイクルと設定
Section titled “Runner のライフサイクルと設定”エージェントループ
Section titled “エージェントループ”Runner の run メソッドを使うときは、開始エージェントと入力を渡します。入力は文字列(ユーザーメッセージとして扱われます)か、OpenAI Responses API の項目である入力項目のリストのいずれかです。
runner は次のループを実行します。
- 現在の入力で現在のエージェントのモデルを呼び出す
- LLM の応答を確認する
- 最終出力 → 戻る
- ハンドオフ → 新しいエージェントに切り替え、蓄積された会話履歴を保持して 1 に戻る
- ツール呼び出し → ツールを実行し、その結果を会話に追加して 1 に戻る
maxTurnsに達したらMaxTurnsExceededErrorをスローする
Runner のライフサイクル
Section titled “Runner のライフサイクル”Runner はアプリの起動時に作成し、リクエスト間で再利用してください。インスタンスには、モデル provider やトレーシングオプションなどのグローバル設定が保存されます。まったく異なる設定が必要な場合にのみ、別の Runner を作成してください。単純なスクリプトであれば、内部でデフォルト runner を使う run() を呼び出すこともできます。
run() メソッドへの入力は、実行を開始する初期エージェント、実行用の入力、およびオプションのセットです。
入力は、文字列(ユーザーメッセージとして扱われます)、input items のリスト、または human-in-the-loop エージェントを構築している場合は RunState オブジェクトのいずれかです。
追加オプションは次のとおりです。
| Option | Default | Description |
|---|---|---|
stream | false | true の場合、呼び出しは StreamedRunResult を返し、モデルから到着したイベントを随時出力します |
context | – | すべてのツール / ガードレール / ハンドオフに渡されるコンテキストオブジェクトです。詳しくは コンテキスト管理ガイド を参照してください |
maxTurns | 10 | 安全制限です。到達すると MaxTurnsExceededError をスローします |
signal | – | キャンセル用の AbortSignal |
session | – | セッション永続化の実装です。セッションガイド を参照してください |
sessionInputCallback | – | セッション履歴と新しい入力をマージするカスタムロジックです。モデル呼び出し前に実行されます。セッション を参照してください |
callModelInputFilter | – | モデル呼び出し直前にモデル入力(項目 + オプションの instructions)を編集するフックです。Call model input filter を参照してください |
toolErrorFormatter | – | モデルに返されるツール承認拒否メッセージをカスタマイズするフックです。Tool error formatter を参照してください |
reasoningItemIdPolicy | – | 以前の実行項目をモデル入力に戻すときに、reasoning-item の id を保持するか省略するかを制御します。Reasoning item ID policy を参照してください |
tracing | – | 実行ごとのトレーシング設定の上書きです(例: export API key) |
errorHandlers | – | サポートされているランタイムエラー用のハンドラーです(現在は maxTurns)。Error handlers を参照してください |
conversationId | – | サーバー側の会話を再利用します(OpenAI Responses API + Conversations API のみ) |
previousResponseId | – | 会話を作成せずに、前回の Responses API 呼び出しから継続します(OpenAI Responses API のみ) |
ストリーミング
Section titled “ストリーミング”ストリーミングを使うと、LLM の実行中にストリーミングイベントも受け取れます。ストリームが開始されると、StreamedRunResult には、新たに生成されたすべての出力を含む実行の完全な情報が含まれます。ストリーミングイベントは for await ループで反復処理できます。詳細は ストリーミングガイド を参照してください。
RunConfig
Section titled “RunConfig”独自の Runner インスタンスを作成する場合は、runner を設定するために RunConfig オブジェクトを渡せます。
| Field | Type | Purpose |
|---|---|---|
model | string | Model | 実行内の すべての エージェントに対して特定のモデルを強制します |
modelProvider | ModelProvider | モデル名を解決します。デフォルトは OpenAI provider です |
modelSettings | ModelSettings | エージェントごとの設定を上書きするグローバルな調整パラメーターです。詳細と opt-in の retry 設定については モデルガイド を参照してください |
handoffInputFilter | HandoffInputFilter | ハンドオフ実行時に入力項目を変更します(ハンドオフ自体で未定義の場合) |
inputGuardrails | InputGuardrail[] | 初期 ユーザー入力に適用されるガードレール |
outputGuardrails | OutputGuardrail[] | 最終 出力に適用されるガードレール |
tracingDisabled | boolean | OpenAI Tracing を完全に無効化します |
traceIncludeSensitiveData | boolean | span は出力しつつ、トレースから LLM / ツールの入力と出力を除外します |
workflowName | string | Traces ダッシュボードに表示され、関連する実行のグループ化に役立ちます |
traceId / groupId | string | SDK に生成させる代わりに、trace または group ID を手動指定します |
traceMetadata | Record<string, string> | 各 span に付与する任意のメタデータ |
tracing | TracingConfig | 実行ごとのトレーシング上書きです(例: export API key) |
sessionInputCallback | SessionInputCallback | この runner 上のすべての実行に対するデフォルトの履歴マージ戦略です |
callModelInputFilter | CallModelInputFilter | 各モデル呼び出し前にモデル入力を編集するグローバルフックです |
toolErrorFormatter | ToolErrorFormatter | モデルに返されるツール承認拒否メッセージをカスタマイズするグローバルフックです |
reasoningItemIdPolicy | ReasoningItemIdPolicy | 後続のモデル呼び出しに生成済み項目を再利用するとき、reasoning-item の id を保持するか省略するかのデフォルトポリシーです |
状態と会話管理
Section titled “状態と会話管理”メモリ戦略の選択
Section titled “メモリ戦略の選択”状態を次のターンに引き継ぐ一般的な方法は 4 つあります。
| Strategy | Where state lives | Best for | What you pass on the next turn |
|---|---|---|---|
result.history | アプリのメモリ | 小規模なチャットループ、完全な手動制御、任意の provider | result.history |
session | ストレージ + SDK | 永続的なチャット状態、再開可能な実行、カスタムストア | 同じ session インスタンス(またはストアをバックエンドに持つもの) |
conversationId | OpenAI Conversations API | worker / service 間で共有されるサーバー側状態 | 同じ conversationId と新しいユーザーターンのみ |
previousResponseId | OpenAI Responses API のみ | 会話を作らずに行う最もシンプルなサーバー管理の継続 | result.lastResponseId と新しいユーザーターンのみ |
result.history と session はクライアント管理です。conversationId と previousResponseId は OpenAI 管理であり、OpenAI Responses API を使用している場合にのみ適用されます。ほとんどのアプリケーションでは、会話ごとに 1 つの永続化戦略を選んでください。クライアント管理の履歴とサーバー管理の状態を混在させると、意図的に両レイヤーを調整していない限り、コンテキストが重複する可能性があります。
Conversations / チャットスレッド
Section titled “Conversations / チャットスレッド”runner.run()(または run() ユーティリティ)の各呼び出しは、アプリケーションレベルの会話における 1 つの ターン を表します。RunResult のどこまでをエンドユーザーに見せるかは選択できます。finalOutput のみの場合もあれば、生成されたすべての項目を表示する場合もあります。
import { Agent, run } from '@openai/agents';import type { AgentInputItem } from '@openai/agents';
let thread: AgentInputItem[] = [];
const agent = new Agent({ name: 'Assistant',});
async function userSays(text: string) { const result = await run( agent, thread.concat({ role: 'user', content: text }), );
thread = result.history; // Carry over history + newly generated items return result.finalOutput;}
await userSays('What city is the Golden Gate Bridge in?');// -> "San Francisco"
await userSays('What state is it in?');// -> "California"対話形式のバージョンについては、chat example を参照してください。
サーバー管理の会話
Section titled “サーバー管理の会話”ターンごとにローカル会話履歴全体を送信する代わりに、OpenAI Responses API に会話履歴を永続化させることができます。これは、長い会話や複数のサービスを調整する場合に便利です。以下のいずれのサーバー管理アプローチでも、各リクエストでは新しいターンの入力だけを渡します。API が以前の状態を再利用します。詳細は Conversation state guide を参照してください。
OpenAI は、サーバー側状態を再利用する 2 つの方法を提供しています。
1. 会話全体に対する conversationId
Section titled “1. 会話全体に対する conversationId”Conversations API を使って一度会話を作成し、その ID をすべてのターンで再利用できます。SDK は新たに生成された項目のみを自動的に含めます。
import { Agent, run } from '@openai/agents';import { OpenAI } from 'openai';
const agent = new Agent({ name: 'Assistant', instructions: 'Reply very concisely.',});
async function main() { // Create a server-managed conversation: const client = new OpenAI(); const { id: conversationId } = await client.conversations.create({});
const first = await run(agent, 'What city is the Golden Gate Bridge in?', { conversationId, }); console.log(first.finalOutput); // -> "San Francisco"
const second = await run(agent, 'What state is it in?', { conversationId }); console.log(second.finalOutput); // -> "California"}
main().catch(console.error);2. 最後のターンから継続する previousResponseId
Section titled “2. 最後のターンから継続する previousResponseId”Responses API だけで始めたい場合は、前回の response から返された ID を使って各リクエストをつなげられます。これにより、完全な会話リソースを作成せずに、ターンをまたいでコンテキストを維持できます。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Assistant', instructions: 'Reply very concisely.',});
async function main() { const first = await run(agent, 'What city is the Golden Gate Bridge in?'); console.log(first.finalOutput); // -> "San Francisco"
const previousResponseId = first.lastResponseId; const second = await run(agent, 'What state is it in?', { previousResponseId, }); console.log(second.finalOutput); // -> "California"}
main().catch(console.error);conversationId と previousResponseId は相互排他的です。システム間で共有できる名前付きの会話リソースが必要なら conversationId を使い、単に 1 つの response から次へと最も低コストな SDK レベルの継続機能がほしいだけなら previousResponseId を使ってください。
フックとカスタマイズ
Section titled “フックとカスタマイズ”Call model input filter
Section titled “Call model input filter”callModelInputFilter を使うと、モデル呼び出しの 直前 にモデル入力を編集できます。このフックは、現在のエージェント、コンテキスト、および結合済みの入力項目(存在する場合はセッション履歴を含む)を受け取ります。機微データのマスキング、古いメッセージの削除、追加のシステムガイダンスの挿入を行うために、更新後の input 配列とオプションの instructions を返します。
実行ごとに runner.run(..., { callModelInputFilter }) で設定するか、Runner 設定のデフォルト(RunConfig の callModelInputFilter)として設定します。
戻り値は ModelInputData オブジェクト、すなわち { input: AgentInputItem[], instructions? } である必要があります。input フィールドは必須で、配列でなければなりません。これ以外の形を返すと UserError がスローされます。
SDK は、filter を呼び出す前に準備済みのターン入力を複製します。session も使用している場合、永続化されるのはこの filter 済みの複製なので、ここで適用したマスキングや切り詰めは保存されるセッション履歴にも反映されます。
conversationId または previousResponseId を使う場合、このフックは次の Responses API 呼び出し用に準備されたペイロードに対して実行されます。以前のサーバー管理コンテキストは API によって復元されるため、その呼び出し用の filter 済み配列は、以前の履歴全体の再生ではなく、新しいターンの差分のみを表している場合があります。この最終 filter ステップの前に、保存済み履歴と現在のターンをどのようにマージするかを変更したい場合は、sessionInputCallback を使用してください。
Tool error formatter
Section titled “Tool error formatter”toolErrorFormatter を使うと、ツール呼び出しが拒否されたときにモデルへ返される承認拒否メッセージをカスタマイズできます。これにより、SDK のデフォルトメッセージではなく、ドメイン固有の文言(たとえばコンプライアンスガイダンス)を返せます。
formatter は実行ごと(runner.run(..., { toolErrorFormatter }))にも、RunConfig 内でグローバル(new Runner(...) の toolErrorFormatter)にも設定できます。
この formatter は、承認拒否に対するグローバルなフォールバックです。特定の interruption を result.state.reject(interruption, { message: '...' }) で拒否した場合、その呼び出し単位の message が toolErrorFormatter より優先されます。どちらも指定されていない場合、SDK はデフォルトの拒否テキスト Tool execution was not approved. にフォールバックします。
現在この formatter は approval_rejected イベントで実行され、次を受け取ります。
kind(現在は常に'approval_rejected')toolType('function'、'computer'、'shell'、または'apply_patch')toolNamecallIddefaultMessage(SDK のフォールバックメッセージ。現在はTool execution was not approved.)runContext
メッセージを上書きするには文字列を返し、SDK のデフォルトを維持するには undefined を返します。formatter が例外をスローした場合(または文字列以外を返した場合)、SDK は警告をログに出し、デフォルトの承認拒否メッセージにフォールバックします。
Reasoning item ID policy
Section titled “Reasoning item ID policy”reasoningItemIdPolicy を使うと、SDK が以前に生成された実行項目を後続のモデル入力用 AgentInputItem[] に戻すときに、reasoning item の id フィールドを保持するかどうかを制御できます。
これは、SDK が生成済みのモデル項目を入力として再利用する次のような箇所に影響します。
-
同一実行内の後続モデル呼び出し(たとえばツール実行後)
-
生成済み項目を入力 / 履歴として再利用する後続ターン
-
保存された
RunStateから再開された実行 -
result.history/result.outputのような派生結果ビュー(モデル入力の形をした配列) -
'preserve'(デフォルト)は reasoning item の ID を保持します -
'omit'は、入力として再送される前に reasoning item からidフィールドを削除します -
reasoning 以外の項目には影響しません
これによって 変更されない もの:
- 元のモデル応答(
result.rawResponses) - 実行項目(
result.newItems) - provider から返されるモデルの現在ターン出力
つまり、このポリシーは SDK が以前に生成された項目から 次の入力 を構築するときに適用されます。
ポリシーは実行ごと(runner.run(..., { reasoningItemIdPolicy: 'omit' }))にも、runner のデフォルト(new Runner({ reasoningItemIdPolicy: 'omit', ... }))にも設定できます。保存された RunState から再開する場合、上書きしない限り以前に解決されたポリシーが再利用されます。
callModelInputFilter との相互作用
Section titled “callModelInputFilter との相互作用”reasoningItemIdPolicy は callModelInputFilter の前に適用されます。カスタム動作が必要な場合でも、callModelInputFilter は準備済み入力を確認し、モデル呼び出し前に reasoning ID を手動で再導入または削除できます。
'omit' を使う場面
Section titled “'omit' を使う場面”再利用される reasoning item を ID なしで正規化したい場合(たとえば、転送 / 再生されるモデル入力をよりシンプルに保ちたい場合や、アプリのパイプラインにおける統合要件に合わせたい場合)は 'omit' を使ってください。
また、バックエンド / provider が再利用される reasoning item をリクエスト検証エラーで拒否する場合の有効なトラブルシューティング手段にもなります(たとえば、後続入力中の reasoning item ID に関連する HTTP 400 エラー)。そのような場合は、'omit' で再利用される reasoning ID を削除することで、バックエンドが新しいリクエストでは無効と見なす ID の送信を避けられます。
再利用入力でも reasoning item ID を引き継ぎたく、かつ統合先がそれを受け入れる場合は 'preserve' を維持してください。
エラーと復旧
Section titled “エラーと復旧”Error handlers
Section titled “Error handlers”errorHandlers を使うと、サポートされているランタイムエラーをスローせずに最終出力へ変換できます。現在サポートされているのは maxTurns のみです。
errorHandlers.maxTurnsは max-turn エラーのみを処理しますerrorHandlers.defaultはサポートされている種類に対するフォールバックとして使われます- ハンドラーは
{ error, context, runData }を受け取り、{ finalOutput, includeInHistory? }を返せます
SDK は、catch できる少数のエラーをスローします。
MaxTurnsExceededError–maxTurnsに到達したModelBehaviorError– モデルが無効な出力を生成した(例: 不正な JSON、未知のツール)InputGuardrailTripwireTriggered/OutputGuardrailTripwireTriggered– ガードレール違反ToolInputGuardrailTripwireTriggered/ToolOutputGuardrailTripwireTriggered– ツールガードレール違反GuardrailExecutionError– ガードレールの完了に失敗したToolTimeoutError– 関数ツールがtimeoutMsを超過し、timeoutBehavior: 'raise_exception'を使っていたToolCallError– タイムアウト以外のエラーで関数ツールの実行に失敗したUserError– 設定またはユーザー入力に基づいてスローされる任意のエラー
これらはすべて基底の AgentsError クラスを継承しており、現在の実行状態にアクセスするための state プロパティを提供する場合があります。
以下は GuardrailExecutionError を処理するコード例です。入力ガードレールは最初のユーザー入力でしか実行されないため、この例では元の入力とコンテキストで実行を再開始します。また、保存済み状態を再利用して、モデルを再度呼び出さずに出力ガードレールを再試行する方法も示しています。
import { Agent, GuardrailExecutionError, InputGuardrail, InputGuardrailTripwireTriggered, OutputGuardrail, OutputGuardrailTripwireTriggered, run,} from '@openai/agents';import { z } from 'zod';
// Shared guardrail agent to avoid re-creating it on every fallback run.const guardrailAgent = new Agent({ name: 'Guardrail check', instructions: 'Check if the user is asking you to do their math homework.', outputType: z.object({ isMathHomework: z.boolean(), reasoning: z.string(), }),});
async function main() { const input = 'Hello, can you help me solve for x: 2x + 3 = 11?'; const context = { customerId: '12345' };
// Input guardrail example
const unstableInputGuardrail: InputGuardrail = { name: 'Math Homework Guardrail (unstable)', execute: async () => { throw new Error('Something is wrong!'); }, };
const fallbackInputGuardrail: InputGuardrail = { name: 'Math Homework Guardrail (fallback)', execute: async ({ input, context }) => { const result = await run(guardrailAgent, input, { context }); const isMathHomework = result.finalOutput?.isMathHomework ?? /solve for x|math homework/i.test(JSON.stringify(input)); return { outputInfo: result.finalOutput, tripwireTriggered: isMathHomework, }; }, };
const agent = new Agent({ name: 'Customer support agent', instructions: 'You are a customer support agent. You help customers with their questions.', inputGuardrails: [unstableInputGuardrail], });
try { // Input guardrails only run on the first turn of a run, so retries must start a fresh run. await run(agent, input, { context }); } catch (e) { if (e instanceof GuardrailExecutionError) { console.error(`Guardrail execution failed (input): ${e}`); try { agent.inputGuardrails = [fallbackInputGuardrail]; // Retry from scratch with the original input and context. await run(agent, input, { context }); } catch (ee) { if (ee instanceof InputGuardrailTripwireTriggered) { console.log('Math homework input guardrail tripped on retry'); } else { throw ee; } } } else { throw e; } }
// Output guardrail example
const replyOutputSchema = z.object({ reply: z.string() });
const unstableOutputGuardrail: OutputGuardrail<typeof replyOutputSchema> = { name: 'Answer review (unstable)', execute: async () => { throw new Error('Output guardrail crashed.'); }, };
const fallbackOutputGuardrail: OutputGuardrail<typeof replyOutputSchema> = { name: 'Answer review (fallback)', execute: async ({ agentOutput }) => { const outputText = typeof agentOutput === 'string' ? agentOutput : (agentOutput?.reply ?? JSON.stringify(agentOutput)); const flagged = /math homework|solve for x|x =/i.test(outputText); return { outputInfo: { flaggedOutput: outputText }, tripwireTriggered: flagged, }; }, };
const agent2 = new Agent<unknown, typeof replyOutputSchema>({ name: 'Customer support agent (output check)', instructions: 'You are a customer support agent. Answer briefly.', outputType: replyOutputSchema, outputGuardrails: [unstableOutputGuardrail], });
try { await run(agent2, input, { context }); } catch (e) { if (e instanceof GuardrailExecutionError && e.state) { console.error(`Guardrail execution failed (output): ${e}`); try { agent2.outputGuardrails = [fallbackOutputGuardrail]; // Output guardrails can be retried using the saved state without another model call. await run(agent2, e.state); } catch (ee) { if (ee instanceof OutputGuardrailTripwireTriggered) { console.log('Output guardrail tripped after retry with saved state'); } else { throw ee; } } } else { throw e; } }}
main().catch(console.error);入力と出力の再試行の違い:
- 入力ガードレールは実行の最初のユーザー入力でのみ動作するため、再試行するには同じ入力 / コンテキストで新しい実行を開始する必要があります。保存済み
stateを渡しても入力ガードレールは再トリガーされません - 出力ガードレールはモデル応答の後で実行されるため、
GuardrailExecutionErrorから保存済みstateを再利用して、追加のモデル呼び出しなしで再実行できます
上記の例を実行すると、次の出力が表示されます。
Guardrail execution failed (input): Error: Input guardrail failed to complete: Error: Something is wrong!Math homework input guardrail tripped on retryGuardrail execution failed (output): Error: Output guardrail failed to complete: Error: Output guardrail crashed.Output guardrail tripped after retry with saved state