ストリーミング
Agents SDK は、モデルからの出力やその他の実行ステップの結果を段階的に配信できます。ストリーミングを使うと、ユーザーへの更新前に最終結果全体を待つ必要がなくなり、 UI の応答性を保てます。
ストリーミングの有効化
Section titled “ストリーミングの有効化”Runner.run() に { stream: true } オプションを渡すと、完全な結果ではなくストリーミングオブジェクトを取得できます。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Storyteller', instructions: 'You are a storyteller. You will be given a topic and you will tell a story about it.',});
const result = await run(agent, 'Tell me a story about a cat.', { stream: true,});ストリーミングを有効にすると、返される stream は AsyncIterable インターフェースを実装します。yield される各イベントは、その実行の中で何が起きたかを表すオブジェクトです。ストリームは 3 種類のイベントタイプのいずれかを返し、それぞれがエージェント実行の異なる部分を表します。ただし、多くのアプリケーションではモデルのテキストだけが必要なため、ストリームにはそのためのヘルパーも用意されています。
テキスト出力の取得
Section titled “テキスト出力の取得”stream.toTextStream() を呼び出すと、出力されたテキストのストリームを取得できます。compatibleWithNodeStreams が true の場合、戻り値は通常の Node.js の Readable です。これを process.stdout や別の出力先に直接パイプできます。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Storyteller', instructions: 'You are a storyteller. You will be given a topic and you will tell a story about it.',});
const result = await run(agent, 'Tell me a story about a cat.', { stream: true,});
result .toTextStream({ compatibleWithNodeStreams: true, }) .pipe(process.stdout);Promise の stream.completed は、実行と保留中のすべてのコールバックが完了すると resolve されます。これ以上出力がないことを保証したい場合は、必ずこれを await してください。これには、最後のテキストトークン到着後に完了するセッション永続化や履歴圧縮フックなどの後処理も含まれます。
toTextStream() が出力するのは assistant のテキストだけです。ツール呼び出し、ハンドオフ、承認、その他の実行時イベントは完全なイベントストリームから取得できます。
すべてのイベントの監視
Section titled “すべてのイベントの監視”for await ループを使って、到着した各イベントを確認できます。低レベルのモデルイベント、エージェントの切り替え、 SDK 固有の実行情報などの有用な情報が含まれます。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Storyteller', instructions: 'You are a storyteller. You will be given a topic and you will tell a story about it.',});
const result = await run(agent, 'Tell me a story about a cat.', { stream: true,});
for await (const event of result) { // these are the raw events from the model if (event.type === 'raw_model_stream_event') { console.log(`${event.type} %o`, event.data); } // agent updated events if (event.type === 'agent_updated_stream_event') { console.log(`${event.type} %s`, event.agent.name); } // Agent SDK specific events if (event.type === 'run_item_stream_event') { console.log(`${event.type} %o`, event.item); }}プレーンなテキストストリームと元のイベントストリームの両方を出力する完全なスクリプトについては、streamed example を参照してください。
Responses WebSocket トランスポート(任意)
Section titled “Responses WebSocket トランスポート(任意)”このページのストリーミング API は、 OpenAI Responses WebSocket トランスポートでも動作します。
setOpenAIResponsesTransport('websocket') でグローバルに有効化するか、useResponsesWebSocket: true を指定した独自の OpenAIProvider を使用してください。
WebSocket 経由でストリーミングするためだけであれば、withResponsesWebSocketSession(...) やカスタム OpenAIProvider は不要です。実行間の再接続を許容できるなら、トランスポートを有効化した後も run() / Runner.run(..., { stream: true }) はそのまま使えます。
接続の再利用や、より明示的なプロバイダーのライフサイクル制御が必要な場合は、withResponsesWebSocketSession(...) またはカスタム OpenAIProvider / Runner を使用してください。
previousResponseId による継続は、 HTTP トランスポートと同じセマンティクスを使います。違いはトランスポートと接続のライフサイクルだけです。
自分でプロバイダーを構築する場合は、シャットダウン時に await provider.close() を呼び出すことを忘れないでください。 WebSocket をバックエンドに持つモデルラッパーは、デフォルトで再利用のためにキャッシュされており、プロバイダーを閉じるとそれらの接続が解放されます。withResponsesWebSocketSession(...) でも同様の再利用が得られますが、クリーンアップは単一のコールバックに自動的にスコープされます。
ストリーミング、ツール呼び出し、承認、previousResponseId を含む完全な例については、examples/basic/stream-ws.ts を参照してください。
イベントタイプ
Section titled “イベントタイプ”ストリームは 3 種類のイベントタイプを返します。
raw_model_stream_event
Section titled “raw_model_stream_event”import { isOpenAIChatCompletionsRawModelStreamEvent, isOpenAIResponsesRawModelStreamEvent, type RunStreamEvent,} from '@openai/agents';
export function logOpenAIRawModelEvent(event: RunStreamEvent) { if (isOpenAIResponsesRawModelStreamEvent(event)) { console.log(event.source); console.log(event.data.event.type); return; }
if (isOpenAIChatCompletionsRawModelStreamEvent(event)) { console.log(event.source); console.log(event.data.event.object); }}例:
{ "type": "raw_model_stream_event", "data": { "type": "output_text_delta", "delta": "Hello" }}OpenAI provider を使用している場合、@openai/agents-openai と @openai/agents はどちらも、agents-core の汎用的な RunRawModelStreamEvent コントラクトを変更せずに、元の OpenAI ペイロードを絞り込むためのヘルパーをエクスポートしています。
import type { RunStreamEvent } from '@openai/agents';import { isOpenAIResponsesRawModelStreamEvent } from '@openai/agents';
export function isOpenAIResponsesTextDelta(event: RunStreamEvent): boolean { return ( isOpenAIResponsesRawModelStreamEvent(event) && event.data.event.type === 'response.output_text.delta' );}トランスポート非依存のストリーミングコードだけが必要な場合は、event.type === 'raw_model_stream_event' を確認するだけで十分です。
OpenAI モデルを使っていて、手動キャストなしで provider 固有のペイロードを確認したい場合、 SDK は絞り込み用ヘルパーもエクスポートしています。
- Responses の元イベント用の
isOpenAIResponsesRawModelStreamEvent(event) - Chat Completions のチャンク用の
isOpenAIChatCompletionsRawModelStreamEvent(event)
これらの OpenAI モデルイベントでは、RunRawModelStreamEvent.source にも 'openai-responses' または 'openai-chat-completions' が設定されます。
これは、response.reasoning_summary_text.delta、response.output_item.done、MCP の引数 delta など、 Responses 専用イベントを確認しつつ、基になるイベント形状を TypeScript に認識させたい場合に特に便利です。
より完全な OpenAI 固有のストリーミングパターンについては、examples/basic/stream-ws.ts、examples/tools/code-interpreter.ts、examples/connectors/index.ts を参照してください。
run_item_stream_event
Section titled “run_item_stream_event”import type { RunItemStreamEvent, RunStreamEvent } from '@openai/agents';
export function isRunItemStreamEvent( event: RunStreamEvent,): event is RunItemStreamEvent { return event.type === 'run_item_stream_event';}name は、どの種類の項目が生成されたかを識別します。
name | 意味 |
|---|---|
message_output_created | メッセージ出力項目が作成されました |
handoff_requested | モデルがハンドオフを要求しました |
handoff_occurred | ランタイムが別のエージェントへのハンドオフを完了しました |
tool_search_called | tool_search_call 項目が出力されました |
tool_search_output_created | 読み込まれたツール定義を含む tool_search_output 項目が出力されました |
tool_called | ツール呼び出し項目が出力されました |
tool_output | ツール結果項目が出力されました |
reasoning_item_created | reasoning 項目が出力されました |
tool_approval_requested | ツール呼び出しが人間の承認のために一時停止しました |
tool_search_* イベントは、実行中に toolSearchTool() を使って遅延ツールを読み込む Responses 実行でのみ現れます。
ハンドオフペイロードの例:
{ "type": "run_item_stream_event", "name": "handoff_occurred", "item": { "type": "handoff_call", "id": "h1", "status": "completed", "name": "transfer_to_refund_agent" }}agent_updated_stream_event
Section titled “agent_updated_stream_event”import type { RunAgentUpdatedStreamEvent, RunStreamEvent,} from '@openai/agents';
export function isRunAgentUpdatedStreamEvent( event: RunStreamEvent,): event is RunAgentUpdatedStreamEvent { return event.type === 'agent_updated_stream_event';}例:
{ "type": "agent_updated_stream_event", "agent": { "name": "Refund Agent" }}ストリーミング中の Human in the loop (人間の介入)
Section titled “ストリーミング中の Human in the loop (人間の介入)”ストリーミングは、実行を一時停止するハンドオフと互換性があります(たとえば、ツールに承認が必要な場合)。ストリームオブジェクトの interruptions フィールドは保留中の承認を公開しており、それぞれに対して state.approve() または state.reject() を呼び出すことで実行を継続できます。ストリームが一時停止すると、stream.completed が resolve され、stream.interruptions に処理すべき承認が入ります。その後 { stream: true } でもう一度実行すると、ストリーミング出力が再開されます。
import { Agent, run } from '@openai/agents';
const agent = new Agent({ name: 'Storyteller', instructions: 'You are a storyteller. You will be given a topic and you will tell a story about it.',});
let stream = await run( agent, 'What is the weather in San Francisco and Oakland?', { stream: true },);stream.toTextStream({ compatibleWithNodeStreams: true }).pipe(process.stdout);await stream.completed;
while (stream.interruptions?.length) { console.log( 'Human-in-the-loop: approval required for the following tool calls:', ); const state = stream.state; for (const interruption of stream.interruptions) { const approved = confirm( `Agent ${interruption.agent.name} would like to use the tool ${interruption.name} with "${interruption.arguments}". Do you approve?`, ); if (approved) { state.approve(interruption); } else { state.reject(interruption); } }
// Resume execution with streaming output stream = await run(agent, state, { stream: true }); const textStream = stream.toTextStream({ compatibleWithNodeStreams: true }); textStream.pipe(process.stdout); await stream.completed;}ユーザーと対話する、より完全な例は human-in-the-loop-stream.ts です。
ストリームの停止と同一ターンの継続
Section titled “ストリームの停止と同一ターンの継続”ストリーミング実行を途中で止めるには、run() に渡した signal を abort するか、stream.toStream() から作成した reader を cancel します。どちらの場合でも、実行が落ち着いたと見なす前に stream.completed を必ず await してください。コードがイベントの消費を止めた後でも、 SDK が現在のターン入力を永続化したり、その他のクリーンアップを完了していたりする場合があります。
ストリームがキャンセルされると、stream.cancelled は true になり、現在のターンが完了していないため stream.finalOutput は undefined のままであることがよくあります。この未完了ターンを後で継続したい場合は、新しいユーザーメッセージを追加する代わりに、同じエージェントを stream.state で再実行してください。これによりターン数の管理が正しく保たれ、RunState にすでに保存されている conversationId や previousResponseId も再利用されます。
セッション永続化も使っている場合は、会話が同じバッキングストアに書き込まれ続けるように、再開する run() 呼び出しでも同じ session を再度渡してください。
承認による一時停止でも同じルールが適用されます。stream.interruptions を解決したあと、新しいターンを始めるのではなく stream.state から再開してください。
- すべての出力が確実に flush されるよう、終了前に
stream.completedを待つ - 最初の
{ stream: true }オプションは、それが指定された呼び出しにのみ適用される。RunStateで再実行する場合は、再度そのオプションを指定する必要がある - アプリケーションがテキストの結果だけを必要とする場合は、個々のイベントオブジェクトを扱わずに済むよう
toTextStream()を使う
ストリーミングとイベントシステムを使うことで、エージェントをチャットインターフェース、ターミナルアプリケーション、その他ユーザーが段階的な更新から恩恵を受けるあらゆる場所に統合できます。