コンテンツにスキップ

ストリーミング

Agents SDK は、モデルおよびその他の実行ステップからの出力を段階的に配信できます。ストリーミングにより UI の応答性を保ち、最終結果全体を待たずにユーザーへの更新を行えます。

Runner.run(){ stream: true } オプションを渡すと、完全な結果ではなくストリーミングオブジェクトを取得できます:

Enabling streaming
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});

ストリーミングを有効にすると、返される streamAsyncIterable インターフェースを実装します。yield される各イベントは、実行中に何が起きたかを表すオブジェクトです。ストリームは 3 種類のイベントタイプを返し、それぞれがエージェント実行の異なる部分を表します。ただし多くのアプリケーションではモデルのテキストだけが必要なため、ストリームには補助メソッドが用意されています。

stream.toTextStream() を呼び出すと、出力されたテキストのストリームを取得できます。compatibleWithNodeStreamstrue の場合、戻り値は通常の Node.js Readable です。これを process.stdout や他の出力先に直接 pipe できます。

Logging out the text as it arrives
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});
result
.toTextStream({
compatibleWithNodeStreams: true,
})
.pipe(process.stdout);

stream.completed の Promise は、実行と保留中のすべてのコールバックが完了すると resolve されます。これ以上出力がないことを保証したい場合は、必ず await してください。これには、最後のテキストトークン到着後に終了するセッション永続化や履歴圧縮フックなどの後処理も含まれます。

toTextStream() が出力するのはアシスタントテキストのみです。ツール呼び出し、ハンドオフ、承認、その他のランタイムイベントは完全なイベントストリームから取得できます。

for await ループを使って、到着した各イベントを確認できます。低レベルのモデルイベント、エージェント切り替え、SDK 固有の実行情報などが有用です:

Listening to all events
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});
for await (const event of result) {
// these are the raw events from the model
if (event.type === 'raw_model_stream_event') {
console.log(`${event.type} %o`, event.data);
}
// agent updated events
if (event.type === 'agent_updated_stream_event') {
console.log(`${event.type} %s`, event.agent.name);
}
// Agent SDK specific events
if (event.type === 'run_item_stream_event') {
console.log(`${event.type} %o`, event.item);
}
}

プレーンテキストストリームと元のイベントストリームの両方を出力する、完全なスクリプトは ストリーミング例 を参照してください。

Responses WebSocket トランスポート(任意)

Section titled “Responses WebSocket トランスポート(任意)”

このページのストリーミング API は、OpenAI Responses WebSocket トランスポートでも動作します。

setOpenAIResponsesTransport('websocket') でグローバルに有効化するか、useResponsesWebSocket: true を指定した独自の OpenAIProvider を使用してください。

WebSocket 経由でストリーミングするだけなら、withResponsesWebSocketSession(...) やカスタム OpenAIProvider は不要です。実行間の再接続を許容できるなら、トランスポート有効化後も run() / Runner.run(..., { stream: true }) はそのまま動作します。

接続の再利用や、より明示的なプロバイダーのライフサイクル制御が必要な場合は、withResponsesWebSocketSession(...) またはカスタム OpenAIProvider / Runner を使用してください。

previousResponseId を使った継続は、HTTP トランスポートと同じセマンティクスです。違いはトランスポートと接続ライフサイクルのみです。

プロバイダーを自前で構築する場合は、終了時に await provider.close() を呼ぶことを忘れないでください。Websocket ベースのモデルラッパーは既定で再利用のためにキャッシュされ、プロバイダーを閉じるとそれらの接続が解放されます。withResponsesWebSocketSession(...) では同じ再利用性を維持しつつ、クリーンアップを単一コールバックに自動でスコープできます。

ストリーミング、ツール呼び出し、承認、previousResponseId を含む完全な例は examples/basic/stream-ws.ts を参照してください。

ストリームは 3 種類のイベントタイプを返します:

RunRawModelStreamEvent
import {
isOpenAIChatCompletionsRawModelStreamEvent,
isOpenAIResponsesRawModelStreamEvent,
type RunStreamEvent,
} from '@openai/agents';
export function logOpenAIRawModelEvent(event: RunStreamEvent) {
if (isOpenAIResponsesRawModelStreamEvent(event)) {
console.log(event.source);
console.log(event.data.event.type);
return;
}
if (isOpenAIChatCompletionsRawModelStreamEvent(event)) {
console.log(event.source);
console.log(event.data.event.object);
}
}

例:

{
"type": "raw_model_stream_event",
"data": {
"type": "output_text_delta",
"delta": "Hello"
}
}

OpenAI プロバイダーを使用している場合、@openai/agents-openai@openai/agents の両方で、agents-core の汎用 RunRawModelStreamEvent 契約を変えずに OpenAI の元ペイロードを絞り込むヘルパーが提供されています。

Narrow OpenAI raw model events
import type { RunStreamEvent } from '@openai/agents';
import { isOpenAIResponsesRawModelStreamEvent } from '@openai/agents';
export function isOpenAIResponsesTextDelta(event: RunStreamEvent): boolean {
return (
isOpenAIResponsesRawModelStreamEvent(event) &&
event.data.event.type === 'response.output_text.delta'
);
}

トランスポート非依存のストリーミングコードだけが必要な場合は、event.type === 'raw_model_stream_event' の判定だけでも十分です。

OpenAI モデルを使用し、手動キャストなしでプロバイダー固有ペイロードを確認したい場合は、SDK が絞り込みヘルパーも提供しています:

  • Responses の元イベント向け: isOpenAIResponsesRawModelStreamEvent(event)
  • Chat Completions のチャンク向け: isOpenAIChatCompletionsRawModelStreamEvent(event)

これらの OpenAI モデルイベントでは、RunRawModelStreamEvent.source'openai-responses' または 'openai-chat-completions' も設定されます。

これは、response.reasoning_summary_text.deltaresponse.output_item.done、MCP 引数の差分のような Responses 固有イベントを確認しつつ、TypeScript に基盤イベント形状を認識させたい場合に特に有用です。

より充実した OpenAI 固有のストリーミングパターンは examples/basic/stream-ws.tsexamples/tools/code-interpreter.tsexamples/connectors/index.ts を参照してください。

RunItemStreamEvent
import type { RunItemStreamEvent, RunStreamEvent } from '@openai/agents';
export function isRunItemStreamEvent(
event: RunStreamEvent,
): event is RunItemStreamEvent {
return event.type === 'run_item_stream_event';
}

name は、どの種類のアイテムが生成されたかを識別します:

name意味
message_output_createdメッセージ出力アイテムが作成されました
handoff_requestedモデルがハンドオフを要求しました
handoff_occurredランタイムが別のエージェントへのハンドオフを完了しました
tool_search_calledtool_search_call アイテムが出力されました
tool_search_output_created読み込み済みツール定義を含む tool_search_output アイテムが出力されました
tool_calledツール呼び出しアイテムが出力されました
tool_outputツール結果アイテムが出力されました
reasoning_item_createdreasoning アイテムが出力されました
tool_approval_requestedツール呼び出しが人間の承認待ちで一時停止しました

tool_search_* イベントは、実行中に toolSearchTool() を使って遅延ツールを読み込む Responses 実行でのみ現れます。

ハンドオフペイロードの例:

{
"type": "run_item_stream_event",
"name": "handoff_occurred",
"item": {
"type": "handoff_call",
"id": "h1",
"status": "completed",
"name": "transfer_to_refund_agent"
}
}
RunAgentUpdatedStreamEvent
import type {
RunAgentUpdatedStreamEvent,
RunStreamEvent,
} from '@openai/agents';
export function isRunAgentUpdatedStreamEvent(
event: RunStreamEvent,
): event is RunAgentUpdatedStreamEvent {
return event.type === 'agent_updated_stream_event';
}

例:

{
"type": "agent_updated_stream_event",
"agent": {
"name": "Refund Agent"
}
}

ストリーミング中の Human in the loop (人間の介入)

Section titled “ストリーミング中の Human in the loop (人間の介入)”

ストリーミングは、実行を一時停止するハンドオフ(例: ツールが承認を必要とする場合)と互換性があります。ストリームオブジェクトの interruptions フィールドで保留中の承認を参照でき、それぞれに対して state.approve() または state.reject() を呼んで実行を継続できます。ストリームが停止した後、stream.completed が resolve され、stream.interruptions に処理すべき承認が入ります。{ stream: true } で再実行するとストリーミング出力が再開されます。

Handling human approval while streaming
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
let stream = await run(
agent,
'What is the weather in San Francisco and Oakland?',
{ stream: true },
);
stream.toTextStream({ compatibleWithNodeStreams: true }).pipe(process.stdout);
await stream.completed;
while (stream.interruptions?.length) {
console.log(
'Human-in-the-loop: approval required for the following tool calls:',
);
const state = stream.state;
for (const interruption of stream.interruptions) {
const approved = confirm(
`Agent ${interruption.agent.name} would like to use the tool ${interruption.name} with "${interruption.arguments}". Do you approve?`,
);
if (approved) {
state.approve(interruption);
} else {
state.reject(interruption);
}
}
// Resume execution with streaming output
stream = await run(agent, state, { stream: true });
const textStream = stream.toTextStream({ compatibleWithNodeStreams: true });
textStream.pipe(process.stdout);
await stream.completed;
}

ユーザーと対話する、より完全な例は human-in-the-loop-stream.ts です。

ストリームの停止と同一ターンの継続

Section titled “ストリームの停止と同一ターンの継続”

ストリーミング実行を早期停止するには、run() に渡した signal を abort するか、stream.toStream() から作成した reader を cancel してください。どちらの場合でも、実行が確定したとみなす前に stream.completed を await してください。コードがイベント消費を止めた後も、SDK が現在ターン入力の永続化やその他のクリーンアップを続行している場合があります。

ストリームがキャンセルされると stream.cancelledtrue になり、現在ターンが完了していないため stream.finalOutputundefined のままであることがよくあります。この未完了ターンを後で継続したい場合は、新しいユーザーメッセージを追加する代わりに、同じエージェントを stream.state で再実行してください。これによりターン数の整合性を保ち、RunState に保存済みの conversationIdpreviousResponseId を再利用できます。

セッション永続化も使っている場合は、再開した run() 呼び出しでも同じ session を再度渡し、同じ保存先に会話を書き込み続けるようにしてください。

承認による停止も同じルールです。stream.interruptions を解決し、新しいターンを開始するのではなく stream.state から再開してください。

  • すべての出力がフラッシュされたことを保証するため、終了前に stream.completed を待つ
  • 最初の { stream: true } オプションは、それを指定した呼び出しにのみ適用される。RunState で再実行する場合は、再度オプション指定が必要
  • アプリケーションがテキスト結果だけを必要とするなら、個別イベントオブジェクトを扱わずに済む toTextStream() を優先する

ストリーミングとイベントシステムを使うことで、エージェントをチャットインターフェース、ターミナルアプリケーション、または段階的な更新が有益なあらゆる場所に統合できます。