跳转到内容

流式传输

Agents SDK 可以以增量方式输出模型结果和其他执行步骤。流式传输可让 UI 保持响应,不必等到完整最终结果后再更新用户界面。

Runner.run() 传入 { stream: true } 选项,即可获得流对象而不是完整结果:

Enabling streaming
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});

启用流式传输后,返回的 stream 实现了 AsyncIterable 接口。每次产出的事件对象都描述了本次运行中发生的内容。该流会产出三种事件类型,分别对应智能体执行过程中的不同部分。不过,大多数应用只关心模型文本输出,因此该流也提供了辅助方法。

调用 stream.toTextStream() 可获得已发出文本的流。当 compatibleWithNodeStreamstrue 时,返回值是标准 Node.js Readable。我们可以将它直接 pipe 到 process.stdout 或其他目标。

Logging out the text as it arrives
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});
result
.toTextStream({
compatibleWithNodeStreams: true,
})
.pipe(process.stdout);

当运行以及所有待处理回调都完成后,stream.completed 这个 promise 才会 resolve。如果你想确保不再有任何输出,请始终 await 它。这也包括在最后一个文本 token 到达后才结束的后处理工作,例如会话持久化或历史压缩 hook。

toTextStream() 只会输出助手文本。工具调用、交接、审批以及其他运行时事件可从完整事件流中获取。

你可以使用 for await 循环在事件到达时逐条检查。可用信息包括底层模型事件、任意智能体切换以及 SDK 特有的运行信息:

Listening to all events
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
const result = await run(agent, 'Tell me a story about a cat.', {
stream: true,
});
for await (const event of result) {
// these are the raw events from the model
if (event.type === 'raw_model_stream_event') {
console.log(`${event.type} %o`, event.data);
}
// agent updated events
if (event.type === 'agent_updated_stream_event') {
console.log(`${event.type} %s`, event.agent.name);
}
// Agent SDK specific events
if (event.type === 'run_item_stream_event') {
console.log(`${event.type} %o`, event.item);
}
}

参见流式传输示例,其中有完整脚本,可同时打印纯文本流和原始事件流。

本页的流式 API 同样适用于 OpenAI Responses WebSocket 传输。

可通过 setOpenAIResponsesTransport('websocket') 全局启用,或使用你自己的 OpenAIProvider 并设置 useResponsesWebSocket: true

如果只是想通过 WebSocket 进行流式传输,不需要 withResponsesWebSocketSession(...) 或自定义 OpenAIProvider。若能接受在不同运行间重连,在启用该传输后 run() / Runner.run(..., { stream: true }) 仍可正常工作。

当你希望复用连接并更明确地控制 provider 生命周期时,请使用 withResponsesWebSocketSession(...) 或自定义 OpenAIProvider / Runner

使用 previousResponseId 续接时,语义与 HTTP 传输相同。区别仅在于传输方式和连接生命周期。

如果你自行构建 provider,关闭时请记得调用 await provider.close()。默认情况下,基于 Websocket 的模型封装会被缓存以供复用,关闭 provider 会释放这些连接。withResponsesWebSocketSession(...) 提供同样的复用能力,但会自动将清理范围限定在单个回调内。

参见 examples/basic/stream-ws.ts,获取包含流式传输、工具调用、审批与 previousResponseId 的完整示例。

该流会产出三种不同的事件类型:

RunRawModelStreamEvent
import {
isOpenAIChatCompletionsRawModelStreamEvent,
isOpenAIResponsesRawModelStreamEvent,
type RunStreamEvent,
} from '@openai/agents';
export function logOpenAIRawModelEvent(event: RunStreamEvent) {
if (isOpenAIResponsesRawModelStreamEvent(event)) {
console.log(event.source);
console.log(event.data.event.type);
return;
}
if (isOpenAIChatCompletionsRawModelStreamEvent(event)) {
console.log(event.source);
console.log(event.data.event.object);
}
}

示例:

{
"type": "raw_model_stream_event",
"data": {
"type": "output_text_delta",
"delta": "Hello"
}
}

如果你使用 OpenAI provider,@openai/agents-openai@openai/agents 都导出了辅助方法,可在不改变 agents-core 中通用 RunRawModelStreamEvent 契约的前提下,收窄原始 OpenAI 负载类型。

Narrow OpenAI raw model events
import type { RunStreamEvent } from '@openai/agents';
import { isOpenAIResponsesRawModelStreamEvent } from '@openai/agents';
export function isOpenAIResponsesTextDelta(event: RunStreamEvent): boolean {
return (
isOpenAIResponsesRawModelStreamEvent(event) &&
event.data.event.type === 'response.output_text.delta'
);
}

当你只需要与传输无关的流式代码时,检查 event.type === 'raw_model_stream_event' 仍然足够。

如果你使用 OpenAI 模型,并希望在不手动类型断言的情况下检查 provider 特定负载,SDK 还提供了收窄辅助方法:

  • isOpenAIResponsesRawModelStreamEvent(event):用于 Responses 原始事件。
  • isOpenAIChatCompletionsRawModelStreamEvent(event):用于 Chat Completions 分块事件。

对于这些 OpenAI 模型事件,RunRawModelStreamEvent.source 也会被填充为 'openai-responses''openai-chat-completions'

这在你想检查 Responses 专有事件(如 response.reasoning_summary_text.deltaresponse.output_item.done 或 MCP 参数增量)时尤其有用,同时还能让 TypeScript 感知底层事件结构。

参见 examples/basic/stream-ws.tsexamples/tools/code-interpreter.tsexamples/connectors/index.ts,了解更完整的 OpenAI 特定流式模式。

RunItemStreamEvent
import type { RunItemStreamEvent, RunStreamEvent } from '@openai/agents';
export function isRunItemStreamEvent(
event: RunStreamEvent,
): event is RunItemStreamEvent {
return event.type === 'run_item_stream_event';
}

name 用于标识产出的项目类型:

name含义
message_output_created已创建消息输出项。
handoff_requested模型请求了交接。
handoff_occurred运行时已完成向另一个智能体的交接。
tool_search_called已发出一个 tool_search_call 项。
tool_search_output_created已发出一个包含已加载工具定义的 tool_search_output 项。
tool_called已发出工具调用项。
tool_output已发出工具结果项。
reasoning_item_created已发出推理项。
tool_approval_requested工具调用已暂停,等待人工审批。

tool_search_* 事件只会出现在使用 toolSearchTool() 并在运行期间加载延迟工具的 Responses 运行中。

交接负载示例:

{
"type": "run_item_stream_event",
"name": "handoff_occurred",
"item": {
"type": "handoff_call",
"id": "h1",
"status": "completed",
"name": "transfer_to_refund_agent"
}
}
RunAgentUpdatedStreamEvent
import type {
RunAgentUpdatedStreamEvent,
RunStreamEvent,
} from '@openai/agents';
export function isRunAgentUpdatedStreamEvent(
event: RunStreamEvent,
): event is RunAgentUpdatedStreamEvent {
return event.type === 'agent_updated_stream_event';
}

示例:

{
"type": "agent_updated_stream_event",
"agent": {
"name": "Refund Agent"
}
}

流式传输与会暂停执行的交接兼容(例如工具需要审批时)。流对象上的 interruptions 字段会暴露待处理审批,你可以对每一项调用 state.approve()state.reject() 来继续执行。流暂停后,stream.completed 会 resolve,且 stream.interruptions 包含待处理审批。再次以 { stream: true } 执行即可恢复流式输出。

Handling human approval while streaming
import { Agent, run } from '@openai/agents';
const agent = new Agent({
name: 'Storyteller',
instructions:
'You are a storyteller. You will be given a topic and you will tell a story about it.',
});
let stream = await run(
agent,
'What is the weather in San Francisco and Oakland?',
{ stream: true },
);
stream.toTextStream({ compatibleWithNodeStreams: true }).pipe(process.stdout);
await stream.completed;
while (stream.interruptions?.length) {
console.log(
'Human-in-the-loop: approval required for the following tool calls:',
);
const state = stream.state;
for (const interruption of stream.interruptions) {
const approved = confirm(
`Agent ${interruption.agent.name} would like to use the tool ${interruption.name} with "${interruption.arguments}". Do you approve?`,
);
if (approved) {
state.approve(interruption);
} else {
state.reject(interruption);
}
}
// Resume execution with streaming output
stream = await run(agent, state, { stream: true });
const textStream = stream.toTextStream({ compatibleWithNodeStreams: true });
textStream.pipe(process.stdout);
await stream.completed;
}

一个与用户交互的更完整示例见 human-in-the-loop-stream.ts

若要提前停止一次流式运行,可中止你传给 run()signal,或取消由 stream.toStream() 创建的 reader。无论哪种方式,在将该运行视为已稳定结束前,仍应 await stream.completed。即使你的代码已停止消费事件,SDK 仍可能在持久化当前轮次输入或完成其他清理工作。

当流被取消时,stream.cancelled 会变为 true,而 stream.finalOutput 通常仍为 undefined,因为当前轮次未完成。如果你想稍后继续这个未完成轮次,请用 stream.state 重新运行同一个智能体,而不是追加新的用户消息。这样可保持轮次计数正确,并复用已存储在 RunState 中的 conversationIdpreviousResponseId

如果你也在使用会话持久化,请在恢复后的 run() 调用中再次传入相同的 session,以便对话继续写入同一后端存储。

审批暂停也遵循同样规则:先处理 stream.interruptions,再从 stream.state 恢复,而不是开启新轮次。

  • 退出前记得等待 stream.completed,以确保所有输出都已刷新。
  • 初始的 { stream: true } 选项只对提供该选项的那次调用生效。若使用 RunState 重新运行,必须再次指定该选项。
  • 如果你的应用只关心文本结果,优先使用 toTextStream(),以避免处理单个事件对象。

结合流式传输和事件系统,你可以将智能体集成到聊天界面、终端应用,或任何用户能从增量更新中获益的场景中。