流式传输
流式传输可让你在智能体运行过程中订阅更新。这对于向终端用户展示进度更新和部分响应非常有用。
要进行流式传输,你可以调用 Runner.run_streamed(),它会返回一个 RunResultStreaming。调用 result.stream_events() 会得到一个由 StreamEvent 对象组成的异步流,相关说明如下。
请持续消费 result.stream_events(),直到异步迭代器结束。流式运行在迭代器结束前都不算完成,并且诸如会话持久化、审批记录维护或历史压缩等后处理,可能会在最后一个可见 token 到达后才完成。循环退出时,result.is_complete 会反映最终的运行状态。
原始响应事件
RawResponsesStreamEvent 是直接从 LLM 传递的原始事件。它们采用 OpenAI Responses API 格式,这意味着每个事件都有类型(如 response.created、response.output_text.delta 等)和数据。如果你希望在响应消息生成后立刻流式推送给用户,这些事件会很有用。
例如,下面的代码会逐 token 输出 LLM 生成的文本。
import asyncio
from openai.types.responses import ResponseTextDeltaEvent
from agents import Agent, Runner
async def main():
agent = Agent(
name="Joker",
instructions="You are a helpful assistant.",
)
result = Runner.run_streamed(agent, input="Please tell me 5 jokes.")
async for event in result.stream_events():
if event.type == "raw_response_event" and isinstance(event.data, ResponseTextDeltaEvent):
print(event.data.delta, end="", flush=True)
if __name__ == "__main__":
asyncio.run(main())
流式传输与审批
流式传输与会因工具审批而暂停的运行兼容。如果某个工具需要审批,result.stream_events() 会结束,待处理审批会出现在 RunResultStreaming.interruptions 中。使用 result.to_state() 将结果转换为 RunState,批准或拒绝该中断后,再通过 Runner.run_streamed(...) 恢复运行。
result = Runner.run_streamed(agent, "Delete temporary files if they are no longer needed.")
async for _event in result.stream_events():
pass
if result.interruptions:
state = result.to_state()
for interruption in result.interruptions:
state.approve(interruption)
result = Runner.run_streamed(agent, state)
async for _event in result.stream_events():
pass
有关完整的暂停/恢复流程,请参阅人在回路指南。
运行项事件与智能体事件
RunItemStreamEvent 是更高层级的事件。它们会在某个运行项被完整生成时通知你。这使你可以按“消息已生成”“工具已运行”等级别推送进度更新,而不是按每个 token 推送。类似地,AgentUpdatedStreamEvent 会在当前智能体发生变化时(例如由于任务转移)提供更新。
运行项事件名称
RunItemStreamEvent.name 使用一组固定的语义事件名称:
message_output_createdhandoff_requestedhandoff_occuredtool_calledtool_outputreasoning_item_createdmcp_approval_requestedmcp_approval_responsemcp_list_tools
handoff_occured 的拼写错误是有意保留的,以实现向后兼容。
例如,下面的代码会忽略原始事件,并向用户流式推送更新。
import asyncio
import random
from agents import Agent, ItemHelpers, Runner, function_tool
@function_tool
def how_many_jokes() -> int:
return random.randint(1, 10)
async def main():
agent = Agent(
name="Joker",
instructions="First call the `how_many_jokes` tool, then tell that many jokes.",
tools=[how_many_jokes],
)
result = Runner.run_streamed(
agent,
input="Hello",
)
print("=== Run starting ===")
async for event in result.stream_events():
# We'll ignore the raw responses event deltas
if event.type == "raw_response_event":
continue
# When the agent updates, print that
elif event.type == "agent_updated_stream_event":
print(f"Agent updated: {event.new_agent.name}")
continue
# When items are generated, print them
elif event.type == "run_item_stream_event":
if event.item.type == "tool_call_item":
print("-- Tool was called")
elif event.item.type == "tool_call_output_item":
print(f"-- Tool output: {event.item.output}")
elif event.item.type == "message_output_item":
print(f"-- Message output:\n {ItemHelpers.text_message_output(event.item)}")
else:
pass # Ignore other event types
print("=== Run complete ===")
if __name__ == "__main__":
asyncio.run(main())