用量
Agents SDK 会自动跟踪每次运行的 token 用量。你可以从运行上下文中访问它,用于监控成本、实施限制或记录分析数据。
跟踪项
- requests: 发起的 LLM API 调用次数
- input_tokens: 发送的输入 token 总数
- output_tokens: 接收的输出 token 总数
- total_tokens: 输入 + 输出
- details:
input_tokens_details.cached_tokensoutput_tokens_details.reasoning_tokens
运行用量访问
在执行 Runner.run(...) 后,可通过 result.context_wrapper.usage 访问用量数据。
result = await Runner.run(agent, "What's the weather in Tokyo?")
usage = result.context_wrapper.usage
print("Requests:", usage.requests)
print("Input tokens:", usage.input_tokens)
print("Output tokens:", usage.output_tokens)
print("Total tokens:", usage.total_tokens)
用量会在运行期间聚合所有模型调用(包括工具调用与任务转移)。
LiteLLM 模型的用量启用
LiteLLM 提供方默认不报告用量指标。使用 LitellmModel 时,向你的智能体传入 ModelSettings(include_usage=True),以便 LiteLLM 的响应填充 result.context_wrapper.usage。
from agents import Agent, ModelSettings, Runner
from agents.extensions.models.litellm_model import LitellmModel
agent = Agent(
name="Assistant",
model=LitellmModel(model="your/model", api_key="..."),
model_settings=ModelSettings(include_usage=True),
)
result = await Runner.run(agent, "What's the weather in Tokyo?")
print(result.context_wrapper.usage.total_tokens)
会话中的用量访问
当你使用 Session(例如 SQLiteSession)时,每次调用 Runner.run(...) 都会返回该次运行的用量。会话会为上下文保留对话历史,但每次运行的用量彼此独立。
session = SQLiteSession("my_conversation")
first = await Runner.run(agent, "Hi!", session=session)
print(first.context_wrapper.usage.total_tokens) # Usage for first run
second = await Runner.run(agent, "Can you elaborate?", session=session)
print(second.context_wrapper.usage.total_tokens) # Usage for second run
请注意,尽管会话在多次运行之间保留对话上下文,但每次 Runner.run() 返回的用量指标仅代表该次执行。在会话中,先前消息可能会在每次运行时被重新作为输入提供,这会影响后续轮次的输入 token 计数。
钩子中的用量
如果你使用 RunHooks,传递给每个钩子的 context 对象包含 usage。这使你能够在关键生命周期时刻记录用量。
class MyHooks(RunHooks):
async def on_agent_end(self, context: RunContextWrapper, agent: Agent, output: Any) -> None:
u = context.usage
print(f"{agent.name} → {u.requests} requests, {u.total_tokens} total tokens")
API 参考
有关详细的 API 文档,请参阅:
Usage- 用量跟踪数据结构RunContextWrapper- 从运行上下文访问用量RunHooks- 接入用量跟踪生命周期