跳转到内容

会话

会话为 Agents SDK 提供了一个持久化内存层。将任何实现了 Session 接口的对象提供给 Runner.run,其余工作由 SDK 处理。当存在会话时,runner 会自动:

  1. 获取先前存储的对话条目,并将其预置到下一轮之前。
  2. 在每次运行完成后持久化新的用户输入和助手输出。
  3. 让会话可用于未来的轮次,无论您是用新的用户文本调用 runner,还是从中断的 RunState 恢复。

这样就无需手动调用 toInputList() 或在多轮之间拼接历史记录。TypeScript SDK 自带两种实现:用于 Conversations API 的 OpenAIConversationsSession,以及面向本地开发的 MemorySession。由于它们共享 Session 接口,您也可以接入自己的存储后端。若想获取超出 Conversations API 的灵感,可查看 examples/memory/ 下的示例会话后端(Prisma、基于文件的实现等)。当您使用 OpenAI Responses 模型时,可用 OpenAIResponsesCompactionSession 包装任意会话,通过 responses.compact 自动压缩已存储的对话历史。

提示:要运行本页中的 OpenAIConversationsSession 示例,请设置 OPENAI_API_KEY 环境变量(或在构造会话时提供 apiKey),以便 SDK 调用 Conversations API。

当您希望 SDK 为您管理客户端内存时,请使用会话。如果您已经在使用带有 conversationIdpreviousResponseId 的 OpenAI 服务器托管状态,通常就不需要再为同一段对话历史额外使用会话。


使用 OpenAIConversationsSessionConversations API 同步内存,或者替换为任意其他 Session 实现。

将 Conversations API 用作会话内存
import { Agent, OpenAIConversationsSession, run } from '@openai/agents';
const agent = new Agent({
name: 'TourGuide',
instructions: 'Answer with compact travel facts.',
});
// Any object that implements the Session interface works here. This example uses
// the built-in OpenAIConversationsSession, but you can swap in a custom Session.
const session = new OpenAIConversationsSession();
const firstTurn = await run(agent, 'What city is the Golden Gate Bridge in?', {
session,
});
console.log(firstTurn.finalOutput); // "San Francisco"
const secondTurn = await run(agent, 'What state is it in?', { session });
console.log(secondTurn.finalOutput); // "California"

复用同一个会话实例可确保智能体在每一轮之前都能接收到完整的对话历史,并自动持久化新条目。切换到不同的 Session 实现时,无需修改其他代码。

对于本地演示、测试或进程内聊天状态,MemorySession 提供了相同的接口,且无需与 OpenAI 通信:

使用 MemorySession 管理本地状态
import { Agent, MemorySession, run } from '@openai/agents';
const agent = new Agent({
name: 'TourGuide',
instructions: 'Answer with compact travel facts.',
});
const session = new MemorySession();
const result = await run(agent, 'What city is the Golden Gate Bridge in?', {
session,
});
console.log(result.finalOutput);

OpenAIConversationsSession 构造函数选项:

OptionTypeNotes
conversationIdstring复用现有对话,而不是以惰性方式创建新对话。
clientOpenAI传入一个预配置的 OpenAI 客户端。
apiKeystring创建内部 OpenAI 客户端时使用的 API 密钥。
baseURLstringOpenAI 兼容端点的基础 URL。
organizationstring请求使用的 OpenAI organization ID。
projectstring请求使用的 OpenAI project ID。

MemorySession 构造函数选项:

OptionTypeNotes
sessionIdstring用于日志或测试的稳定标识符。默认自动生成。
initialItemsAgentInputItem[]使用现有历史为会话提供初始数据。
loggerLogger覆盖用于调试输出的 logger。

MemorySession 将所有内容都存储在本地进程内存中,因此进程退出后会被重置。

如果您需要在构造会话之前预先创建 conversation ID,请使用 startOpenAIConversationsSession(client?),并将返回的 ID 作为 conversationId 传入。


  • 在每次运行前,它会检索会话历史,将其与新一轮输入合并,并把合并后的列表传给您的智能体。
  • 在非流式运行后,会调用一次 session.addItems(),同时持久化原始用户输入和该轮最新的模型输出。
  • 对于流式运行,它会先写入用户输入,并在该轮完成后追加流式输出。
  • 当从 RunResult.state 恢复时(例如审批或其他中断),请继续传入同一个 session。恢复后的轮次会被加入内存,而不会重新准备输入。

会话提供了简单的 CRUD 辅助方法,因此您可以构建“撤销”“清空聊天”或审计等功能。

读取和编辑已存储条目
import { OpenAIConversationsSession } from '@openai/agents';
import type { AgentInputItem } from '@openai/agents-core';
// Replace OpenAIConversationsSession with any other Session implementation that
// supports get/add/pop/clear if you store history elsewhere.
const session = new OpenAIConversationsSession({
conversationId: 'conv_123', // Resume an existing conversation if you have one.
});
const history = await session.getItems();
console.log(`Loaded ${history.length} prior items.`);
const followUp: AgentInputItem[] = [
{
type: 'message',
role: 'user',
content: [{ type: 'input_text', text: 'Let’s continue later.' }],
},
];
await session.addItems(followUp);
const undone = await session.popItem();
if (undone?.type === 'message') {
console.log(undone.role); // "user"
}
await session.clearSession();

session.getItems() 会返回已存储的 AgentInputItem[]。调用 popItem() 可移除最后一项——这对于在重新运行智能体之前修正用户输入非常有用。


实现 Session 接口,即可使用 Redis、DynamoDB、SQLite 或其他数据存储来承载内存。只需实现五个异步方法。

自定义内存会话实现
import { Agent, run } from '@openai/agents';
import { randomUUID } from '@openai/agents-core/_shims';
import { getLogger } from '@openai/agents-core';
import type { AgentInputItem, Session } from '@openai/agents-core';
/**
* Minimal example of a Session implementation; swap this class for any storage-backed version.
*/
export class CustomMemorySession implements Session {
private readonly sessionId: string;
private readonly logger: ReturnType<typeof getLogger>;
private items: AgentInputItem[];
constructor(
options: {
sessionId?: string;
initialItems?: AgentInputItem[];
logger?: ReturnType<typeof getLogger>;
} = {},
) {
this.sessionId = options.sessionId ?? randomUUID();
this.items = options.initialItems
? options.initialItems.map(cloneAgentItem)
: [];
this.logger = options.logger ?? getLogger('openai-agents:memory-session');
}
async getSessionId(): Promise<string> {
return this.sessionId;
}
async getItems(limit?: number): Promise<AgentInputItem[]> {
if (limit === undefined) {
const cloned = this.items.map(cloneAgentItem);
this.logger.debug(
`Getting items from memory session (${this.sessionId}): ${JSON.stringify(cloned)}`,
);
return cloned;
}
if (limit <= 0) {
return [];
}
const start = Math.max(this.items.length - limit, 0);
const items = this.items.slice(start).map(cloneAgentItem);
this.logger.debug(
`Getting items from memory session (${this.sessionId}): ${JSON.stringify(items)}`,
);
return items;
}
async addItems(items: AgentInputItem[]): Promise<void> {
if (items.length === 0) {
return;
}
const cloned = items.map(cloneAgentItem);
this.logger.debug(
`Adding items to memory session (${this.sessionId}): ${JSON.stringify(cloned)}`,
);
this.items = [...this.items, ...cloned];
}
async popItem(): Promise<AgentInputItem | undefined> {
if (this.items.length === 0) {
return undefined;
}
const item = this.items[this.items.length - 1];
const cloned = cloneAgentItem(item);
this.logger.debug(
`Popping item from memory session (${this.sessionId}): ${JSON.stringify(cloned)}`,
);
this.items = this.items.slice(0, -1);
return cloned;
}
async clearSession(): Promise<void> {
this.logger.debug(`Clearing memory session (${this.sessionId})`);
this.items = [];
}
}
function cloneAgentItem<T extends AgentInputItem>(item: T): T {
return structuredClone(item);
}
const agent = new Agent({
name: 'MemoryDemo',
instructions: 'Remember the running total.',
});
// Using the above custom memory session implementation here
const session = new CustomMemorySession({
sessionId: 'session-123-4567',
});
const first = await run(agent, 'Add 3 to the total.', { session });
console.log(first.finalOutput);
const second = await run(agent, 'Add 4 more.', { session });
console.log(second.finalOutput);

自定义会话可让您在持久化前对每一轮对话强制执行保留策略、添加加密,或附加元数据。


控制历史记录与新条目的合并方式

Section titled “控制历史记录与新条目的合并方式”

当您将 AgentInputItem 数组作为运行输入传入时,可提供 sessionInputCallback,以确定性方式将其与已存储历史合并。runner 会加载现有历史,在模型调用之前调用您的回调,并将返回的数组作为该轮完整输入交给模型。这个钩子非常适合裁剪旧条目、去重工具结果,或只突出您希望模型看到的上下文。

使用 sessionInputCallback 截断历史记录
import { Agent, OpenAIConversationsSession, run } from '@openai/agents';
import type { AgentInputItem } from '@openai/agents-core';
const agent = new Agent({
name: 'Planner',
instructions: 'Track outstanding tasks before responding.',
});
// Any Session implementation can be passed here; customize storage as needed.
const session = new OpenAIConversationsSession();
const todoUpdate: AgentInputItem[] = [
{
type: 'message',
role: 'user',
content: [
{ type: 'input_text', text: 'Add booking a hotel to my todo list.' },
],
},
];
await run(agent, todoUpdate, {
session,
// function that combines session history with new input items before the model call
sessionInputCallback: (history, newItems) => {
const recentHistory = history.slice(-8);
return [...recentHistory, ...newItems];
},
});

对于字符串输入,runner 会自动合并历史,因此该回调是可选的。该回调仅在您的轮次输入已经是条目数组时才会运行。

如果您还在使用 conversationIdpreviousResponseId,请确保回调结果中至少保留当前轮次的一个新条目。这些服务器托管 API 依赖于当前轮次的增量。如果回调丢弃了所有新条目,SDK 会恢复原始的新输入并记录警告,而不是发送空增量。


人工干预流程通常会暂停一次运行以等待审批:

使用同一会话恢复运行
import { Agent, MemorySession, Runner } from '@openai/agents';
const agent = new Agent({
name: 'Trip Planner',
instructions: 'Plan trips and ask for approval before booking anything.',
});
const runner = new Runner();
const session = new MemorySession();
const result = await runner.run(agent, 'Search the itinerary', {
session,
});
if (result.interruptions?.length) {
// ... collect user feedback, then resume the agent in a later turn.
for (const interruption of result.interruptions) {
result.state.approve(interruption);
}
const continuation = await runner.run(agent, result.state, { session });
console.log(continuation.finalOutput);
}

当您从先前的 RunState 恢复时,新轮次会被追加到同一份内存记录中,以保持单一对话历史。Human-in-the-loop(HITL)流程仍然完全兼容——审批检查点仍会通过 RunState 往返传递,而会话会保持对话历史完整。


自动压缩 OpenAI Responses 历史记录

Section titled “自动压缩 OpenAI Responses 历史记录”

OpenAIResponsesCompactionSession 可装饰任意 Session,并使用 OpenAI Responses API 将较长的已存储历史替换为更短但等效的对话条目列表。在每次轮次被持久化后,runner 会将最新的 responseId 传入 runCompaction,当您的决策钩子返回 true 时,它会调用 responses.compact。根据 compactionMode,请求会基于最新的 Responses API 链构建,或基于会话当前条目构建。默认触发条件是在累计至少 10 个非用户条目后执行压缩;您也可以覆盖 shouldTriggerCompaction,基于 token 数量或自定义启发式规则来决定。压缩返回后,装饰器会清空底层会话,并用压缩后的条目列表重写,因此应避免将其与 OpenAIConversationsSession 搭配使用,因为后者采用的是不同的服务器托管历史流程。

使用 OpenAIResponsesCompactionSession 装饰会话
import {
Agent,
MemorySession,
OpenAIResponsesCompactionSession,
run,
} from '@openai/agents';
const agent = new Agent({
name: 'Support',
instructions: 'Answer briefly and keep track of prior context.',
model: 'gpt-5.4',
});
// Wrap any Session to trigger responses.compact once history grows beyond your threshold.
const session = new OpenAIResponsesCompactionSession({
// You can pass any Session implementation except OpenAIConversationsSession
underlyingSession: new MemorySession(),
// (optional) The model used for calling responses.compact API
model: 'gpt-5.4',
// (optional) your custom logic here
shouldTriggerCompaction: ({ compactionCandidateItems }) => {
return compactionCandidateItems.length >= 12;
},
});
await run(agent, 'Summarize order #8472 in one sentence.', { session });
await run(agent, 'Remind me of the shipping address.', { session });
// Compaction runs automatically after each persisted turn. You can also force it manually.
await session.runCompaction({ force: true });

OpenAIResponsesCompactionSession 构造函数选项:

OptionTypeNotes
clientOpenAI用于 responses.compact 的 OpenAI 客户端。
underlyingSessionSession用于清空/重写压缩后条目的底层会话存储。默认使用一个面向演示的内存会话,且不能是 OpenAIConversationsSession
modelOpenAI.ResponsesModel用于压缩请求的模型。默认使用 SDK 当前默认的 OpenAI 模型。
compactionMode'auto' | 'previous_response_id' | 'input'控制压缩是使用服务器响应链,还是本地输入条目。
shouldTriggerCompaction(context) => boolean | Promise<boolean>基于 responseIdcompactionMode、候选条目和当前会话条目的自定义触发钩子。

compactionMode: 'previous_response_id' 适用于您已经在使用 Responses API 的 response ID 串联多个轮次时。compactionMode: 'input' 则会改为基于当前会话条目重建压缩请求,这在响应链不可用,或您希望让底层会话内容成为事实来源时非常有用。

runCompaction(args) 选项:

OptionTypeNotes
responseIdstringprevious_response_id 模式下使用的最新 Responses API response id。
compactionMode'auto' | 'previous_response_id' | 'input'对已配置模式的可选单次调用覆盖。
storeboolean指示上一次运行是否存储了服务器状态。
forceboolean绕过 shouldTriggerCompaction 并立即压缩。

压缩会清空并重写底层会话,因此 SDK 会在流式运行解析完成前等待它结束。如果压缩较重,result.completed 可能会在最后一个输出 token 之后继续等待几秒。若要实现低延迟流式传输或更快的轮次切换,请禁用自动压缩,并在轮次之间(或空闲时)自行调用 runCompaction

禁用自动压缩并在轮次之间执行压缩
import {
Agent,
MemorySession,
OpenAIResponsesCompactionSession,
run,
} from '@openai/agents';
const agent = new Agent({
name: 'Support',
instructions: 'Answer briefly and keep track of prior context.',
model: 'gpt-5.4',
});
// Disable auto-compaction to avoid delaying stream completion.
const session = new OpenAIResponsesCompactionSession({
underlyingSession: new MemorySession(),
shouldTriggerCompaction: () => false,
});
const result = await run(agent, 'Share the latest ticket update.', {
session,
stream: true,
});
// Wait for the streaming run to finish before compacting.
await result.completed;
// Choose force based on your own thresholds or heuristics, between turns or during idle time.
await session.runCompaction({ force: true });

您可以随时调用 runCompaction({ force: true }),在归档或交接前压缩历史。启用 DEBUG=openai-agents:openai:compaction 调试日志可追踪压缩决策。