跳转到内容

MCP 集成

Model Context Protocol (MCP) 是一种开放协议,用于标准化应用如何向 LLM 提供工具和上下文。MCP 文档中这样写道:

MCP 是一种开放协议,用于标准化应用如何向 LLM 提供上下文。你可以把 MCP 想象成 AI 应用的 USB-C 接口。正如 USB-C 提供了一种将设备连接到各种外设和配件的标准化方式一样,MCP 也提供了一种将 AI 模型连接到不同数据源和工具的标准化方式。

本 SDK 支持三种类型的 MCP 服务器:

  1. 远程 MCP 服务器工具——由 OpenAI Responses API 作为工具使用的远程 MCP 服务器
  2. 可流式 HTTP MCP 服务器——实现了 Streamable HTTP transport 的本地或远程服务器
  3. Stdio MCP 服务器——通过标准输入/输出访问的服务器(最简单的选项)

注意:SDK 还包含用于旧版 Server‑Sent Events 传输的 MCPServerSSE,但 SSE 已被 MCP 项目标记为弃用。对于新的集成,优先选择 Streamable HTTP 或 stdio。

请根据你的用例选择服务器类型:

你需要什么推荐选项
使用默认 OpenAI responses 模型调用可公开访问的远程服务器1. 托管 MCP 工具
使用可公开访问的远程服务器,但在本地触发工具调用2. Streamable HTTP
使用本地运行的 Streamable HTTP 服务器2. Streamable HTTP
对任意 Streamable HTTP 服务器使用非 OpenAI-Responses 模型2. Streamable HTTP
使用仅支持标准输入/输出协议的本地 MCP 服务器3. Stdio

托管工具会将整个往返过程都交给模型处理。你的代码不再直接调用 MCP 服务器,而是由 OpenAI Responses API 调用远程工具端点,并将结果流式返回给模型。

下面是使用托管 MCP 工具的最简单示例。你可以将远程 MCP 服务器的标签和 URL 传给 hostedMcpTool 工具函数,这有助于创建托管 MCP 服务器工具。

hostedAgent.ts
import { Agent, hostedMcpTool } from '@openai/agents';
export const agent = new Agent({
name: 'MCP Assistant',
instructions: 'You must always use the MCP tools to answer questions.',
tools: [
hostedMcpTool({
serverLabel: 'gitmcp',
serverUrl: 'https://gitmcp.io/openai/codex',
}),
],
});

然后,你可以使用 run 函数(或你自定义的 Runner 实例的 run 方法)运行该 Agent:

使用托管 MCP 工具运行
import { run } from '@openai/agents';
import { agent } from './hostedAgent';
async function main() {
const result = await run(
agent,
'Which language is the repo I pointed in the MCP tool settings written in?',
);
console.log(result.finalOutput);
}
main().catch(console.error);

要流式传输增量 MCP 结果,请在运行 Agent 时传入 stream: true

使用托管 MCP 工具运行(流式传输)
import { isOpenAIResponsesRawModelStreamEvent, run } from '@openai/agents';
import { agent } from './hostedAgent';
async function main() {
const result = await run(
agent,
'Which language is the repo I pointed in the MCP tool settings written in?',
{ stream: true },
);
for await (const event of result) {
if (
isOpenAIResponsesRawModelStreamEvent(event) &&
event.data.event.type !== 'response.mcp_call_arguments.delta' &&
event.data.event.type !== 'response.output_text.delta'
) {
console.log(`Got event of type ${JSON.stringify(event.data)}`);
}
}
console.log(`Done streaming; final result: ${result.finalOutput}`);
}
main().catch(console.error);

对于敏感操作,你可以要求人工审批单个工具调用。传入 requireApproval: 'always',或传入一个更细粒度的对象,将工具名映射到 'never'/'always'

如果你可以通过编程方式判断某个工具调用是否安全,可以使用 onApproval 回调 来批准或拒绝该工具调用。如果你需要人工审批,也可以使用与本地函数工具相同的人机协作(HITL)方法,通过 interruptions 实现。

托管 MCP 工具中的人工干预
import { Agent, run, hostedMcpTool, RunToolApprovalItem } from '@openai/agents';
async function main(): Promise<void> {
const agent = new Agent({
name: 'MCP Assistant',
instructions: 'You must always use the MCP tools to answer questions.',
tools: [
hostedMcpTool({
serverLabel: 'gitmcp',
serverUrl: 'https://gitmcp.io/openai/codex',
// 'always' | 'never' | { never, always }
requireApproval: {
never: {
toolNames: ['search_codex_code', 'fetch_codex_documentation'],
},
always: {
toolNames: ['fetch_generic_url_content'],
},
},
}),
],
});
let result = await run(agent, 'Which language is this repo written in?');
while (result.interruptions && result.interruptions.length) {
for (const interruption of result.interruptions) {
// Human in the loop here
const approval = await confirm(interruption);
if (approval) {
result.state.approve(interruption);
} else {
result.state.reject(interruption);
}
}
result = await run(agent, result.state);
}
console.log(result.finalOutput);
}
import { stdin, stdout } from 'node:process';
import * as readline from 'node:readline/promises';
async function confirm(item: RunToolApprovalItem): Promise<boolean> {
const rl = readline.createInterface({ input: stdin, output: stdout });
const name = item.name;
const params = item.arguments;
const answer = await rl.question(
`Approve running tool (mcp: ${name}, params: ${params})? (y/n) `,
);
rl.close();
return answer.toLowerCase().trim() === 'y';
}
main().catch(console.error);

hostedMcpTool(...) 同时支持 MCP 服务器 URL 和基于连接器的服务器:

选项类型说明
serverLabelstring必填标签,用于在事件和追踪中标识托管 MCP 服务器。
serverUrlstring远程 MCP 服务器 URL(常规托管 MCP 服务器使用此项)。
connectorIdstringOpenAI 连接器 id(对于基于连接器的托管服务器,用它替代 serverUrl)。
authorizationstring可选的授权令牌,会发送到托管 MCP 后端。
headersRecord<string, string>可选的额外请求头。
allowedToolsstring[] | object允许向模型暴露的工具名称白名单。可传入 string[]{ toolNames?: string[] }
deferLoadingboolean仅适用于 Responses 的托管 MCP 工具延迟加载。要求同一个智能体中包含 toolSearchTool()
requireApproval'never' | 'always' | object托管 MCP 工具调用的审批策略。使用对象形式可为单个工具覆盖设置。默认为 'never'
onApprovalApproval callbackrequireApproval 需要审批处理时,用于编程方式批准/拒绝的可选回调。

当你希望模型通过工具搜索按需加载托管 MCP 服务器的工具定义,而不是一开始就全部暴露出来时,可设置 deferLoading: true。这仅适用于 OpenAI Responses API,要求同一请求中包含 toolSearchTool(),并且应配合 GPT-5.4 及更新的受支持模型版本使用。完整的延迟加载设置请参见工具指南。

requireApproval 的对象形式:

{
always?: { toolNames: string[] };
never?: { toolNames: string[] };
}

onApproval 签名:

async function onApproval(
context,
item,
): Promise<{
approve: boolean;
reason?: string;
}> {}

托管 MCP 也支持 OpenAI 连接器。你无需提供 serverUrl,而是传入连接器的 connectorIdauthorization 令牌。随后,Responses API 会处理身份验证,并通过托管 MCP 接口暴露连接器的工具。

基于连接器的托管 MCP 工具
import { Agent, hostedMcpTool } from '@openai/agents';
const authorization = process.env.GOOGLE_CALENDAR_AUTHORIZATION!;
export const connectorAgent = new Agent({
name: 'Calendar Assistant',
instructions:
"You are a helpful assistant that can answer questions about the user's calendar.",
tools: [
hostedMcpTool({
serverLabel: 'google_calendar',
connectorId: 'connector_googlecalendar',
authorization,
requireApproval: 'never',
}),
],
});

在这个示例中,GOOGLE_CALENDAR_AUTHORIZATION 环境变量保存了从 Google OAuth Playground 获取的 OAuth 令牌,该令牌授权基于连接器的服务器调用 Calendar API。若需查看同时演示流式传输的可运行示例,请参见 examples/connectors

完整可运行的示例(托管工具/Streamable HTTP/stdio + 流式传输、HITL、onApproval)位于我们的 GitHub 仓库中的 examples/mcp

当你的 Agent 直接与 Streamable HTTP MCP 服务器(本地或远程)通信时,可使用服务器的 urlname 以及任意可选设置来实例化 MCPServerStreamableHttp

使用 Streamable HTTP MCP 服务器运行
import { Agent, run, MCPServerStreamableHttp } from '@openai/agents';
async function main() {
const mcpServer = new MCPServerStreamableHttp({
url: 'https://gitmcp.io/openai/codex',
name: 'GitMCP Documentation Server',
});
const agent = new Agent({
name: 'GitMCP Assistant',
instructions: 'Use the tools to respond to user requests.',
mcpServers: [mcpServer],
});
try {
await mcpServer.connect();
const result = await run(agent, 'Which language is this repo written in?');
console.log(result.finalOutput);
} finally {
await mcpServer.close();
}
}
main().catch(console.error);

构造函数选项:

选项类型说明
urlstringStreamable HTTP 服务器 URL。
namestring服务器的可选标签。
cacheToolsListboolean缓存工具列表以降低延迟。
clientSessionTimeoutSecondsnumberMCP 客户端会话超时时间。
toolFilterMCPToolFilterCallable | MCPToolFilterStatic过滤可用工具。
toolMetaResolverMCPToolMetaResolver为每次调用注入 MCP _meta 请求字段。
errorFunctionMCPToolErrorFunction | null将 MCP 调用失败映射为模型可见文本。
timeoutnumber每个请求的超时时间(毫秒)。
loggerLogger自定义日志记录器。
authProviderOAuthClientProvider来自 MCP TypeScript SDK 的 OAuth 提供方。
requestInitRequestInit请求的 fetch 初始化选项。
fetchFetchLike自定义 fetch 实现。
reconnectionOptionsStreamableHTTPReconnectionOptions重连调优选项。
sessionIdstring用于 MCP 连接的显式会话 id。

构造函数还接受其他 MCP TypeScript‑SDK 选项,例如 authProviderrequestInitfetchreconnectionOptionssessionId。详情请参阅 MCP TypeScript SDK 仓库及其文档。

对于仅通过标准输入/输出公开的服务器,可使用 fullCommand 来实例化 MCPServerStdio

使用 Stdio MCP 服务器运行
import { Agent, run, MCPServerStdio } from '@openai/agents';
import * as path from 'node:path';
async function main() {
const samplesDir = path.join(__dirname, 'sample_files');
const mcpServer = new MCPServerStdio({
name: 'Filesystem MCP Server, via local package',
fullCommand: `pnpm exec mcp-server-filesystem ${samplesDir}`,
});
await mcpServer.connect();
try {
const agent = new Agent({
name: 'FS MCP Assistant',
instructions:
'Use the tools to read the filesystem and answer questions based on those files. If you are unable to find any files, you can say so instead of assuming they exist.',
mcpServers: [mcpServer],
});
const result = await run(agent, 'Read the files and list them.');
console.log(result.finalOutput);
} finally {
await mcpServer.close();
}
}
main().catch(console.error);

构造函数选项:

选项类型说明
command / argsstring / string[]stdio 服务器的命令及参数。
fullCommandstringcommand + args 的完整命令字符串替代形式。
envRecord<string, string>服务器进程的环境变量。
cwdstring服务器进程的工作目录。
cacheToolsListboolean缓存工具列表以降低延迟。
clientSessionTimeoutSecondsnumberMCP 客户端会话超时时间。
namestring服务器的可选标签。
encodingstringstdio 流的编码。
encodingErrorHandler'strict' | 'ignore' | 'replace'编码错误处理策略。
toolFilterMCPToolFilterCallable | MCPToolFilterStatic过滤可用工具。
toolMetaResolverMCPToolMetaResolver为每次调用注入 MCP _meta 请求字段。
errorFunctionMCPToolErrorFunction | null将 MCP 调用失败映射为模型可见文本。
timeoutnumber每个请求的超时时间(毫秒)。
loggerLogger自定义日志记录器。

当你使用多个 MCP 服务器时,可以使用 connectMcpServers 将它们统一连接、跟踪失败情况,并在一个地方关闭它们。该辅助函数会返回一个 MCPServers 实例,其中包含 activefailederrors 集合,这样你就可以只将健康的服务器传给智能体。

管理多个 MCP 服务器
import {
Agent,
MCPServerStreamableHttp,
connectMcpServers,
run,
} from '@openai/agents';
async function main() {
const servers = [
new MCPServerStreamableHttp({
url: 'https://mcp.deepwiki.com/mcp',
name: 'DeepWiki MCP Server',
}),
new MCPServerStreamableHttp({
url: 'http://localhost:8001/mcp',
name: 'Local MCP Server',
}),
];
const mcpServers = await connectMcpServers(servers, {
connectInParallel: true,
});
try {
console.log(`Active servers: ${mcpServers.active.length}`);
console.log(`Failed servers: ${mcpServers.failed.length}`);
for (const [server, error] of mcpServers.errors) {
console.warn(`${server.name} failed to connect: ${error.message}`);
}
const agent = new Agent({
name: 'MCP lifecycle agent',
instructions: 'Use MCP tools to answer user questions.',
mcpServers: mcpServers.active,
});
const result = await run(
agent,
'Which language is the openai/codex repository written in?',
);
console.log(result.finalOutput);
} finally {
await mcpServers.close();
}
}
main().catch(console.error);

用例:

  • 同时使用多个服务器:并行连接所有服务器,并将 mcpServers.active 用于智能体。
  • 部分失败处理:检查 failederrors,并决定是继续还是重试。
  • 重试失败服务器:调用 mcpServers.reconnect()(默认仅重试失败的服务器)。

如果你需要严格的“全有或全无”连接方式,或需要不同的超时设置,可使用 connectMcpServers(servers, options),并根据你的环境调整选项。

connectMcpServers 选项:

选项类型默认值说明
connectTimeoutMsnumber | null10000每个服务器 connect() 的超时时间。使用 null 可禁用。
closeTimeoutMsnumber | null10000每个服务器 close() 的超时时间。使用 null 可禁用。
dropFailedbooleantrueactive 中排除失败的服务器。
strictbooleanfalse如果任一服务器连接失败则抛出错误。
suppressAbortErrorbooleantrue忽略类似 abort 的错误,同时仍跟踪失败的服务器。
connectInParallelbooleanfalse并发连接所有服务器,而不是按顺序连接。

mcpServers.reconnect(options) 支持:

选项类型默认值说明
failedOnlybooleantrue仅重试失败的服务器(true)或重连所有服务器(false)。

如果你的运行时支持 Symbol.asyncDisposeMCPServers 也支持 await using 模式。在 TypeScript 中,请在 tsconfig.json 里启用 esnext.disposable

{
"compilerOptions": {
"lib": ["ES2018", "DOM", "esnext.disposable"]
}
}

然后你可以这样写:

await using mcpServers = await connectMcpServers(servers);

对于 Streamable HTTPStdio 服务器,每次 Agent 运行时都可能调用 list_tools() 来发现可用工具。由于这一往返过程可能增加延迟——特别是在远程服务器场景下——你可以在 MCPServerStdioMCPServerStreamableHttp 中传入 cacheToolsList: true,将结果缓存在内存中。

只有在你确信工具列表不会变化时,才应启用此功能。若之后要使缓存失效,可在服务器实例上调用 invalidateToolsCache()。如果你通过 getAllMcpTools(...) 使用共享的 MCP 工具缓存,也可以通过服务器名称调用 invalidateServerToolsCache(serverName) 使缓存失效。

对于高级用法,getAllMcpTools({ generateMCPToolCacheKey }) 允许你自定义缓存分区方式(例如按服务器 + 智能体 + 运行上下文划分)。

你可以通过传入静态过滤器 createMCPToolStaticFilter 或自定义函数,限制每个服务器暴露哪些工具。下面是一个同时展示两种方式的组合示例:

工具过滤
import {
MCPServerStdio,
MCPServerStreamableHttp,
createMCPToolStaticFilter,
MCPToolFilterContext,
} from '@openai/agents';
interface ToolFilterContext {
allowAll: boolean;
}
const server = new MCPServerStdio({
fullCommand: 'my-server',
toolFilter: createMCPToolStaticFilter({
allowed: ['safe_tool'],
blocked: ['danger_tool'],
}),
});
const dynamicServer = new MCPServerStreamableHttp({
url: 'http://localhost:3000',
toolFilter: async ({ runContext }: MCPToolFilterContext, tool) =>
(runContext.context as ToolFilterContext).allowAll || tool.name !== 'admin',
});