Model context protocol (MCP)
Model context protocol (MCP) 标准化了应用如何向语言模型暴露工具和上下文。摘自官方文档:
MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.
Agents Python SDK 支持多种 MCP 传输方式。你可以复用现有的 MCP 服务或自行构建,以向智能体暴露文件系统、HTTP 或基于 connector 的工具。
Choosing an MCP integration
在将 MCP 服务接入智能体前,先确定工具调用应在何处执行,以及可以使用哪些传输方式。下表总结了 Python SDK 支持的选项。
| 你的需求 | 推荐选项 |
|---|---|
| 让 OpenAI 的 Responses API 代表模型调用可公网访问的 MCP 服务 | Hosted MCP server tools,通过 HostedMCPTool |
| 连接你在本地或远程运行的 Streamable HTTP 服务 | Streamable HTTP MCP servers,通过 MCPServerStreamableHttp |
| 与实现了带 Server-Sent Events 的 HTTP 的服务通信 | HTTP with SSE MCP servers,通过 MCPServerSse |
| 启动本地进程并通过 stdin/stdout 通信 | stdio MCP servers,通过 MCPServerStdio |
以下各节将逐一介绍每种选项的配置方法,以及何时优先选择特定传输方式。
1. Hosted MCP server tools
托管工具将整个工具往返流程放入 OpenAI 的基础设施中。你的代码不再负责列举和调用工具,HostedMCPTool 会将服务器标签(以及可选的 connector 元数据)转发给 Responses API。模型会列举远程服务的工具并直接调用,无需额外回调至你的 Python 进程。托管工具目前适用于支持 Responses API 托管 MCP 集成的 OpenAI 模型。
Basic hosted MCP tool
通过在智能体的 tools 列表中添加 HostedMCPTool 来创建托管工具。tool_config 字典与发送至 REST API 的 JSON 相同:
import asyncio
from agents import Agent, HostedMCPTool, Runner
async def main() -> None:
agent = Agent(
name="Assistant",
tools=[
HostedMCPTool(
tool_config={
"type": "mcp",
"server_label": "gitmcp",
"server_url": "https://gitmcp.io/openai/codex",
"require_approval": "never",
}
)
],
)
result = await Runner.run(agent, "Which language is this repository written in?")
print(result.final_output)
asyncio.run(main())
托管服务会自动暴露其工具;你不需要将其添加到 mcp_servers。
Streaming hosted MCP results
托管工具支持与工具调用相同方式的流式传输。向 Runner.run_streamed 传入 stream=True,即可在模型仍在运行时消费增量 MCP 输出:
result = Runner.run_streamed(agent, "Summarise this repository's top languages")
async for event in result.stream_events():
if event.type == "run_item_stream_event":
print(f"Received: {event.item}")
print(result.final_output)
Optional approval flows
如果某个服务可以执行敏感操作,你可以在每次工具执行前要求人工或程序化审批。在 tool_config 中配置 require_approval,可使用单一策略("always"、"never")或将工具名映射到策略的字典。若要在 Python 中做出决策,提供 on_approval_request 回调。
from agents import MCPToolApprovalFunctionResult, MCPToolApprovalRequest
SAFE_TOOLS = {"read_project_metadata"}
def approve_tool(request: MCPToolApprovalRequest) -> MCPToolApprovalFunctionResult:
if request.data.name in SAFE_TOOLS:
return {"approve": True}
return {"approve": False, "reason": "Escalate to a human reviewer"}
agent = Agent(
name="Assistant",
tools=[
HostedMCPTool(
tool_config={
"type": "mcp",
"server_label": "gitmcp",
"server_url": "https://gitmcp.io/openai/codex",
"require_approval": "always",
},
on_approval_request=approve_tool,
)
],
)
回调可以是同步或异步的,并会在模型需要审批数据以继续运行时调用。
Connector-backed hosted servers
托管 MCP 也支持 OpenAI connectors。无需提供 server_url,改为提供 connector_id 和访问令牌。Responses API 负责身份验证,托管服务会暴露该 connector 的工具。
import os
HostedMCPTool(
tool_config={
"type": "mcp",
"server_label": "google_calendar",
"connector_id": "connector_googlecalendar",
"authorization": os.environ["GOOGLE_CALENDAR_AUTHORIZATION"],
"require_approval": "never",
}
)
完整可运行的托管工具示例——包括流式传输、审批和 connectors——见
examples/hosted_mcp。
2. Streamable HTTP MCP servers
当你希望自行管理网络连接时,使用 MCPServerStreamableHttp。当你掌控传输或希望在自有基础设施中运行服务并保持低延迟时,Streamable HTTP 服务非常适合。
import asyncio
import os
from agents import Agent, Runner
from agents.mcp import MCPServerStreamableHttp
from agents.model_settings import ModelSettings
async def main() -> None:
token = os.environ["MCP_SERVER_TOKEN"]
async with MCPServerStreamableHttp(
name="Streamable HTTP Python Server",
params={
"url": "http://localhost:8000/mcp",
"headers": {"Authorization": f"Bearer {token}"},
"timeout": 10,
},
cache_tools_list=True,
max_retry_attempts=3,
) as server:
agent = Agent(
name="Assistant",
instructions="Use the MCP tools to answer the questions.",
mcp_servers=[server],
model_settings=ModelSettings(tool_choice="required"),
)
result = await Runner.run(agent, "Add 7 and 22.")
print(result.final_output)
asyncio.run(main())
构造函数接受以下附加选项:
client_session_timeout_seconds控制 HTTP 读取超时。use_structured_content切换是否优先使用tool_result.structured_content而非文本输出。max_retry_attempts与retry_backoff_seconds_base为list_tools()和call_tool()添加自动重试。tool_filter允许仅暴露工具的子集(参见 Tool filtering)。
3. HTTP with SSE MCP servers
如果 MCP 服务实现了带 SSE 的 HTTP 传输,请实例化 MCPServerSse。除传输方式外,其 API 与 Streamable HTTP 服务相同。
from agents import Agent, Runner
from agents.model_settings import ModelSettings
from agents.mcp import MCPServerSse
workspace_id = "demo-workspace"
async with MCPServerSse(
name="SSE Python Server",
params={
"url": "http://localhost:8000/sse",
"headers": {"X-Workspace": workspace_id},
},
cache_tools_list=True,
) as server:
agent = Agent(
name="Assistant",
mcp_servers=[server],
model_settings=ModelSettings(tool_choice="required"),
)
result = await Runner.run(agent, "What's the weather in Tokyo?")
print(result.final_output)
4. stdio MCP servers
对于作为本地子进程运行的 MCP 服务,使用 MCPServerStdio。SDK 会启动进程、保持管道打开,并在上下文管理器退出时自动关闭。此选项适合快速原型验证,或当服务仅提供命令行入口时使用。
from pathlib import Path
from agents import Agent, Runner
from agents.mcp import MCPServerStdio
current_dir = Path(__file__).parent
samples_dir = current_dir / "sample_files"
async with MCPServerStdio(
name="Filesystem Server via npx",
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", str(samples_dir)],
},
) as server:
agent = Agent(
name="Assistant",
instructions="Use the files in the sample directory to answer questions.",
mcp_servers=[server],
)
result = await Runner.run(agent, "List the files available to you.")
print(result.final_output)
Tool filtering
每个 MCP 服务都支持工具过滤,以便你仅暴露智能体所需的功能。过滤可以在构造时完成,或在每次运行时动态设置。
Static tool filtering
使用 create_static_tool_filter 配置简单的允许/阻止列表:
from pathlib import Path
from agents.mcp import MCPServerStdio, create_static_tool_filter
samples_dir = Path("/path/to/files")
filesystem_server = MCPServerStdio(
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", str(samples_dir)],
},
tool_filter=create_static_tool_filter(allowed_tool_names=["read_file", "write_file"]),
)
当同时提供 allowed_tool_names 和 blocked_tool_names 时,SDK 会先应用允许列表,然后从剩余集合中移除任何被阻止的工具。
Dynamic tool filtering
对于更复杂的逻辑,传入一个可调用对象,它接收 ToolFilterContext。该可调用对象可为同步或异步,当应暴露该工具时返回 True。
from pathlib import Path
from agents.mcp import MCPServerStdio, ToolFilterContext
samples_dir = Path("/path/to/files")
async def context_aware_filter(context: ToolFilterContext, tool) -> bool:
if context.agent.name == "Code Reviewer" and tool.name.startswith("danger_"):
return False
return True
async with MCPServerStdio(
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", str(samples_dir)],
},
tool_filter=context_aware_filter,
) as server:
...
过滤上下文会暴露当前的 run_context、请求工具的 agent,以及 server_name。
Prompts
MCP 服务还可以提供用于动态生成智能体 instructions 的提示。支持提示的服务会暴露两个方法:
list_prompts()枚举可用的提示模板。get_prompt(name, arguments)获取具体提示,可选传入参数。
from agents import Agent
prompt_result = await server.get_prompt(
"generate_code_review_instructions",
{"focus": "security vulnerabilities", "language": "python"},
)
instructions = prompt_result.messages[0].content.text
agent = Agent(
name="Code Reviewer",
instructions=instructions,
mcp_servers=[server],
)
Caching
每次智能体运行都会对每个 MCP 服务调用 list_tools()。远程服务可能带来明显延迟,因此所有 MCP 服务类都暴露了 cache_tools_list 选项。仅当你确信工具定义不经常更改时才将其设为 True。若需之后强制刷新列表,可在服务实例上调用 invalidate_tools_cache()。
追踪
Tracing 会自动捕获 MCP 活动,包括:
- 调用 MCP 服务以列举工具。
- 工具调用中的 MCP 相关信息。

延伸阅读
- Model Context Protocol – 规范与设计指南。
- examples/mcp – 可运行的 stdio、SSE 与 Streamable HTTP 示例。
- examples/hosted_mcp – 完整的托管 MCP 演示,包括审批与 connectors。