AI SDK で任意モデルを指定
Agents SDK は標準で Responses API や Chat Completions API を介して OpenAI モデルと連携します。ただし、別のモデルを使用したい場合は、Vercel の AI SDK が提供する幅広い対応モデルを、このアダプターを通じて Agents SDK に取り込むことができます。
セットアップ
Section titled “セットアップ”-
拡張機能パッケージをインストールして AI SDK アダプターを導入します:
Terminal window npm install @openai/agents-extensions -
Vercel の AI SDK から使用したいモデルのパッケージを選び、インストールします:
Terminal window npm install @ai-sdk/openai -
アダプターとモデルをインポートしてエージェントに接続します:
import { openai } from '@ai-sdk/openai';import { aisdk } from '@openai/agents-extensions/ai-sdk'; -
エージェントで使用するモデルのインスタンスを初期化します:
const model = aisdk(openai('gpt-5-mini'));
import { Agent, run } from '@openai/agents';
// Import the model package you installedimport { openai } from '@ai-sdk/openai';
// Import the adapterimport { aisdk } from '@openai/agents-extensions';
// Create a model instance to be used by the agentconst model = aisdk(openai('gpt-5-mini'));
// Create an agent with the modelconst agent = new Agent({ name: 'My Agent', instructions: 'You are a helpful assistant.', model,});
// Run the agent with the new modelrun(agent, 'What is the capital of Germany?');プロバイダー メタデータの受け渡し
Section titled “プロバイダー メタデータの受け渡し”メッセージにプロバイダー固有のオプションを送る必要がある場合は、providerMetadata を通して渡します。値は基盤となる AI SDK モデルにそのまま転送されます。たとえば、Agents SDK で次の providerData
providerData: { anthropic: { cacheControl: { type: 'ephemeral'; } }}は、AI SDK 連携を使用する場合は次のようになります
providerMetadata: { anthropic: { cacheControl: { type: 'ephemeral'; } }}AI SDK UI ストリーム ヘルパー
Section titled “AI SDK UI ストリーム ヘルパー”@openai/agents-extensions/ai-sdk-ui は、Agents SDK のストリームを AI SDK UI ルートに接続するためのレスポンスヘルパーを提供します:
createAiSdkTextStreamResponse(source, options?): プレーンテキストのストリーミングレスポンスcreateAiSdkUiMessageStreamResponse(source, options?):UIMessageChunkのストリーミングレスポンス
どちらのヘルパーも StreamedRunResult、ストリーム互換のソース、または互換ラッパーオブジェクトを受け取り、ストリーミングに適したヘッダー付きの Response を返します。
エンドツーエンドの使用例については、このリポジトリ内の examples/ai-sdk-ui アプリを参照してください。