AI SDK で任意モデルを指定
初期状態で Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルと連携します。ただし別のモデルを使用したい場合は、Vercel’s AI SDK が対応する多様なモデルを提供しており、このアダプター経由で Agents SDK に組み込むことができます。
セットアップ
Section titled “セットアップ”-
拡張パッケージをインストールして AI SDK アダプターを追加します:
Terminal window npm install @openai/agents-extensions -
Vercel’s AI SDK から使用したいモデルパッケージを選択してインストールします:
Terminal window npm install @ai-sdk/openai -
エージェントに接続するため、アダプターとモデルをインポートします:
import { openai } from '@ai-sdk/openai';import { aisdk } from '@openai/agents-extensions'; -
エージェントが使用するモデルのインスタンスを初期化します:
const model = aisdk(openai('o4-mini'));
import { Agent, run } from '@openai/agents';
// Import the model package you installedimport { openai } from '@ai-sdk/openai';
// Import the adapterimport { aisdk } from '@openai/agents-extensions';
// Create a model instance to be used by the agentconst model = aisdk(openai('o4-mini'));
// Create an agent with the modelconst agent = new Agent({ name: 'My Agent', instructions: 'You are a helpful assistant.', model,});
// Run the agent with the new modelrun(agent, 'What is the capital of Germany?');
プロバイダーメタデータの渡し方
Section titled “プロバイダーメタデータの渡し方”メッセージにプロバイダー固有のオプションを設定したい場合は、providerMetadata
にその値を直接指定します。例えば Agents SDK で
providerData: { anthropic: { cacheControl: { type: 'ephemeral'; } }}
と指定していた場合、AI SDK 連携では次のようになります。
providerMetadata: { anthropic: { cacheControl: { type: 'ephemeral'; } }}