コンテンツにスキップ

AI SDK で任意モデルを指定

デフォルトで Agents SDK は Responses API または Chat Completions API を通じて OpenAI モデルを利用できます。別のモデルを使用したい場合は、Vercel の AI SDK がサポートするさまざまなモデルをこのアダプター経由で Agents SDK に取り込むことができます。

  1. extensions パッケージをインストールして AI SDK アダプターを追加します:

    Terminal window
    npm install @openai/agents-extensions
  2. Vercel の AI SDK から目的のモデル パッケージを選択してインストールします:

    Terminal window
    npm install @ai-sdk/openai
  3. アダプターとモデルをインポートし、エージェントに接続します:

    import { openai } from '@ai-sdk/openai';
    import { aisdk } from '@openai/agents-extensions';
  4. エージェントが使用するモデルのインスタンスを初期化します:

    const model = aisdk(openai('o4-mini'));
AI SDK Setup
import { Agent, run } from '@openai/agents';
// Import the model package you installed
import { openai } from '@ai-sdk/openai';
// Import the adapter
import { aisdk } from '@openai/agents-extensions';
// Create a model instance to be used by the agent
const model = aisdk(openai('o4-mini'));
// Create an agent with the model
const agent = new Agent({
name: 'My Agent',
instructions: 'You are a helpful assistant.',
model,
});
// Run the agent with the new model
run(agent, 'What is the capital of Germany?');

プロバイダー メタデータの渡し方

Section titled “プロバイダー メタデータの渡し方”

メッセージと一緒にプロバイダー固有のオプションを送信する必要がある場合は、providerMetadata に渡してください。値はそのまま基盤となる AI SDK モデルに転送されます。たとえば Agents SDK で次の providerData を指定すると

providerData: {
anthropic: {
cacheControl: {
type: 'ephemeral';
}
}
}

AI SDK 連携使用時には

providerMetadata: {
anthropic: {
cacheControl: {
type: 'ephemeral';
}
}
}

のようになります。