コンテンツにスキップ

トレーシング

Agents SDK には組み込みのトレーシングが含まれており、エージェント実行中のイベント( LLM の生成、ツール呼び出し、ハンドオフ、ガードレール、さらには発生したカスタムイベントまで)を包括的に記録します。Traces ダッシュボード を使用すると、開発中および本番環境でワークフローのデバッグ、可視化、監視ができます。

Note

トレーシングはデフォルトで有効です。トレーシングを無効化する方法は 2 つあります。

  1. env var OPENAI_AGENTS_DISABLE_TRACING=1 を設定して、グローバルにトレーシングを無効化できます
  2. agents.run.RunConfig.tracing_disabledTrue に設定して、単一の実行に対してトレーシングを無効化できます

OpenAI の API を使用し、 Zero Data Retention (ZDR) ポリシーの下で運用している組織では、トレーシングは利用できません。

トレースとスパン

  • Traces は「ワークフロー」の 1 回のエンドツーエンドの操作を表します。これは Spans で構成されます。 Traces には次のプロパティがあります:
    • workflow_name: 論理的なワークフローまたはアプリです。たとえば「 Code generation」や「 Customer service」などです。
    • trace_id: トレースの一意な ID です。渡さない場合は自動生成されます。形式は trace_<32_alphanumeric> である必要があります。
    • group_id: オプションのグループ ID で、同じ会話からの複数のトレースを関連付けます。たとえば、チャットスレッド ID を使うことができます。
    • disabled: True の場合、トレースは記録されません。
    • metadata: トレース用のオプションのメタデータです。
  • Spans は開始時刻と終了時刻を持つ操作を表します。 Spans には次が含まれます:
    • started_atended_at のタイムスタンプ。
    • 所属するトレースを表す trace_id
    • この Span の親 Span を指す parent_id(存在する場合)
    • Span に関する情報である span_data。たとえば AgentSpanData には Agent に関する情報が含まれ、 GenerationSpanData には LLM 生成に関する情報が含まれます。

デフォルトのトレーシング

デフォルトでは、 SDK は次をトレースします:

  • Runner.{run, run_sync, run_streamed}() 全体は trace() でラップされます。
  • エージェントが実行されるたびに agent_span() でラップされます
  • LLM の生成は generation_span() でラップされます
  • 関数ツール呼び出しはそれぞれ function_span() でラップされます
  • ガードレールは guardrail_span() でラップされます
  • ハンドオフは handoff_span() でラップされます
  • 音声入力( speech-to-text )は transcription_span() でラップされます
  • 音声出力( text-to-speech )は speech_span() でラップされます
  • 関連する音声スパンは speech_group_span() の配下(親子関係)になる場合があります

デフォルトでは、トレース名は「 Agent workflow」です。 trace を使用する場合にこの名前を設定でき、また RunConfig で名前やその他のプロパティを設定できます。

加えて、(置き換え先、または二次送信先として)トレースを別の宛先へ送るために、カスタムトレースプロセッサー を設定できます。

高レベルのトレース

場合によっては、 run() の複数回の呼び出しを 1 つのトレースに含めたいことがあります。これは、コード全体を trace() でラップすることで実現できます。

from agents import Agent, Runner, trace

async def main():
    agent = Agent(name="Joke generator", instructions="Tell funny jokes.")

    with trace("Joke workflow"): # (1)!
        first_result = await Runner.run(agent, "Tell me a joke")
        second_result = await Runner.run(agent, f"Rate this joke: {first_result.final_output}")
        print(f"Joke: {first_result.final_output}")
        print(f"Rating: {second_result.final_output}")
  1. Runner.run の 2 回の呼び出しが with trace() でラップされているため、個々の実行は 2 つのトレースを作るのではなく、全体のトレースの一部になります。

トレースの作成

trace() 関数を使ってトレースを作成できます。トレースは開始と終了が必要です。方法は 2 つあります:

  1. 推奨: トレースをコンテキストマネージャーとして使用します。例: with trace(...) as my_trace。これにより、適切なタイミングでトレースが自動的に開始・終了します。
  2. trace.start()trace.finish() を手動で呼ぶこともできます。

現在のトレースは Python の contextvar によって追跡されます。つまり、並行処理でも自動的に動作します。トレースの開始/終了を手動で行う場合、現在のトレースを更新するために start() / finish()mark_as_currentreset_current を渡す必要があります。

スパンの作成

各種 *_span() メソッドを使用してスパンを作成できます。一般に、スパンを手動で作成する必要はありません。カスタムのスパン情報を追跡するために custom_span() 関数が利用できます。

スパンは自動的に現在のトレースの一部となり、 Python の contextvar によって追跡される、最も近い現在のスパンの配下(ネスト)になります。

機微データ

一部のスパンは、機微データとなり得る情報を取得する場合があります。

generation_span() は LLM 生成の入力/出力を保存し、 function_span() は関数呼び出しの入力/出力を保存します。これらには機微データが含まれる可能性があるため、RunConfig.trace_include_sensitive_data により、それらのデータ取得を無効化できます。

同様に、音声スパンにはデフォルトで入力および出力音声の base64 エンコードされた PCM データが含まれます。VoicePipelineConfig.trace_include_sensitive_audio_data を設定して、この音声データの取得を無効化できます。

デフォルトでは、trace_include_sensitive_dataTrue です。アプリを実行する前に環境変数 OPENAI_AGENTS_TRACE_INCLUDE_SENSITIVE_DATAtrue/1 または false/0 にエクスポートすることで、コードなしでデフォルトを設定できます。

カスタムトレースプロセッサー

トレーシングの高レベルのアーキテクチャは次のとおりです:

  • 初期化時に、トレースを作成する責務を持つグローバルな TraceProvider を作成します。
  • TraceProviderBatchTraceProcessor で設定し、トレース/スパンをバッチで BackendSpanExporter に送信します。これにより、スパンとトレースがバッチで OpenAI バックエンドへエクスポートされます。

このデフォルト設定をカスタマイズして、別のバックエンドへの送信(代替または追加)や、 exporter の挙動を変更するには 2 つの方法があります:

  1. add_trace_processor() では、準備ができたトレースとスパンを受け取る 追加の トレースプロセッサーを追加できます。これにより、 OpenAI のバックエンドへ送ることに加えて、独自の処理を行えます。
  2. set_trace_processors() では、デフォルトのプロセッサーを独自のトレースプロセッサーで 置き換え できます。つまり、送信を行う TracingProcessor を含めない限り、トレースは OpenAI バックエンドへ送信されません。

Non-OpenAI Models でのトレーシング

OpenAI の API キーを Non-OpenAI Models とともに使用することで、トレーシングを無効化することなく、 OpenAI Traces ダッシュボードで無料のトレーシングを有効化できます。

import os
from agents import set_tracing_export_api_key, Agent, Runner
from agents.extensions.models.litellm_model import LitellmModel

tracing_api_key = os.environ["OPENAI_API_KEY"]
set_tracing_export_api_key(tracing_api_key)

model = LitellmModel(
    model="your-model-name",
    api_key="your-api-key",
)

agent = Agent(
    name="Assistant",
    model=model,
)

単一の実行に対してのみ別のトレーシングキーが必要な場合は、グローバルな exporter を変更する代わりに RunConfig 経由で渡してください。

from agents import Runner, RunConfig

await Runner.run(
    agent,
    input="Hello",
    run_config=RunConfig(tracing={"api_key": "sk-tracing-123"}),
)

注意事項

  • Openai Traces ダッシュボードで無料のトレースを表示できます。

外部トレースプロセッサー一覧