ClaudeコードのリモートアナリティクスAPIを完全解説!Enterprise導入で生産性が劇的に変わる理由

Claude

「チームで何十人もClaude Codeを使っているのに、誰がどれだけ使っているのか、コストはいくらかかっているのか、さっぱり把握できていない…」そんな悩みを抱えているエンジニアリングマネージャーや情報システム部門の担当者は多いはずです。AIツールを導入したはいいものの、ブラックボックスのまま運用しているのは、費用対効果の観点でもセキュリティの観点でも非常にリスクが高い状態です。

2026年に入ってAnthropicが本格的に整備を進めているClaude Code用のアナリティクスAPIとリモート監視機能は、その問題をまるごと解決するポテンシャルを持っています。この記事では、エンタープライズ向けアナリティクスAPI・AdminAPI・OpenTelemetry連携という3つのアプローチを徹底的に比較・解説しながら、現場で本当に使えるモニタリング基盤の作り方を紹介します。

ここがポイント!
  • エンタープライズアナリティクスAPIは2026年1月以降のデータを1日単位で集計し、ユーザーごとのコミット数やコード行数まで取得できる強力なAPI。
  • OpenTelemetryを使えば管理者が設定ファイルを配布するだけで、社員が何もしなくても全員の利用データを自動収集できる仕組みが構築可能。
  • AdminAPIのClaude Code Analytics APIはリアルタイム(1時間遅延)でコスト・生産性メトリクスを取得でき、BigQueryやGrafanaとの連携で社内ダッシュボードが即実現できる。

なぜ今、Claude Codeの利用ログ管理が急務なのか?

AIのイメージ

AIのイメージ

ZOZOが2025年7月にスタートした「1人あたり月額200ドルのAI開発ツール利用制度」は国内でも話題になりましたが、この制度によって数百名の社員がClaude Codeを使い始めると、すぐに深刻な課題に直面しました。誰がどれだけ使っているかを把握するために最初はccusageというツールを試みたものの、数百人規模では各社員からの手動収集が現実的ではなかったのです。この経験から学べることは、組織のAI活用を推進するためにはモニタリング基盤の整備が不可欠だということです。

AIツールの利用管理が難しい理由は単純です。トークン消費は目に見えないし、生産性への貢献も定量化が難しく、気づいたらコストが予算を超えていた、というケースが後を絶ちません。さらにエンタープライズではコンプライアンスの観点から「誰が何をAIに聞いているのか」を把握しなければならないニーズもあります。

Anthropicは2026年初頭からこの問題に正面から向き合い、Enterprise Analytics APIAdmin APIのClaude Code Analytics公式OpenTelemetryサポートという三層の監視機能を整備しました。それぞれ役割と対象ユーザーが異なるため、正しく使い分けることが重要です。

Enterprise Analytics APIの全貌と5つのエンドポイント

Enterprise Analytics APIは、Claude EnterpriseプランのPrimary Ownerが利用できる専用APIで、組織全体のClaude・Claude Code利用状況を1日単位で集計したデータをプログラムから取得できます。すべてのリクエストはx-api-keyヘッダーにread:analyticsスコープを持つAPIキーを付与する形で送信し、ベースURLはAnthropicの組織向けAPIエンドポイントです。

データの可用性には注意点があります。日次の集計はN日分がN+1日の午前10時UTC以降に生成され、さらに3日間の遅延を経てから実際にAPIで取得できるようになります。リアルタイム監視には向いていませんが、週次・月次のトレンド把握やBI連携には十分な精度があります。また、2026年1月1日以前のデータは存在しないという制約も覚えておきましょう。

このAPIが提供する5つのエンドポイントを一覧で確認しておきましょう。

エンドポイント 取得できる情報 特徴
/analytics/users ユーザーごとのエンゲージメント指標 1日指定、デフォルト20件ページネーション
/analytics/summaries 組織全体のDAU/WAU/MAU・シート利用状況 最大31日間の日次集計、席数と招待保留も確認可
/analytics/apps/chat/projects チャットプロジェクトごとの利用状況 プロジェクト名・ユニークユーザー数・会話数を一括取得
/analytics/skills スキルごとの利用状況 チャット・Claude Code両方のセッションをカバー
/analytics/connectors MCPコネクタごとの利用状況 名前の正規化あり(atlassian系は統一表記)

特に注目すべきは/analytics/usersエンドポイントです。ここでは1ユーザーあたりのgitコミット数・プルリクエスト数・追加/削除したコード行数・セッション数に加え、EditツールやWrite ツールの承認・却下カウントまで取得できます。これは単なるコスト管理ではなく、エンジニアの生産性そのものを数値化できるという点で画期的です。さらにweb_search_countはclaud.aiとClaude Code両方を合算してカウントされるため、ウェブ検索ツールの利用実態も把握できます。

AdminAPIのClaude Code Analytics APIとの違いと使い分け

混乱しやすいのが、EnterpriseアナリティクスAPIとAdminAPI配下のClaude Code Analytics APIの違いです。どちらもClaude Codeのデータを扱いますが、設計思想がまったく異なります。

AdminAPIのClaude Code Analytics APIはsk-ant-admin…で始まるAdminAPIキーが必要で、エンドポイントは/v1/organizations/usage_report/claude_codeです。このAPIの最大の特徴はデータ遅延が約1時間と短く、APIキー経由でもOAuth認証経由でもユーザーを特定できる点です。コストデータ(cost_usdフィールド)も含まれており、各ユーザーに最適なプランをアナウンスする用途に適しています。ZOZOの事例でも、このフィールドを活用してAPI従量課金からMaxプランへの移行判断を自動化しています。

一方でEnterpriseアナリティクスAPIはエンゲージメント重視の設計で、会話数・アーティファクト作成数・スキル利用数といった採用状況の定性的な把握に強みがあります。BIツールや社内ダッシュボードに組み込んでClaude活用の浸透度を可視化するなら、こちらが適切です。

また、Amazon Bedrock経由でClaude Codeを利用している場合、EnterpriseアナリティクスAPIにはClause Codeのデータが返ってこない点も注意が必要です。Bedrockユーザーは各プラットフォームのデータ保持ポリシーに従って監視体制を構築する必要があります。

OpenTelemetryで社員が何もしなくてもログを集める方法

数百名規模の組織でもっとも効果的なアプローチはOpenTelemetry(OTel)を活用した自動収集です。Claude CodeはネイティブでOTLPプロトコルをサポートしており、設定ファイル1つで全社員の利用データを自動的に任意のバックエンドへ送信できます。

基本的な設定は環境変数で行います。CLAUDE_CODE_ENABLE_TELEMETRY=1を有効化し、OTELメトリクスとログのエクスポーターをotlpに設定した上で、自社のコレクターエンドポイントを指定するだけです。重要なのは、この設定をManaged Settings(管理設定ファイル)として配布することで、個々の社員が何も操作しなくても組織全体に設定を適用できる点です。

ZOZOはMDMツール(Intune)を活用してこの設定ファイルを全社員のマシンに自動配布しました。Managed SettingsはClaude Codeの設定の中で最も優先順位が高いため、個人設定が上書きされることもありません。設定ファイルの構造は公式ドキュメントに従い、認証トークンと受信サーバーのエンドポイントを埋め込む形が一般的です。

OTelで取得できるデータは大きく「メトリクス」と「イベント」の2種類です。メトリクスはトークン使用量・コスト・セッション数などの累積カウンターで、イベントはAPIリクエスト・ツール実行・プロンプト送信などの個別アクションのスナップショットです。プロンプトの本文はデフォルトでは収集されませんが、ファイルパスやBashコマンドはtool_parametersフィールドに含まれる場合があるため、センシティブな環境ではテレメトリバックエンド側でのフィルタリング設定を検討する必要があります。

収集したデータの可視化には、GrafanaとPrometheus・OpenTelemetry Collectorの組み合わせが現時点でのデファクトスタンダードになりつつあります。GrafanaのプラグインマーケットプレイスにはClaude Code専用の「Claude Code Stats」プラグインも公開されており、ワンクリックでチームのOTelデータを可視化できます。ZOZOはGoogle Cloud上のCloud RunにOSSのOpenTelemetry Collectorを展開し、Cloud Logging経由でBigQueryに格納するアーキテクチャを採用しました。この構成により、既存のBigQuery分析基盤と組み合わせて「どの部署がClaude Codeをよく使っているか」を組織図データと突合せて分析しています。

Remote Controlと組み合わせることで何が変わるのか?

2026年2月24日にリサーチプレビューとして公開されたRemote Control機能は、ローカルマシンで動作中のClaude CodeセッションをiPhoneやAndroid、ブラウザから遠隔操作できる機能です。現時点でMaxプラン限定ですが、近いうちにProプランへの展開も予定されています。

この機能がアナリティクス管理と組み合わさることで、新たな運用シナリオが生まれます。たとえば、CI環境で自動実行されているClaude Codeのバッチ処理をスマートフォンからモニタリングし、コスト超過の気配を感じたら即座に介入できるようになります。エンジニアリングマネージャーがオフィス外からチームのClaude Code稼働状況を確認し、使いすぎているメンバーへのアドバイスを即座に行う、という運用も可能になります。

通信はすべてアウトバウンドHTTPS接続で、ローカルマシン側でポートを開放する必要はありません。ネットワーク切断から約10分が経過するとセッションがタイムアウトするため、常時接続が必要な用途ではtmuxやscreen等のセッション永続化ツールと組み合わせて利用するのが現実的です。

ZeroDataRetentionとコンプライアンス要件への対応

エンタープライズでClaude Codeを導入する際、必ず話題になるのが「プロンプトの内容がAnthropicに保存されるのか?」という問いです。この懸念に対するAnthropicの公式回答がZero Data Retention(ZDR)です。

ZDRはClaude for Enterpriseプランで組織単位で有効化できる機能で、Claude Codeのモデル推論に関わるプロンプトとレスポンスがレスポンス返却後にAnthropicに保存されなくなります。ただしZDRを有効化すると、会話データの保存が必要な一部の機能(Auto-Memory等)がバックエンド側で自動的に無効化される点には注意が必要です。金融・医療・官公庁など、データ保持要件が厳しい業界でも導入検討の材料が公式に整備されたことで、エンタープライズ展開のハードルが大きく下がりました。

また、2026年2月以降にリリースされたモデル(Claude Opus 4.6以降)ではinference_geoパラメータによって推論をどの地域で実行するかを指定できるようになりました。US限定推論は標準価格の1.1倍になりますが、データレジデンシー要件を持つ組織にとっては選択肢として重要です。UsageレポートAPIでもinference_geoディメンションでグループ化・フィルタリングが可能なため、地理的ルーティングの検証にも活用できます。

現場で本当に困るトークン爆発問題と、アナリティクスで見えてくる真実

AIのイメージ

AIのイメージ

Claude Codeを使い始めて少し経った頃、誰もが一度は直面する壁があります。それは「ダッシュボードの使用率は6%なのに、なぜかレート制限に引っかかる」という不思議な現象です。これは実際に多くの開発者を混乱させている問題で、原因を知らないまま「Anthropicのシステムがおかしい」と諦めてしまうケースが後を絶ちません。

真相はこうです。Claude Codeのダッシュボードが表示している使用率は累積トークン消費量を示しているにすぎず、1分あたりのリクエスト数(RPM)や1分あたりのトークン数(TPM)というスループット制限とは別の話なのです。ターミナルの3つのタブでClaude Codeを同時に動かしたり、CI/CDパイプラインでClaude Codeのエージェントを並列起動したりすると、日次の使用枠に余裕があっても瞬間的なスループット制限を超えてしまいます。

さらに深刻なのが、Claude Codeのアーキテクチャ由来のトークン消費パターンです。一般的なチャット利用で1回の会話に消費するトークンが1,000〜5,000程度なのに対し、Claude Codeはファイルを読み込み、変更を提案し、bashコマンドを実行して結果を検証するというエージェントループを繰り返すため、1コマンドで50,000〜150,000トークンを消費することが珍しくありません。会話が長くなるほど蓄積された履歴が毎回コンテキストとして付加されるため、セッション後半になるにつれてトークン消費は加速します。

アナリティクスAPIでこのデータを可視化すると、チーム内の「トークン消費パターン」が鮮明に見えてきます。Claude Code のツールアクションデータ(EditツールやWriteツールの承認・却下カウント)と組み合わせることで、どの作業パターンがコストを押し上げているかを特定できます。例えば「却下率が高い=何度も提案し直しているユニット」はプロンプト設計の改善余地があるサインです。

ClaudeだからできるアナリティクスAPIを活用した実践的プロンプト集

ここからはClaude Code自体を使って、取得したアナリティクスデータを分析・活用するための実践的なプロンプトを紹介します。「APIから取得したJSONデータをClaude自身に食わせて分析させる」というメタな使い方は、他のツールでは難しいClaude特有のアプローチです。

プロンプト1コスト最適化の提案を自動生成する

アナリティクスAPIの/analytics/usersから取得したユーザーごとのデータをClaudeに渡して、最適なプラン移行のタイミングを判断させることができます。

「以下はある組織の直近30日間のClaude Code利用データです。。ユーザーごとにコストを試算し、月額固定のMaxプランと従量課金のAPIプランのどちらがコスト効率が高いか、具体的な金額差を含めて一覧表で出力してください。判断基準は月間cost_usdが80ドルを超えているかどうかを目安にしてください。」

プロンプト2利用状況のサマリーを経営レポート用に自動変換する

エンジニア向けのJSONデータをそのまま経営陣に見せても理解されません。Claudeに自然言語のエグゼクティブサマリーに変換させましょう。

「以下はAnthropicのEnterprise Analytics APIから取得した先週のClaude Code利用サマリーです。。このデータを、技術知識を持たない役員向けのエグゼクティブサマリーとして400字程度にまとめてください。DAU/WAUの推移から読み取れるトレンドと、シート利用効率(アクティブユーザー数÷割り当てシート数)を必ず言及してください。」

プロンプト3CLAUDE.mdの最適化案を自動生成してトークン消費を削減する

CLAUDE.mdはClaude Codeのすべてのセッションにロードされるため、内容が冗長だとそれだけでトークンを浪費します。Claudeに現在のCLAUDE.mdを評価させ、簡潔版を生成させるプロンプトです。

「以下が現在のCLAUDE.mdの内容です。。このファイルはClaude Codeのすべてのセッション開始時に読み込まれます。トークン消費を最小化しながら、Claudeが開発作業を効率的に行うために必要な情報を保持した最適化版を作成してください。不要な説明文を削除し、箇条書きを活用して全体を現在の60%以下の文字数に圧縮してください。」

プロンプト4OpenTelemetryのスパンデータからボトルネックを特定する

OTelで収集したログデータをClaudeに渡せば、どの操作がコスト・時間の無駄を生んでいるか即座に特定できます。

「以下は直近1週間のClaude CodeのOpenTelemetryイベントログ(api_requestイベントとtool_resultイベントのサンプル)です。。平均実行時間が長いツール操作TOP5と、コスト消費量が多い操作パターンTOP3を特定し、それぞれの改善案を具体的に提案してください。ツールの承認率データと合わせて、プロンプト設計の改善が有効なポイントも指摘してください。」

プロンプト5GitHubコントリビューションメトリクスとアナリティクスデータを突き合わせて生産性レポートを作成する

Enterprise Analytics APIのClaude Codeメトリクス(コミット数・PR数・コード行数)と、GitHub Contribution Metrics(Claude使用あり/なしのPR数比較)を組み合わせることで、ROI(投資対効果)レポートが自動生成できます。

「以下の2種類のデータを統合して、Claude Code導入による開発生産性の変化をレポートしてください。データAEnterprise Analytics APIのユーザー別Claude Codeメトリクス(コミット数・コード行数・セッション数)。データBGitHub Contribution Metricsによるクロードあり/なしのPR merge数の比較。Claude Codeを積極活用しているエンジニアとそうでないエンジニアの生産性差を数値化し、1人あたりの月間ROIを試算してください。」

GitHub連携のコントリビューションメトリクスがゲームチェンジャーである理由

2026年初頭に公開ベータとして追加されたContribution Metrics(コントリビューション指標)は、アナリティクス機能の中でも特に革命的です。これまでClaude Codeの「生産性向上効果」を証明するには、感覚的な証言に頼るしかありませんでした。ところがこの機能を使えば、GitHubアカウントと連携するだけで「Claude Code使用ありのPRマージ数」と「使用なしのPRマージ数」が並列表示されます。

実際のデータを見ると衝撃的な結果が出ているケースが多く、Anthropicが紹介している事例では、Altana社が「開発速度が2〜10倍に加速した」と報告しています。この機能を活用するためにはGitHub CloudとClaude GitHub Appのインストールが必要ですが、ZeroDataRetentionを有効化している組織では利用できないという制約があります。セキュリティとデータ活用のトレードオフが生じる場面であり、組織の方針によって判断が分かれるポイントです。

セットアップ手順はシンプルです。まずOwner権限でGitHubアカウントにClaude GitHub Appをインストールし、claude.ai/admin-settings/claude-codeからClaude Code analyticsを有効化した上でGitHub analyticsをオンにするだけです。データは現在のカレンダー月分が表示され、月初にリセットされます。

コンソールダッシュボードだけでは見えない「サジェスト承認率」の罠

Claude Codeのコンソールダッシュボードには「Suggestion accept rate(サジェスト承認率)」という指標があります。一見するとシンプルな指標ですが、この数値の解釈には落とし穴があります。

承認率が低い場合、よく言われる解釈は「Claude Codeの提案が的外れ」というものですが、実際には「エンジニアが承認する前にCtrl+Cで処理を中断している」というケースも多く含まれています。特に大規模なリファクタリングタスクで、Claudeが意図と違う方向に進んでいると判断して途中でキャンセルした場合、そのセッションは高コスト・低承認率として記録されます。

一方で承認率が異常に高い(95%以上)場合も要注意です。それはClaude Codeの提案が優秀なのではなく、エンジニアがろくに確認せずに全部承認している「ゴム印化」の可能性があります。この状態は一時的にコードが増産されているように見えますが、レビューコストが後で爆発します。

適切な承認率の目安は70〜85%程度と言われており、この範囲内であれば「適切に検討しながら使っている」状態です。アナリティクスAPIでEditツール・Writeツール・MultiEditツールごとの承認・却下カウントを取得し、ユーザー別に可視化することでこの「質的分析」が初めて可能になります。

Workspaceレベルの支出制限とレート制限の賢い設定方法

エンタープライズ規模でClaude Codeを運用していると、特定のチームやプロジェクトがリソースを独占して他のチームに影響が出るという問題が発生します。これを防ぐのがWorkspaceレベルの支出制限とレート制限です。

AdminAPIのWorkspace機能を使えば、組織内の異なるチームやプロジェクト向けに個別のWorkspaceを作成し、それぞれに独自のレート上限を設定できます。たとえば組織全体のIPTMが40,000トークン/分であっても、本番環境のCI/CDパイプライン専用Workspaceに30,000トークン/分を割り当て、開発者の日常作業Workspaceには10,000トークン/分を設定する、といった運用が可能です。注意点として、デフォルトWorkspaceには制限を設定できないこと、Workspace制限の合計が組織制限を超えていても組織全体制限が常に優先されることを覚えておきましょう。

設定の実践的なヒントをいくつか挙げると、まず本番CIパイプラインと開発者インタラクティブ作業は必ず別Workspaceに分離することが重要です。CIパイプラインは深夜バッチで大量消費する一方、開発者の作業は日中に集中するため、同一Workspaceに混在させると昼間の開発体験が悪化します。次に、AdminAPIで定期的に各WorkspaceのUsageデータを取得して可視化することで、どのチームがいつリソースを使っているかが明確になります。さらにWorkspace単位でAPIキーを管理することで、万が一キーが漏洩した際の影響範囲を限定できます。

ぶっちゃけこうした方がいい!

正直に言います。アナリティクスAPIもOpenTelemetryも、設計は素晴らしいのですが、「とりあえず全部やろう」とすると確実に詰みます。個人的にはこうしたほうが、ぶっちゃけ楽だし効率的だと思います。

まずステップ0として絶対にやるべきことは、CLAUDE.mdを先に整備することです。どんな豪華なモニタリング基盤を構築しても、CLAUDE.mdが冗長でファイルパスも書かれていなければ、毎セッションClaude Codeがコードベースを探索し直してトークンを無駄遣いします。CLAUDE.mdをきちんと書くだけでトークン消費が20〜30%削減できるとされており、これはそのままコストダウンに直結します。アナリティクス基盤を整える前に、まずこちらです。

次に監視基盤は3段階で育てるのが現実的です。最初はコンソールダッシュボードだけで十分です。ここで「誰が使っていて、コストはどれくらいか」が把握できます。組織が20〜30人規模を超えたら、AdminAPIのClaude Code Analytics APIを使って毎週のコストレポートを自動化します。Pythonで10行も書けばSlackに週次通知を飛ばせます。100人を超えたらOpenTelemetryによる全社収集基盤を導入するという段階的なアプローチが精神衛生上も予算的にも健全です。

そして最大の気づきとして伝えたいのは、アナリティクスデータはモニタリングのためではなく、プロンプト教育のために使うのが一番ROIが高いという点です。使用率が高いのにコミット数が少ないエンジニア、却下率が高いセッションが多いエンジニアを特定して、プロンプトの書き方を個別にアドバイスするだけで組織全体の生産性とコスト効率が劇的に改善します。「ツールの使い方が上手い人の真似をする」という超アナログな改善施策が、豪華なダッシュボードよりも早く確実に結果を出します。データは自己目的化せず、「現場のエンジニアを助けるための手がかり」として使う。それがアナリティクスAPIを最大限に活用する、ぶっちゃけいちばん賢いやり方だと思います。

Claude CodeのアナリティクスAPIに関する疑問解決

EnterpriseアナリティクスAPIとAdminAPIのClaude CodeAnalytics APIはどちらを使うべきですか?

用途によって使い分けが必要です。社員のエンゲージメントや採用状況を把握したい場合(会話数・プロジェクト活用数・スキル利用頻度など)はEnterpriseアナリティクスAPIが適しています。一方でコスト管理や開発生産性の数値化が目的(コミット数・コード行数・トークンコスト)であればAdminAPIのClaude Code Analytics APIが適切です。なお、EnterpriseアナリティクスAPIはEnterpriseプランのみで利用可能で、AdminAPIはAPIキーを持つすべての組織で利用できます(ただしIndividualアカウントには提供されていません)。

Amazon Bedrock経由でClaude Codeを使っている場合もアナリティクスAPIは使えますか?

EnterpriseアナリティクスAPIはAWS Bedrock経由のClaude Code利用データを返しません。Bedrockを経由している場合は、OpenTelemetryを活用した自前の収集基盤か、Bedrockが提供するネイティブのモニタリング機能(CloudWatchなど)を活用してください。ZOZOの事例では、Bedrockユーザーのメールアドレスが自動取得できなかったため、OpenTelemetryのResource AttributeにメールアドレスをManaged Settingsで手動設定するという工夫が必要でした。

アナリティクスAPIのデータはリアルタイムで取得できますか?

EnterpriseアナリティクスAPIは3日間の遅延があるため、リアルタイム監視には適していません。1時間以内の遅延でデータを取得したい場合はAdminAPIのClaude Code Analytics API(/v1/organizations/usage_report/claude_code)を使用してください。さらにリアルタイムに近い監視が必要な場合は、OpenTelemetryを有効化して自社のモニタリングスタックに直接送信する方法が適しています。UsageおよびCostレポートAPIは最大1分間隔のポーリングに対応しており、ページネーションされたデータダウンロードなど短期バーストも許容されています。

まとめ

Claude CodeのアナリティクスAPIとリモート監視機能は、2026年に入って急速に実用レベルに到達しました。EnterpriseアナリティクスAPI・AdminAPI・OpenTelemetryという3つのアプローチは互いに補完関係にあり、組織の規模や目的に応じて組み合わせるのがベストプラクティスです。

数百名規模の組織であれば、MDMを活用したManaged Settings配布でOpenTelemetryを全社員に自動設定し、BigQueryやGrafanaで可視化する構成が費用対効果に優れています。EnterpriseプランのPrimary Ownerであれば、アナリティクスAPIで月次トレンドを把握しながら、AdminAPIでコスト最適化のためのプラン移行判断を自動化するという二刀流運用が可能です。

「AIツールを導入したけど投資対効果が見えない」という状態を脱するために、まずはCLAUDE_CODE_ENABLE_TELEMETRY=1の一行から始めてみてください。データがあれば意思決定ができ、意思決定ができれば組織のAI活用は確実に次のステージへ進みます。

コメント

タイトルとURLをコピーしました