「チームがClaudeをどれくらい使っているか、ちゃんと把握できていますか?」導入コストをかけてAIを展開したのに、実際の利用状況が”ブラックボックス”になっていると感じている担当者は少なくないはずです。月次レポートを手作業で集めたり、Slackで個別にヒアリングしたりするのは、もう限界ですよね。Anthropicが提供するClaude Analytics APIを使えば、そのすべての悩みをプログラムで自動解決できます。2026年に入ってエンタープライズ向けの機能が大幅に強化されたこのAPIについて、基本の仕組みから実践的な活用法まで、初心者にもわかりやすく丁寧に解説します。
- Claude Analytics APIの概要と取得できるデータの種類
- APIキーの発行から実際のリクエスト送信までの手順
- BIツール連携や自動レポート化など、現場で使える活用パターン
- そもそもClaude Analytics APIとは何か?
- Claude Analytics APIで取得できる5つのデータ種別
- APIキーの発行から最初のリクエストまでの手順
- レート制限とデータの制約を正しく理解する
- 実践的な活用シナリオこんな使い方で真価を発揮する
- Pythonで30分で作れる!Analytics API自動取得スクリプトの実装例
- Claudeだからできる!Analytics活用プロンプト集
そもそもClaude Analytics APIとは何か?

AIのイメージ
Claude Analytics APIとは、Anthropicが提供するエンタープライズ向けの利用状況データ取得APIです。簡単にいえば、組織内でClaudeやClaude Codeをどれくらい、誰が、どのように使っているかをプログラム経由で取得できる仕組みです。
2026年1月1日以降のデータが対象となっており、最大過去90日分のデータを日次で取得できます。重要なのは、このAPIはEnterpriseプランのみで利用可能な点です。個人のProプランやTeamsプランでは利用できないため、まず自分の組織のプランを確認することが最初のステップになります。
2026年3月時点では、セルフサービスでのEnterprise契約も可能になりました。以前はAnthropicの営業チームとの商談が必須でしたが、現在はWebサイト上で直接Enterpriseプランを購入できるようになっています。これはAIツールの導入スピードが求められる現代において、非常に大きな変化といえるでしょう。
Analytics APIとコンプライアンスAPIの違い
Anthropicは似た名前のAPIをいくつか提供しているので、混同しないようにしっかり理解しておきましょう。Analytics APIは組織全体の集計済み利用データを取得するものです。個々のユーザーアクティビティを集約したダッシュボード用のデータ、たとえばアクティブユーザー数や送信メッセージ数、プロジェクト利用状況などが取得できます。
一方、コンプライアンスAPIはガバナンスや監査目的に特化しており、個々のユーザーの生のアクション履歴や会話内容にアクセスできます。「集計データで傾向を見たい」ならAnalytics API、「誰が何を送ったか詳細に追跡したい」ならコンプライアンスAPIという使い分けが基本です。さらにClaude Code Analytics APIは開発者向けに特化したAPIで、コード補完の承認率やコミット数、プルリクエスト数などの生産性指標を取得します。
Claude Analytics APIで取得できる5つのデータ種別
Analytics APIには現在5つのエンドポイントが用意されています。それぞれが組織内のClaude利用状況を異なる角度から把握するためのものです。どのエンドポイントも日次で集計されたデータを返すため、リアルタイムの監視には向いていませんが、中長期的なトレンド分析に非常に有効です。
まずユーザーアクティビティのエンドポイントでは、1ユーザーあたりの会話数、送信メッセージ数、作成したプロジェクト数、アップロードファイル数、作成したアーティファクト数、利用したスキル数、コネクタ数などが取得できます。Claude Codeに関してはコミット数やプルリクエスト数、コードの追加・削除行数といった開発者特有の指標も含まれています。
次にアクティビティサマリーのエンドポイントは、組織全体の日次・週次・月次のアクティブユーザー数を一括で取得できます。シート利用率や保留中の招待数なども確認でき、ライセンス管理の観点から非常に役立つデータです。1リクエストで取得できる期間は最大31日間となっています。
3つ目のチャットプロジェクト利用状況は、どのプロジェクトに何人のユーザーが参加し、何件の会話が行われたかをプロジェクト単位で確認できます。社内でどのプロジェクトが活発に使われているかを可視化するのに使えます。
4つ目のスキル利用状況は、各スキルを何人のユーザーが利用したかを、ClaudeのチャットとClaude Codeそれぞれ別に確認できます。組織内でどのスキルが定着しているかを把握するためのデータです。
5つ目のコネクタ利用状況は、MCPサーバーや各種コネクタをどれだけのユーザーが使っているかを示します。Atlassianやその他のMCPサーバーの利用状況が正規化された形で取得できます。
APIキーの発行から最初のリクエストまでの手順
Analytics APIを使い始めるには、まず専用のAPIキーを発行する必要があります。通常の開発用APIキーとは異なる種類のキーが必要になるので、注意してください。
APIキーの発行方法
Analytics APIのキーを発行できるのは、Enterprise組織のプライマリオーナーのみです。組織内の一般メンバーや管理者であっても、このキーは発行できません。プライマリオーナーとして
claude.ai/analytics/api-keys
にアクセスすると、Analytics専用のAPIキー管理画面が表示されます。
発行時にはread:analyticsスコープが付与されたキーを作成する必要があります。このスコープがないキーではAPIにアクセスできません。また、組織単位でAPIのアクセス許可をオン・オフで切り替えることができ、セキュリティ管理の観点から必要に応じて無効化することも可能です。
注意点として、通常のClaude APIキー(
sk-ant-api...
で始まるもの)とは別に、Claude Code Analytics APIにはAdminAPIキー(
sk-ant-admin...
で始まるもの)が必要です。用途に応じて適切なキーを使い分けましょう。
実際のAPIリクエストの書き方
APIキーを取得したら、次は実際にリクエストを送ってみましょう。以下はユーザーアクティビティデータを取得する基本的なcurlコマンドの例です。
curl -X GET "https://api.anthropic.com/v1/organizations/analytics/users?date=2026-03-08&limit=20" --header "x-api-key: $YOUR_API_KEY"
日付パラメータには3日以上前の日付を指定する必要があります。データは前日(N-1)のデータがN日のUTC10時に集計処理され、集計完了後さらに3日間の確認期間を経てから提供されます。これはデータの正確性を担保するためです。
コネクタ利用状況のエンドポイントは次のように叩きます。
curl -X GET "https://api.anthropic.com/v1/organizations/analytics/connectors?date=2026-03-08" --header "x-api-key: $YOUR_API_KEY"
レスポンスはJSON形式で返ってきます。ページネーションにはカーソルベースの方式が採用されており、レスポンスに含まれる
next_page
トークンを次のリクエストに渡すことで続きのデータを取得できます。デフォルトの取得件数は
/users
エンドポイントが20件、その他は100件で、最大1000件まで指定できます。
レート制限とデータの制約を正しく理解する
APIを本番環境で利用する前に、レート制限とデータの制約について正確に把握しておくことが重要です。知らずに設計すると、想定外のエラーや取得漏れが発生する可能性があります。
デフォルトのレート制限は1分あたり60リクエストです。組織の規模や用途によってこの上限が不十分な場合は、AnthropicのCSM(カスタマーサクセスマネージャー)に相談することで調整してもらえます。ただし、レート制限は組織全体に適用されるため、複数のキーを発行していても合算でカウントされる点を覚えておいてください。
データの利用可能期間については、2026年1月1日以降のデータのみ取得可能です。それ以前の利用状況には遡れません。また先ほど説明したとおり、3日以上前のデータしか取得できないため、当日や昨日のデータをリアルタイムで監視する用途には適していません。リアルタイム監視が必要な場合は、OpenTelemetryとの統合を検討してください。
2026年2月下旬から3月上旬にかけて、Claude側のインフラ障害に伴いAnalytics APIやUsage Report APIで一時的にデータ欠損や取得エラーが発生した事例がありました。このような場合はAnthropicのステータスページを確認し、データパイプラインの問題をCSMに報告することが推奨されています。本番環境への組み込み時には、エラーハンドリングと再試行ロジックの実装を忘れないようにしましょう。
実践的な活用シナリオこんな使い方で真価を発揮する
データを取得できるだけでは意味がありません。Analytics APIを実際の業務でどう活かすかが肝心です。
BIツールへの自動連携でダッシュボードを構築する
最も多い活用パターンは、TableauやLooker、Power BIなどのBIツールへのデータ連携です。Analytics APIを定期実行するバッチスクリプトを用意し、取得したJSONデータをデータウェアハウスに格納することで、社内の既存レポーティング基盤にClaudeの利用データを組み込むことができます。
毎週月曜の朝に自動で先週のレポートが届くような仕組みも、Pythonスクリプトで比較的簡単に実現できます。組織の人員構成(組織図)とユーザーデータを突き合わせることで、部門別・役職別の利用率も可視化できます。
ライセンス管理とコスト最適化に使う
Enterpriseプランではシート単位の契約が基本になります。Analytics APIのアクティビティサマリーエンドポイントを使えば、実際にアクティブなユーザー数とシート数のギャップを定量的に把握できます。過去30日間1度も利用していないユーザーを抽出し、ライセンスの再配分や解約の検討材料にするといった使い方が現実的です。
AI導入ROIの可視化と経営報告に活かす
Claude Codeの生産性指標(コミット数・プルリクエスト数・承認コード行数)を取得することで、AI導入前後の開発速度の変化を数値で示せます。「先月はAIの助けで合計◯万行のコードが承認された」「プルリクエスト作成件数が30%増加した」といったデータは、経営層へのAI投資対効果の説明に非常に有効です。
Pythonで30分で作れる!Analytics API自動取得スクリプトの実装例

AIのイメージ
「APIの概念はわかった。でも実際どうやってコードを書くの?」という疑問を持つ方は多いはずです。ここでは、Pythonを使ってAnalytics APIのデータを自動取得してCSVに保存する実用的なスクリプトを紹介します。プログラミング初心者でも読めるよう、コードの意味もあわせて解説します。
以下のスクリプトは、指定した日付のユーザーアクティビティを全件取得し、CSVファイルに出力するものです。カーソルベースのページネーションにも対応しているので、数百人規模の組織でも安心して使えます。
import requests
import csv
import os
from datetime import date, timedelta
API_KEY = os.environ.get("CLAUDE_ANALYTICS_API_KEY")
BASE_URL = "https://api.anthropic.com/v1/organizations/analytics"
def fetch_all_users(target_date: str) -> list:
"""指定日のユーザーアクティビティを全件取得"""
headers = {"x-api-key": API_KEY}
all_users =
page_cursor = None
while True:
params = {"date": target_date, "limit": 1000}
if page_cursor:
params = page_cursor
resp = requests.get(f"{BASE_URL}/users", headers=headers, params=params)
resp.raise_for_status()
data = resp.json()
all_users.extend(data.get("data", ))
page_cursor = data.get("next_page")
if not page_cursor:
break # 全ページ取得完了
return all_users
def save_to_csv(users: list, filename: str):
"""取得データをCSVに保存"""
if not users:
print("データがありません")
return
keys = users.keys()
with open(filename, "w", newline="", encoding="utf-8") as f:
writer = csv.DictWriter(f, fieldnames=keys)
writer.writeheader()
writer.writerows(users)
print(f"{len(users)}件を{filename}に保存しました")
if __name__ == "__main__":
# 3日以上前の日付を指定(最新データは3日遅延)
target = (date.today() - timedelta(days=4)).isoformat()
users = fetch_all_users(target)
save_to_csv(users, f"claude_analytics_{target}.csv")
このスクリプトのポイントは3つです。まず環境変数からAPIキーを読み込む設計にすること。コードにAPIキーを直書きすると、GitHubなどにアップした際に流出する危険があります。次にwhile True ループでページネーションを完走させること。
next_page
がNoneになるまで繰り返すことで、大規模組織でも全データを取りこぼしなく収集できます。そして日付を自動計算していること。今日から4日前を指定することで、3日の遅延仕様を意識せず常に最新の確定データを取れます。
Claudeだからできる!Analytics活用プロンプト集
Analytics APIで取得したデータをそのまま眺めていても、インサイトはなかなか見えてきません。ここがClaudeをデータ分析パートナーとして使う最大の価値が出るポイントです。CSVやJSONデータをClaudeに貼り付けて、以下のプロンプトを試してみてください。
プロンプト1|ユーザー利用データから”幽霊ユーザー”を炙り出す
「以下のCSVは先月のClaudeユーザーアクティビティデータです。conversation_countが0かつclaude_code_sessionsも0のユーザーを抽出して、”非アクティブユーザー”のリストを作ってください。さらに、全体に占める非アクティブ率と、もし非アクティブユーザーのシートライセンスを解放した場合のコスト削減試算を教えてください(1シートあたり月◯◯円として計算)。」
プロンプト2|週次レポートを自動で文章化する
「以下のJSONはClaude Analytics APIから取得した今週の組織アクティビティサマリーです。このデータをもとに、経営層向けの週次レポートを日本語で作成してください。先週比での変化率も含め、箇条書きではなく読みやすい段落文で、所要時間2分で読める長さにまとめてください。トーンは専門的かつ簡潔に。」
プロンプト3|Claude Codeの投資対効果レポートを作る
「以下のデータはClaude Code Analytics APIから取得した先月の開発者別データです。コード承認行数、コミット数、プルリクエスト数を使って、開発者1人あたりの生産性向上を定量化し、『もしClaude Codeを使っていなかった場合の試算工数』を人月換算で推計してください。エンジニアの平均単価を月80万円として計算し、投資回収のストーリーを経営層が納得できる形で書いてください。」
プロンプト4|異常値検知と原因仮説を立てる
「以下は過去30日分のClaude利用アクティビティサマリーデータです。日次のアクティブユーザー数の推移を見て、前後7日平均と比較して±20%以上の乖離がある日を異常値として検出してください。各異常値の日付と乖離率を示しつつ、その原因として考えられる仮説(例社内イベント、障害、祝日)を推察してください。」
これらのプロンプトは、Claudeのデータ読解力・文書生成力・推論力をフル活用した現実的な使い方です。Analytics APIはデータを取ってくるだけのツール、そしてClaudeはそのデータを意味ある情報に変換する知的エンジン、という役割分担が最も効率的です。
「なぜかデータが空っぽ…」よくあるトラブルと体験ベースの解決法
Analytics APIを導入した直後に「動いているはずなのに何もデータが返ってこない」という問題に直面する人は非常に多いです。GitHubのIssueを見ていても同様の報告が複数あります。ここでは実際によく起きる問題を体験ベースで整理します。
トラブル1 "data": で空配列が返ってくる
最も多いのは日付の指定ミスです。3日以内の日付を指定すると空配列が返ります。「昨日のデータが見たい」と思って昨日の日付を入力しても、ポリシー上データはまだ存在しません。必ず4日以上前の日付を使ってください。次に多いのがAnalytics APIキーとAdmin APIキーの混同です。Claude Code Analytics APIにはAdmin APIキー(
sk-ant-admin...
)が必要ですが、Enterprise Analytics APIにはread:analyticsスコープ付きの専用キーが必要です。このキーは異なるものです。さらに、Claude CodeユーザーがOAuthではなくユーザー名・パスワードでログインしている場合、2026年1月時点では一部のサブスクリプションユーザーのデータが返ってこない既知の不具合も報告されています。
トラブル2一部のユーザーデータだけが取得できない
/users
エンドポイントのデフォルト取得件数は20件です。「30人の組織なのに20件しか返ってこない」という状況は、ページネーションを実装していないことが原因です。レスポンスの
has_more
フラグが
true
の場合は必ず
next_page
トークンを使って続きを取得する処理を入れてください。「全員分出てると思って分析していたら、実はトップ20人だけだった」という笑えないミスに繋がります。
トラブル32026年2〜3月のデータに欠損がある
2026年2月26日〜27日にかけて、Anthropic内部のデータサービス障害によりAnalytics APIで大規模なデータ欠損が発生しました。その後の3月3〜4日にも管理APIと使用状況レポートに影響する障害が続きました。この期間のデータを参照した場合、正常値より低い数字が出ている可能性があります。過去データの分析で「2月末から急に利用者が減った」ように見えても、それは組織の変化ではなくAnthropicの障害だった可能性があります。Anthropicのステータスページを確認し、該当期間のデータは「参考値」として扱うことを強くおすすめします。
トラブル4Amazon Bedrock経由だとデータが出てこない
これは設定ミスでも障害でもなく、仕様どおりの動作です。Amazon BedrockやGoogle Vertex AI経由でClaude Codeを利用している場合、その利用データはAnthropicのAnalytics APIに含まれません。Anthropic直接のAPIとBedrockでハイブリッド運用している組織では、Analytics APIのデータだけでは全体像が見えない点に注意が必要です。
Analytics APIと連携すると劇的に便利になるツール比較
Analytics APIで取得したデータをどこに流すかで、活用の深さが大きく変わります。現場で実際に使われている連携パターンをまとめました。
| ツール | 向いている用途 | 難易度 |
|---|---|---|
| Looker Studio(旧Google Data Studio) | 無料でサクッとビジュアライズ。Googleスプレッドシート経由でAPI連携できる | 低 |
| Grafana | 時系列データの監視・アラート設定。OpenTelemetry連携も可能 | 中 |
| Power BI | 既にMicrosoft環境を使っている企業に最適。ExcelデータとClaudeデータを統合しやすい | 中 |
| Notion(データベース) | ノーコードで週次レポートを自動更新したい場合。NotionのAPIと組み合わせる | 低〜中 |
| BigQuery + Looker | 大規模組織向け。HR・経費データとClaudeデータをJOINしてROI分析 | 高 |
コストをかけずに始めたいなら、Looker Studio+Googleスプレッドシートの組み合わせが最速です。PythonスクリプトでCSVを取得→スプレッドシートにアップロード→Looker Studioで可視化、という流れであれば、エンジニアでなくても半日あれば構築できます。既にBIツールがある組織は、そのツールのデータソース設定にAnalytics APIを追加するだけで既存のダッシュボードにClaude利用データを組み込めます。
「活用率が低い部門」への対処法データを人を動かすコミュニケーションに使う
Analytics APIのデータを使い始めると、必ずといっていいほど「Claudeをほとんど使っていない部門や人」が可視化されます。ここで「数字を突きつけて詰める」のは最悪の使い方です。データは武器ではなく、対話のきっかけにするのが正解です。
低活用ユーザーへのアプローチとして効果的なのは、まず「なぜ使っていないのか」をヒアリングすることです。使い方がわからない、自分の業務に合うユースケースが見えていない、初期セットアップが面倒だったという理由が圧倒的に多いです。Analytics APIのデータをもとに「同じ職種の◯◯さんはこんな使い方をして週◯時間節約している」という具体的なユースケースを共有するのが、最も効果的な活用促進策です。
高活用ユーザーには別のアプローチが有効です。Claude Codeのリーダーボード機能(TeamsおよびEnterpriseで利用可能)を活用し、社内での貢献者として可視化することで、良い意味での競争意識が生まれます。数字が見えると「自分も貢献している感」が生まれ、継続利用に繋がります。
ぶっちゃけこうした方がいい!
ここまで読んでくれた方には、少し踏み込んだ本音を話します。Analytics APIを「とりあえず動かしてダッシュボード作った」で満足している組織が本当に多いんです。でも正直、そこで止まっているなら導入した意味は半分しか出ていないと思っています。
個人的にぶっちゃけ楽だし効率的だと思う使い方は、「毎月末にAnalytics APIのデータをClaudeに渡して、翌月の改善アクションプランを自動生成させる」というループを作ることです。データを取る→Claudeで分析させる→アクションを実行する→また翌月データを取る。このサイクルを回すだけで、Analytics APIは「ただ数字を見るツール」から「組織の意思決定エンジン」に変わります。
もうひとつ言うと、最初から完璧なダッシュボードを作ろうとするのをやめた方がいいです。まずcurlコマンド一発でデータを取ってCSVに落とし、それをClaudeに貼り付けて「このデータから何か気づきはある?」と聞くだけで、驚くほど有益なインサイトが返ってきます。インフラ整備より先に、最速で”データを見る習慣”を作ることが、長期的な活用文化の定着に一番効きます。
Analytics APIは、Claudeを「使ってもらうためのツール」ではなく、「賢く使い続けるための仕組み」です。そのことを理解している組織とそうでない組織で、1年後のAI活用の成熟度には大きな差が出るはずです。まず今日、curlコマンドを一回たたいてみることから始めてみてください。
Claude Analytics APIに関する疑問解決
TeamプランやProプランでもAnalytics APIは使えますか?
残念ながら、現時点では使えません。Analytics APIはEnterpriseプラン専用の機能です。TeamsプランにはAnalytics APIのサポートがないため、DXなどのサードパーティツールと連携したい場合も現状はEnterpriseへのアップグレードが必要になります。ただし、Claude Codeの利用状況については、Anthropic Consoleの管理画面で一部の指標を確認できます(コンソールAPIを使う方法とは異なります)。
Amazon BedrockやGoogle Vertex AI経由でClaudeを使っている場合はどうなりますか?
Amazon Bedrock経由でClaude Codeを利用している場合、Analytics APIはClaude CodeのデータをAnthropicのプラットフォーム経由のものしか返しません。Bedrockを通じたClaude Code利用はAnalytics APIの対象外です。自社のAnthropicアカウントに紐付いた利用分のみがデータに反映されるという点を覚えておいてください。
データの遅延が3日あるのはなぜですか?
これはデータの正確性を確保するためです。前日のデータはN日のUTC10時00分に集計処理が走り、その後さらに3日間のバッファ期間が設けられています。この仕組みにより、データパイプラインの問題が発生した場合でも修正する余裕が生まれ、ユーザーには正確なデータが提供されます。もし指定した日付のデータが4日以上経っても取得できない場合は、パイプラインの障害が考えられるため、AnthropicのCSMに連絡することをおすすめします。
取得したデータを外部に公開しても問題ありませんか?
APIキーそのものは絶対に公開しないでください。AnthropicはAPIキーを厳重に管理することを強く推奨しています。AWS Secrets ManagerやGCP Secret Managerなどのシークレット管理サービスを使い、コードベースに直接埋め込まないことが鉄則です。取得したデータ自体は組織内の利用状況の集計値であり、個人の会話内容は含まれません。ただし、ユーザーのメールアドレスなど個人を特定できる情報が含まれる場合があるため、社内のプライバシーポリシーや規程に沿った取り扱いが必要です。
まとめ
Claude Analytics APIは、単なる「利用状況を見るツール」ではありません。AIへの投資対効果を可視化し、組織のAI活用を次のレベルへ引き上げるための基盤です。エンドポイントは現時点で5種類。ユーザーアクティビティ、アクティビティサマリー、プロジェクト利用状況、スキル利用状況、コネクタ利用状況のデータを日次で取得できます。
2026年の最新状況として、セルフサービスでのEnterprise契約が可能になり、Analytics APIへのアクセスハードルが以前より下がっています。BIツールへの自動連携、ライセンス最適化、開発生産性の定量化と、使い方のアイデアは豊富にあります。まずはプライマリオーナー権限でAPIキーを発行し、curlコマンドで最初のデータを取得するところから始めてみましょう。「見えていなかったものが見える」感覚は、使い始めてすぐに実感できるはずです。


コメント