「Claude Codeを導入してみたけど、実際にどれくらい使われているのか、コストがどのくらいかかっているのか、さっぱりわからない」——そんな悩みを抱えていませんか?特にRemote Control機能が2026年3月6日に全プランで解禁されてから、スマホからも開発を続けられるようになり、セッション数やトークン消費量が一気に増えたと感じている人も多いはずです。
この記事では、Claude CodeのRemote Controlを使いこなしながら、利用データの見方・収集方法・分析方法までを一気に解説します。個人開発者からZOZOのような数百名規模のチームまで使える実践的な内容です。
- Claude CodeのRemote Controlは2026年3月6日に全プランで開放済みで、スマホからローカルセッションを操作できる
- 利用データの収集にはOpenTelemetry(OTel)機能を使うのが現在のベストプラクティス
- GrafanaやDatadog、BigQueryなど好きなバックエンドと連携してトークン消費・コスト・生産性を可視化できる
- Claude Code Remote Controlとは何か?仕組みをざっくり理解しよう
- なぜ利用データの可視化が必要なのか?「コスト爆発」を防ぐために
- Claude Code利用データの収集方法OpenTelemetryが最強の選択肢
- Claude Codeが収集できる利用データの種類と見方
- データの可視化ツールGrafanaかDatadogか、それとも?
- 利用データを活用した実践事例プラン最適化とROI測定
- 現場でよく起きるRemote Controlのトラブルと、実体験から学んだ解決策
- Claudeだからできる!利用データ分析を加速する実践プロンプト集
- Remote Controlとテレメトリを組み合わせた、次世代の開発ワークフロー設計
- 利用データから読み解く、プラン選択の正しい判断基準
- テレメトリ収集時に見落としがちなプライバシーとセキュリティの落とし穴
- ぶっちゃけこうした方がいい!
- Claude CodeのRemote利用データに関するよくある疑問
- まとめ
Claude Code Remote Controlとは何か?仕組みをざっくり理解しよう

AIのイメージ
まずRemote Controlの基本から整理しましょう。これは、ローカルPCで動いているClaude Codeセッションを、iPhoneやAndroid、または別のPCのブラウザから遠隔操作できる機能です。コードもセッションもすべてローカルに残ったまま、スマートフォンはあくまで「リモコン」として動作するというのが最大のポイントです。
電車の中で長時間リファクタリングを走らせながら、進捗をiPhoneで確認して追加指示を出す——そんな使い方がこれからの標準になりそうです。会話はすべてのデバイスでリアルタイムに同期され、ネットワーク切断やスリープ後も自動で再接続してくれます。
セキュリティ面では、ローカルのClaude CodeはアウトバウンドのHTTPSリクエストのみを発行します。つまり外部からPCへのインバウンド接続を受け付けるポートは一切開かず、スマホとPC間のメッセージはAnthropicのAPIサーバーを経由してTLS暗号化でやりとりされます。認証トークンは用途ごとに分かれた短命なもので、自分のPCが直接インターネットに晒されることはありません。
Remote Controlの使い方3ステップで始められる
設定はとてもシンプルです。Claude Code v2.1.52以上が必要なので、古い場合はclaude updateでアップデートしましょう。
- プロジェクトディレクトリでClaude Codeを起動し、/rcコマンドを実行するとターミナルにセッションURLとQRコードが表示されます。
- スマホのClaudeアプリでQRコードを読み取るか、URLを開くと「コード」タブにセッションが自動表示されます。
- あとはスマホからチャットで指示を出すだけです。PCとスマホのチャットはリアルタイムで同期されます。
毎回コマンドを打つのが面倒な場合は、/configコマンドから「Enable Remote Control for all sessions」をtrueに設定しておくと、以降のすべてのセッションが自動的にRemote Control対応になります。VS Codeのターミナルから起動するとエラーが出る場合があるので、その際は通常のターミナルから起動してください。
なぜ利用データの可視化が必要なのか?「コスト爆発」を防ぐために
Remote Controlで開発の自由度が格段に上がった一方で、気をつけなければならないのがコストと利用量の管理です。スマホからも気軽に指示が出せるようになった分、知らず知らずのうちにトークンを消費しすぎてしまうリスクが高まっています。
特にチームでClaude Codeを使っている場合、「誰がどれだけ使っているか」「どのモデルにコストが集中しているか」がわからないと、月末に予想外の請求が来たり、コスパの悪いプランを使い続けてしまったりする可能性があります。Datadogのブログでも、週次のスパイクコストを早期発見するためにテレメトリ監視が不可欠だと強調されています。
利用データを可視化することで次のような問いに答えられるようになります。エンジニアが実際に使っているかどうか、どのチームが最も価値を引き出しているか、機能1つあたりの実際のコストはいくらか——こうした問いに答えられて初めて、AIツール投資の費用対効果を正確に評価できるのです。
Claude Code利用データの収集方法OpenTelemetryが最強の選択肢
利用データを収集する方法としてよく知られているのはccusageというツールです。コマンド一発で利用状況をJSON出力できて便利なのですが、数百名規模のチームで定期的に全員から収集しようとすると運用負荷が高く、実際にZOZOも「定期的な実施は厳しい」という結論に至っています。
そこで現在のベストプラクティスとなっているのが、Claude CodeのOpenTelemetry(OTel)出力機能です。LLM APIのコールやユーザーのプロンプト入力などのイベントを、設定したエンドポイントに対してOpenTelemetry仕様で自動送信してくれます。社員が何もしなくても、設定ファイルを配布するだけでデータが集まってくるのが最大のメリットです。
テレメトリ機能はデフォルトでオフになっており、明示的に設定が必要です。有効化には次の環境変数を設定します。
- CLAUDE_CODE_ENABLE_TELEMETRY=1テレメトリ出力を有効化する必須の変数です。
- OTEL_METRICS_EXPORTERotlp(一般的なエンドポイント送信)、prometheus、consoleから選択します。
- OTEL_LOGS_EXPORTERイベントログの送信先をotlpまたはconsoleで指定します。
- OTEL_EXPORTER_OTLP_ENDPOINTデータを受け取るコレクターのアドレスを指定します。
チームへの一括配布にはMDMツールが使えます。ZOZOはIntune経由でJSONファイルを全社員のPCに配置し、「Managed settings」として最優先の設定ファイルとして認識させています。この仕組みを使えば、個々の社員に設定を依頼する必要がなく、漏れなくデータを集められます。
デバッグ時の便利な設定コンソール出力で動作確認
まず設定が正しく動いているか確認したい場合は、コンソール出力モードが便利です。OTEL_METRICS_EXPORTER=consoleとOTEL_METRIC_EXPORT_INTERVAL=1000(1秒間隔)を設定してClaude Codeを起動すると、ターミナルにリアルタイムでメトリクスが流れてきます。本番運用時はデフォルトのメトリクス60秒・ログ5秒間隔に戻しておきましょう。
Claude Codeが収集できる利用データの種類と見方
OpenTelemetryで収集できるデータは大きく「メトリクス(Metrics)」と「イベント(Events)」の2種類に分かれます。
メトリクスは「どれだけ使ったか」を示す累積カウンターやゲージです。トークン使用量(入力・出力・キャッシュ作成・キャッシュ読み込みの4種類)、APIコストのドル換算値、アクティブセッション数、変更コード行数などが含まれます。メトリクスはデフォルトで60秒ごとにエクスポートされます。
イベントは「何が起きたか」を記録するスナップショットです。ユーザーがプロンプトを送信した瞬間(claude_code.user_prompt)、APIリクエストが完了した瞬間(claude_code.api_request)、ツールの実行が完了した瞬間(claude_code.tool_result)などが記録されます。重要なのはprompt.idという属性で、1つのプロンプトが複数のAPIコールやツール実行を引き起こした場合でも、すべてのイベントを1つのプロンプトに紐づけて追跡できます。
なお、プライバシー保護の観点から、プロンプトの本文はデフォルトでは収集されません。プロンプト文字数のみが取得されます。本文も収集したい場合はOTEL_LOG_USER_PROMPTS=1を設定する必要があります。チームへの展開時はこの点を事前に社員に説明しておくことが大切です。
特に注目すべき主要メトリクス一覧
| メトリクス名 | 内容 | 活用シーン |
|---|---|---|
| claude_code.token.usage | トークン使用量(種類別) | コスト最適化・キャッシュ効率の改善 |
| claude_code.cost.usage | APIコスト(USD換算) | 月次予算管理・プラン選択の判断 |
| claude_code.lines_of_code.count | 変更コード行数 | 生産性指標・PR件数との相関分析 |
| claude_code.session.count | セッション数 | 利用率の把握・チーム別比較 |
| claude_code.api_request(イベント) | APIリクエストの詳細 | レイテンシ分析・エラー率の把握 |
データの可視化ツールGrafanaかDatadogか、それとも?
収集したテレメトリデータを活用するには、可視化ツールとの連携が不可欠です。OpenTelemetryはベンダーニュートラルな標準規格なので、一度設定すれば好きなバックエンドに送れます。
Grafana+Prometheus構成は最も広く使われている組み合わせです。GitHubには公式も認めるDocker Compose構成がいくつか公開されており、セットアップ済みのダッシュボードも付いています。無料から始められるGrafana Cloudを使えば、サーバー管理不要で手軽に始められます。ただしPromQLでのダッシュボード構築には一定の学習コストがかかる点は覚悟が必要です。
DatadogはAI Agents Consoleという専用機能でClaude Codeのテレメトリを受け取り、ダッシュボード化できます。ユーザー別・モデル別のコスト分析、レイテンシのパーセンタイル表示、エラー率の可視化など、エンタープライズ向けの機能が充実しています。すでにDatadogを導入している組織はこちらが最も手軽でしょう。
BigQuery+Google Cloud構成はZOZOが採用した方法で、Cloud RunにOSS版OpenTelemetry Collectorを置き、Cloud LoggingとCloud Metricsに転送してからBigQueryで分析します。既存のデータ基盤にClaude Codeの利用データも組み込めるので、他のKPIと横断的な分析ができます。kintoneの組織図情報と組み合わせて「どの部署がClaude Codeをよく使っているか」を可視化するという活用事例も紹介されています。
長期間のデータを保持したい場合はVictoriaMetricsも有力な選択肢です。Prometheusより長期ストレージに強く、1年以上のメトリクスを保持したいDevOpsエンジニアに人気があります。ただし、VictoriaMetricsでOpenTelemetryデータを受け取る際はopentelemetry.usePrometheusNamingフラグを有効にしないと、ドット記法のメトリクス名がPromQL形式のダッシュボードと合わずハマるので注意してください。
利用データを活用した実践事例プラン最適化とROI測定
データを集めるだけでは意味がありません。実際にどう使うかがカギです。ZOZOではapi_requestイベントのcost_usdフィールドを集計して、各社員に最も適したプランをアナウンスするという実用的な活用をしています。利用量が少ない人はProプランや従量課金に、ヘビーユーザーはMaxプランに移行してもらうことで、全社のコストを最適化しているのです。
ROI測定の観点では、Anthropicの調査でClaude Codeの会話の79%が自動化タスクに費やされているというデータがあります。セッション数とPRの件数を掛け合わせた「セッション→完成した作業」のコンバージョン率、コード変更行数とコミット頻度の相関、コスト÷PR件数で算出した「PR1件あたりのAIコスト」などが生産性指標として機能します。
Remote Controlを使い始めたことでトークン使用量が増えたという場合は、キャッシュ効率(cacheRead÷全トークン比率)に注目しましょう。同じプロジェクト内での作業が多い場合、コンテキストの再利用が進んでキャッシュヒット率が上がれば、コストは実際には増えにくくなります。Grafanaのダッシュボードでキャッシュ効率を継続的に監視することで、プロンプトの書き方改善のヒントも得られます。
現場でよく起きるRemote Controlのトラブルと、実体験から学んだ解決策

AIのイメージ
Remote Controlは便利な反面、使い始めてすぐに「あれ、なんかうまくいかない」となるシーンが意外と多いです。公式ドキュメントには書いていない現場感覚の話を、実体験ベースで整理しておきます。
「Remote Control is not enabled for your account」エラーが出る問題は、正しいプランに加入しているはずなのに起動時に弾かれるというもので、驚くほど多くの人がハマっています。解決策は拍子抜けするほど簡単で、Claude Codeターミナルアプリから一度ログアウトして再ログインするだけです。設定キャッシュが古いままになっていることが原因で、再ログインで99%解消されます。焦らずまずこれを試してください。
VS Codeのターミナルから起動するとエラーになるという問題も頻出です。Remote Controlはターミナルエミュレータの種類に依存する部分があり、VS Code内蔵のターミナルだと動作しないケースが報告されています。iTermやmacOSデフォルトのターミナル.appなど、独立したターミナルアプリから起動するとあっさり解決します。
10分間ネットワークが途切れるとセッションがタイムアウトするのは仕様です。新幹線の中でトンネルを通過したり、会社のWi-Fiがちょっと不安定だったりするとセッションが切れてしまいます。ただし、PC側のClaudeプロセス自体は生きているため、再度claude remote-control(またはclaude rc)を実行すれば新しいURLが発行されてすぐに再接続できます。長距離移動中の利用時は「切れたらrc打ち直す」を前提にしておくのが精神的に楽です。
–dangerously-skip-permissionsフラグとRemote Controlの組み合わせが現状機能しないという問題もあります。Remote Control有効時は、PCへの操作の承認がスキップされず、すべてのアクション実行時に確認を求められます。スマホから「あとはよろしく」と放置しておけば全自動で動いてくれると思っていると、いつまでも待機中になっていた、という体験をする人が続出しています。Remote Control利用時は「定期的に確認して承認する」前提でワークフローを組みましょう。
Claudeだからできる!利用データ分析を加速する実践プロンプト集
OpenTelemetryで利用データを集めたあと、「で、これをどう解釈すればいいんだ?」という壁にぶつかりがちです。ここがまさにClaude自身に分析を任せる絶好のタイミングです。AIが生成したデータをAIに分析させるという、まさに「Claude in Claude」的な使い方です。
キャッシュ効率を診断するプロンプトは次のように使えます。テレメトリから取得したトークンデータをClaude Codeに貼り付けて、「以下の30日間のトークン使用データを分析して。cacheReadトークンの割合が低い時間帯や操作パターンを特定し、キャッシュヒット率を上げるためのCLAUDE.md改善案を3つ提案して。」と頼むだけで、プロンプトエンジニアリングの改善点が即座に出てきます。cacheReadトークンは通常のinputトークンの約90%コスト削減になるため、ここを改善するだけでコストが大きく変わります。
チームの利用パターン異常を検出するプロンプトも有用です。BigQueryやGrafanaから週次のユーザー別コストデータをCSVで書き出し、「このCSVデータから、先週比でコストが150%以上増加しているユーザーを抽出して。増加の原因として考えられるパターン(長時間セッション、claude-opusモデルへの切り替え、大量のツール実行など)をapi_requestのモデル別集計と合わせて推測し、そのユーザーへの声がけ文例も生成して。」と投げると、管理者が手作業でやると半日かかる作業が数分で終わります。
月次ROIレポートを自動生成するプロンプトは、Anthropicの公式monitoring-guideリポジトリでも推奨されています。プロンプトのテンプレートとしては、「以下の指標を使ってClaude Codeの月次ROIレポートを作成して。入力トータルコスト[X]ドル、セッション数[Y]件、変更コード行数[Z]行、PR件数[W]件、エンジニア平均時給[V]ドル。比較対象Claude Code導入前の同月のPR件数と平均リードタイム。出力経営陣向けの1ページサマリーと、エンジニアチームへの詳細内訳をMarkdown形式で。」という構成が実用的です。
think / think hard / think harder / ultrathinkのコスト影響を評価するプロンプトも知っておくと役立ちます。トークンデータを渡して「過去1ヶ月のapi_requestイベントから、プロンプトに”think”系キーワードが含まれる割合と、その際のoutputトークン数の増加率を通常リクエストと比較して。ultrathinkを使うべき場面と、使わなくていい場面のガイドラインを作って。」と頼むと、チームのプロンプト品質改善に使えるガイドラインが生成されます。
Remote Controlとテレメトリを組み合わせた、次世代の開発ワークフロー設計
Remote ControlとOpenTelemetryを単独で使うのではなく、組み合わせることで生まれる新しいワークフローを設計してみましょう。これが現在、最も先端を走る開発者たちが実践していることです。
ワークフローの基本パターンは「投げて、離れて、監視して、戻る」です。PCで重たいリファクタリングタスクを投げる、Remote Controlをオンにしてその場を離れる、スマホのGrafanaダッシュボードでトークン消費量を横目で見ながら別の仕事をする、コスト異常アラートが鳴ったらスマホからClaude Codeを確認して必要なら指示を修正する——このサイクルを回せるようになると、開発の生産性は体感で倍以上になります。
キャッシュ読み込みトークンは通常のinputトークンより約90%コストが低いという事実を踏まえると、Remote Control利用中にキャッシュ効率が落ちていないかをリアルタイムで監視する価値は非常に高いです。特に、スマホからの追加指示が増えると文脈が断片化してキャッシュヒット率が下がるリスクがあります。Grafanaにキャッシュ効率パネルを1つ追加しておくだけで、「今の指示の出し方はコスパが悪い」と気づくことができます。
Cowork(スケジュールタスク機能)との使い分けも意識しておきたいポイントです。Remote ControlはローカルPCが起動していることが前提ですが、2026年2月に同時リリースされたCoworkのスケジュール機能を使えば「PCが起きている間に自動実行」ができます。ただしCoworkもPCのスリープ中は動かないという制限があります。完全なサーバーレス・オフライン実行はまだ実現していないので、長時間放置したい作業はリモートサーバーにClaudeをデプロイするか、PCのスリープを無効にしておく必要があります。この点はコミュニティでも「Cowork Cloud版」を望む声が上がっており、今後の対応が期待されています。
利用データから読み解く、プラン選択の正しい判断基準
テレメトリデータで最もすぐに役立つ実用的な活用は、自分(またはチームメンバー)に合ったプランを選ぶことです。ZOZOが実際に運用している方法と、個人開発者向けの判断基準を整理します。
従量課金(APIキー課金)が向いている人は、1日のClaude Code利用時間が2〜3時間以下、特定の作業に集中してバースト的に使う傾向がある、月のコストが$20未満に収まるという条件が揃っている場合です。テレメトリのclaude_code.cost.usageメトリクスを1ヶ月集計してみて、$20以下ならProプラン(定額)よりも従量課金のほうがコスパが良い計算になります。
Proプラン($20/月)が向いている人は、1日1〜3時間程度の利用で月次コストが$15〜$25前後に安定している場合です。Remote Controlを使って隙間時間にもアクセスする機会が増えると利用頻度が上がるので、従量課金から移行するタイミングはテレメトリで判断するのが一番正確です。
Maxプラン($100/$200/月)が向いている人は、1日4時間以上Claude Codeを動かしている、claude-opusモデルを頻繁に使う、Remote Controlで隙間時間の利用も含めると一日の稼働時間がかなり長い、という状態の人です。テレメトリのコストデータを確認して月額$60を超えてきたら、$100のMax 5xプランへの移行を検討するサインです。
| 月間APIコスト(テレメトリ実績) | 推奨プラン | 節約効果の目安 |
|---|---|---|
| $20未満 | 従量課金(APIキー) | プランより安く済む可能性大 |
| $20〜$60 | Pro($20/月) | 定額の安心感+最大$40節約 |
| $60〜$120 | Max 5x($100/月) | 最大$20節約+利用制限なし |
| $120以上 | Max 20x($200/月) | ヘビーユーザーの安全圏 |
テレメトリ収集時に見落としがちなプライバシーとセキュリティの落とし穴
「テレメトリを設定した、データが集まった、ダッシュボードを作った」で満足して終わってしまうと、後から思わぬ問題に直面することがあります。特にチーム運用時には必ず事前に確認しておきたいポイントがあります。
まずtool_parametersフィールドにはbashコマンドやファイルパスが含まれる点に注意が必要です。たとえば、エンジニアがClaude Codeを使ってデータベース操作を行った場合、そのSQLコマンドのパスやデータベース名がテレメトリとして流れることがあります。シークレットや認証情報が混入するリスクがあるため、OpenTelemetry Collectorの設定でtool_parametersフィールドをフィルタリングまたはマスクする処理を入れておくことが推奨されています。
次にuser.emailの扱いです。OAuthで認証している場合、テレメトリのリソース属性にuser.emailが含まれます。これはユーザーを特定してコストを把握するために便利な情報ですが、GDPRや個人情報保護法の観点から、社員に事前に「このデータを収集する」と明示することが必要です。ZOZOが「プロンプトの本文は文字数のみを取得する」という設計にしたのも、このプライバシー配慮が理由です。
また、テレメトリの保存期間と削除ポリシーを決めておくことも大切です。Cloud Loggingのデフォルトは30日で自動削除されますが、ZOZOはClaude Code専用のログバケットを作成して保持期限を延長しています。一方で長期保存するほどストレージコストが増え、プライバシーリスクも高まります。90日〜1年程度が実用的なバランスとして多くの組織で採用されています。
ぶっちゃけこうした方がいい!
ここまで読んできて、「結局どこから手をつければいいの?」という気持ちになっている人も多いと思います。正直に言います。
最初からGrafana+Prometheus+OpenTelemetry Collectorのフルスタックを自力で組もうとしなくていいです。本当に。それ、半日以上かかるし、最初のセットアップで詰まって「やっぱり面倒くさい」ってなる人を何人も見てきました。
個人開発者なら、まずGrafana Cloudの無料枠に直接つなぐのが一番楽です。Docker Composeもサーバーも要らない。Grafana Cloudのポータルでトークンを作って、OTEL_EXPORTER_OTLP_ENDPOINTにそのエンドポイントを設定するだけで5分もあればデータが流れ始めます。ダッシュボードも「Claude Code Monitoring」テンプレートを使えば一発です。凝った構成は後からいくらでも変えられるので、まず「データが見える状態」を作ることが最優先です。
チーム導入なら、Datadogをすでに使っているかどうかで答えが決まります。Datadogを使っているなら迷わずそちらのAI Agents Consoleに繋ぎましょう。既存のアラートポリシーやダッシュボードと統合できて、追加の学習コストがほぼゼロです。Datadog未使用の組織は、ZOZOの事例に学んでBigQuery+Cloud Loggingに寄せると、既存のデータ基盤と組み合わせられて中長期の分析が強くなります。
それよりもっと重要なことを言うと、テレメトリを設定しないまま使い続けることのほうが、よっぽど危険です。Remote Controlで隙間時間にも指示が出せるようになった今、気づいたら月に何十ドルも余計に払っていた、なんてことが普通に起きます。コストの見えないAIツールは、使えば使うほど家計や経営を圧迫するブラックホールになりかねません。
個人的に一番効いたと思うのは、まずconsoleモードでテレメトリを10分流して、自分のざっくりとした1セッションあたりのコストを把握することです。それだけで「このプロンプトの出し方は無駄が多いな」「ultrathinkを使いすぎてる」という実感が生まれます。感覚を持ってから本格的な可視化ツールを入れると、何を見ればいいかが明確になって格段に活かせます。
データは集めること自体が目的じゃなく、行動を変えるために使うものです。Remote Controlでどこからでも開発できる時代に、コストと生産性の両方をリアルタイムで把握できる開発者とそうでない開発者の差は、これからどんどん開いていくはずです。
Claude CodeのRemote利用データに関するよくある疑問
Remote Controlを使うと利用データが増えますか?セキュリティは大丈夫ですか?
Remote ControlはあくまでローカルPCのセッションをスマホからリモート操作するものなので、APIリクエスト自体はローカルPCから発行されます。スマホからの指示が追加されるため、その分プロンプト数は増えますがモデルへのAPIコールはローカルPC上で処理されます。通信はすべてHTTPS(TLS)で暗号化されており、ローカルPCがインターネットに直接晒されることはありません。また、接続できるリモートセッションは同時に1つのみという制限もあります。
OpenTelemetryで収集したデータにプロンプトの内容も含まれますか?
デフォルトではプロンプトの本文は収集されず、文字数のみが記録されます。本文を含めたい場合はOTEL_LOG_USER_PROMPTS=1という環境変数を明示的に設定する必要があります。ツール実行イベントのtool_parametersフィールドにはbashコマンドやファイルパスが含まれる場合があり、シークレット情報が入り込む可能性があるため、テレメトリバックエンド側でフィルタリングや難読化を設定しておくことが推奨されています。
ccusageとOpenTelemetryどちらを使えばいいですか?
個人や数名程度の小規模チームでたまに使用量を確認したいだけならccusageで十分です。コマンド一発でJSON出力できて扱いやすいです。一方、数十名以上のチームで継続的なモニタリングを自動化したい場合はOpenTelemetry一択です。MDMツールで設定を一括配布すれば社員が何もしなくてもデータが自動的に集まり、Grafanaなどのダッシュボードでリアルタイム分析もできます。
どのプランでRemote Controlとテレメトリ機能が使えますか?
2026年3月6日の全プラン解禁以降、Pro・Max・Team・EnterpriseのすべてのプランでRemote Controlが利用可能になりました。OpenTelemetryのテレメトリ機能はプランに関わらず設定できますが、エクスポート先のバックエンド(GrafanaやDatadog)は別途契約が必要です。Grafana Cloudは無料枠があるので個人や小規模チームの試験導入にはちょうどいいです。
まとめ
Claude CodeのRemote Control機能は2026年3月6日に全プラン開放され、スマホからローカルセッションを操作できる新しい開発スタイルが誰にでも手の届くものになりました。この利便性を最大限に活かしながらコストを管理するには、OpenTelemetryによる利用データの収集と可視化が不可欠です。
まずはCLAUDE_CODE_ENABLE_TELEMETRY=1を設定してコンソール出力でデータが流れることを確認し、次にGrafana CloudやDatadogなど既存のスタックに合ったバックエンドと繋いでみましょう。個人ならGrafana Cloud無料枠、チームならDatadogやBigQueryが現実的な選択肢です。
利用データを読めるようになると、「どのエンジニアがClaude Codeから最も価値を引き出しているか」「どのモデルに無駄なコストが集中しているか」「Remote Controlを使い始めたことで本当に生産性が上がっているか」といった問いに、数字で答えられるようになります。AIツール投資の費用対効果を証明できるチームが、これからの開発組織の中心になっていくはずです。


コメント