「またコンパクションが起きた…」「せっかく積み上げた文脈が消えた…」そんな経験、Claude Codeを使い込んでいる人なら誰もが通る道だったはずです。でも今は違います。2026年3月13日、AnthropicはClaude Opus 4.6とSonnet 4.6の1Mトークンコンテキストウィンドウを追加料金なしで正式リリースしました。「デカいだけで使えない」と思っていた人も、この記事を読み終えたら考えが変わるはずです。
- Claude 1Mコンテキストが特に効果を発揮する7つの具体的な作業シーンと選び方の基準
- 2026年3月最新の料金体系・精度ベンチマーク・競合比較の最新情報
- 1Mコンテキストを使いこなすための実践的なコスト管理と注意すべき落とし穴
- そもそも1Mトークンってどれくらいのデータ量なの?
- 精度は本当に上がっているの?競合との比較データを見てみよう
- Claude 1Mコンテキストが本領発揮する7つの作業
- 1Mトークンを使う前に知っておくべきコスト計算の現実
- 自分のプランで1Mを使えるのかを確認しよう
- 「コンテキストロット」という現実問題——1Mでも起きる劣化の正体
- 現場でよく困る「あるある問題」と即効性のある対処法
- Claude 1Mコンテキストを活かすプロンプトの実践集
- 1Mコンテキストの「隠れたコスト」を把握しよう
- 「長く使えばいいわけじゃない」——セッション設計の新しい常識
- ぶっちゃけこうした方がいい!
- Claude 1Mコンテキストに関するよくある疑問を解決!
- まとめ
そもそも1Mトークンってどれくらいのデータ量なの?

AIのイメージ
まず規模感を正確に把握しておきましょう。1Mトークンは約75万語、英語換算でA4用紙1,000〜2,000枚分、小説4〜5冊分に相当します。日本語はトークン効率が少し落ちるため、実際の日本語テキストでは700〜800枚相当と考えるとイメージしやすいです。
200Kトークン時代は「コンテキストを圧縮するため、どのファイルを読み込むか常に取捨選択しなければならなかった」という制約がありました。開発者のAnton Biryukov氏(Ramp社)が語ったように、Claude CodeはDatadog・Braintrust・データベース・ソースコードを横断して検索するだけで100K超のトークンを消費してしまい、すぐにコンパクションが発動するという問題が日常的に起きていたのです。
1Mトークンでは約83万トークンが実質的な作業スペースとして使えます。中規模プロジェクト全体のソースコード、関連ドキュメント一式、それに加えて長時間のエージェントが積み上げたツール呼び出しの履歴まで、すべてを1つのウィンドウに収められます。5倍の空間という数字以上に、「切り捨てる必要がなくなる」という質的な変化が実務に効いてきます。
精度は本当に上がっているの?競合との比較データを見てみよう
「巨大なホワイトボードでも読めなければ意味がない」というのは正論です。Anthropicが公開したMRCR v2(Multi-Round Coreference Resolution)ベンチマークでは、1Mトークン地点でのスコアがこう出ています。
| モデル | MRCR v2スコア(1Mトークン時) |
|---|---|
| Claude Opus 4.6 | 78.3% |
| Claude Sonnet 4.6(GraphWalks BFS) | 68.4% |
| Gemini 3.1 Pro | 26.3% |
| 旧Claude最高スコア | 18.5% |
MRCRとは「文章中の登場人物・変数・エンティティを何万トークンも離れた場所で参照したとき、正しく追跡できるか」を測るテストです。Opus 4.6は旧モデル比で約4倍の事実検索精度を達成しており、Geminiの約3倍という結果になっています。独立した第三者検証はまだ進行中ですが、実際にClaude Codeで50万トークン規模のセッションを試したエンジニアたちから「コンパクション前と後で回答品質に差が出なかった」という報告が相次いでいます。ただし一部では「early contextで決定したことを後から無視する」という「dumb zone」問題も報告されているため、過信は禁物です。
Claude 1Mコンテキストが本領発揮する7つの作業
では具体的にどんな作業で真価を発揮するのかを見ていきましょう。重要なのは「大きければ使えばいい」ではなく、「その作業がコンテキストの連続性を必要としているか」という視点で判断することです。
①大規模コードベース全体を俯瞰しての開発・レビュー
法律テック企業のDevinレビューエージェントを手がけるチームは、「200Kでは大きなdiffが収まりきらず、ファイル横断の依存関係が失われていた」と語っています。1Mに切り替えることでdiff全体を一度に渡せるようになり、チャンク分割のオーバーヘッドと品質ロスが同時に解消されました。モノレポ・マルチモジュール構成のプロジェクトで、APIレイヤーとフロントエンドを同時に見ながら整合性をチェックするような作業は、まさに1Mが「ちょうどいい」シーンです。
②15ファイル以上にまたがる深いデバッグセッション
バグを追いかけているとき、スタックトレース・再現手順・失敗した仮説・試したパッチの記録、これらはすべて「文脈」です。コンパクションが起きるとこの文脈が真っ先に消えます。1Mウィンドウなら「なぜこのアプローチを試みたか」という思考過程を最初から最後まで保持できるので、同じ方向を2度試す無駄がなくなります。
③法務・コンプライアンス文書の横断分析
訴訟案件を扱う法律AIプラットフォーム「Eve」は、400ページに及ぶ証言録取書や案件全体のファイルを横断的に参照するため、デフォルトで1Mコンテキストを使用していると発表しています。従来は高額なベクターデータベースとチャンキング戦略が必要でしたが、大量の文書を1回のAPIコールに収められるようになったことで、文書間の関連性を見落とすリスクが大幅に低下しました。契約書の特定条文を正確に引用しながら矛盾を検出するような作業では、チャンク分割による「隙間落ち」が致命的になりかねないため、1Mの恩恵は大きいです。
④数百本の論文を同時に参照する学術研究支援
科学的発見を加速するAIシステムを開発しているチームは、研究文献・数学的フレームワーク・データベース・シミュレーションコードを同時に処理するために1Mコンテキストが不可欠だと述べています。文献レビュー50本分、それぞれの引用文献、補足資料を一つのコンテキストに入れて「この3つの論文で共通して言及されている手法は?」と問うことが、RAGなしで実現できます。
⑤マルチエージェント・オーケストレーション
Claude Code Agent Teamsを使った並列開発において、チームリードエージェントは各サブエージェントからの報告を集約し続けます。200Kでは20〜30分のマルチエージェントセッションでオーケストレーター側のコンテキストが底をついていましたが、1Mでは全エージェントの報告・ツール呼び出し結果・中間推論をコンパクションなしで保持できます。Rust製Cコンパイラを16並列Claudeで構築したNicholas Carlini氏らのプロジェクトも、この文脈拡張の恩恵を受けた典型例です。
⑥本番インシデント対応・大規模システムのデバッグ
大規模分散システムのオンコール対応を支援するツールは、「最初のアラートから修復完了まで、すべてのエンティティ・シグナル・作業仮説を視野に保ち続けられる」と評価しています。ログ、メトリクス、過去の類似インシデント、ランブック、コードの変更履歴。これらを分割せずに一度に渡せることで、「コンパクションのせいで重要な手がかりを見逃す」という問題がなくなります。
⑦長期会話・顧客サポートボットの深い文脈維持
チャットボットや長期にわたるコンサルティング型の会話において、過去の会話履歴をすべて保持しながら一貫性のある回答を返すことは、ユーザー体験に直結します。1Mコンテキストは「また最初から説明させてください」という煩わしさを大幅に削減します。特に顧客の過去の購入履歴・問い合わせ記録・個別の設定情報が何十回分も蓄積しているケースでは、従来のウィンドウサイズでは実現できなかった精度の応答が可能になります。
1Mトークンを使う前に知っておくべきコスト計算の現実
2026年3月13日のGA(正式リリース)から、Opus 4.6は100万入力トークンあたり$5、100万出力トークンあたり$25という標準料金が全コンテキスト長で均一適用されています。以前あった「200Kを超えたら2倍になる長コンテキスト課金」は撤廃されました。Sonnet 4.6は入力$3・出力$15です。
これは朗報ですが、注意すべき点があります。1Mトークンフルに使えば1リクエストだけで$5かかります。エージェントが1日10回のHEARTBEATチェックをこなす設定で、そのたびに100万トークン分のコンテキストを詰め込んでいたら1日$50・月1,500ドルになりかねません。
実用的なルールとして、「1日に複数回実行するルーティンタスクはコンテキストをスリム化し、週次の深掘り分析や手動でトリガーする大型作業に1Mを使う」という使い分けが推奨されています。同じドキュメントセットを繰り返し参照するアプリではContext Caching(コンテキストキャッシュ)機能を使うとコストが大幅に下がります。最初のアップロードは通常料金ですが、同じキャッシュへの2回目以降のクエリは割引されます。
自分のプランで1Mを使えるのかを確認しよう
利用可能なプランと方法は次のとおりです。Claude Max・Team・Enterpriseプランのユーザーは、Opus 4.6で自動的に1Mコンテキストが有効になっており、設定変更は不要です。ProプランのユーザーはClaude Code内で/extra-usageと入力することでオプトインできます(自動では有効にならない点に注意)。APIユーザーは、Opus 4.6とSonnet 4.6ではベータヘッダーなしに200Kを超えるリクエストが自動で処理されます。さらにAnthropicは2026年3月の期間限定で全プランにボーナス使用量を提供しているため、この機会に試してみるのも良いでしょう。Claude Platform、Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundryの全プラットフォームで利用できます。
「コンテキストロット」という現実問題——1Mでも起きる劣化の正体

AIのイメージ
1Mコンテキストになって「もう安心!」と思いたいところですが、現場で実際に使い込むと一つの壁にぶつかります。それが「コンテキストロット(Context Rot)」です。直訳すれば「文脈の腐敗」。大きなウィンドウを持っていても、詰め込んだ情報量が増えるほどAIが劣化していく現象です。
スタンフォード大学の研究(Liu et al., TACL 2024「Lost in the Middle」)が明らかにしたのは、LLMはコンテキストの先頭と末尾にある情報は正確に参照できるが、中間に埋まった情報の精度は15〜47%も落ちるという事実です。1Mになっても、この「中間劣化」の物理的な性質は変わりません。ウィンドウが広がっただけで、「中間」と呼ばれる領域も5倍に広がったということです。
実際にClaude Codeを数時間使い続けた開発者たちが口を揃えて言う体験があります。「さっきキャメルケースを使うよう指示したのに、また別の命名規則でコードを書いてきた」「30分前に却下したアプローチを、また自信満々に提案してきた」。これはClaudeが「バカになった」わけではなく、コンテキスト内に蓄積した矛盾・失敗した試み・関係ない横道の情報が「ノイズ」として信号を薄めているからです。
Chroma Researchの調査では、18種のLLMすべてがコンテキスト拡大とともに性能劣化を示し、200Kトークンを公称するモデルが実質的に信頼できるのは130K程度までという結果が出ています。1Mコンテキストが登場しても、コンテキストロットは「より遅く来るようになった問題」であって、「消えた問題」ではないのです。
コンテキストロットが起きているサインを見逃さないで
実務の中でよく遭遇するのに「なんかおかしいな」で済ませてしまいがちな兆候が3つあります。
- さっき読み込んだファイルの内容をもう一度「読んでいいですか?」と聞いてくる(セッション前半で既に読んでいる)
- 以前の会話で明確に否定した設計パターンや実装方法を再提案してくる
- CLAUDE.mdに書いたはずのルールや制約を無視したコードを生成する
これらが連続して起きたら、コンテキストはすでに60〜70%を超えていると見てよいです。実際の劣化は80%のコンパクションが起きる前から静かに始まっているのがやっかいなところです。Claude Code上級者の間では「コンパクションが起きたらもう遅い。60%で手を打て」というのが経験則になっています。
現場でよく困る「あるある問題」と即効性のある対処法
ここからは、実際の開発現場で体験ベースでよく出てくる問題と、その解決策を具体的に話していきます。
問題①CLAUDE.mdのルールをClaudeがセッション途中から守らなくなる
これは多くの人が経験しているはずです。最初は「TypeScriptのstrictモードを使って」「コミットは自分でする」とCLAUDE.mdに書いてあるのをきちんと読んでいるのに、1時間後には普通にJavaScriptで書いてきたり、勝手にgit commitしてきたりする。
原因はCLAUDE.mdがシステムプロンプトとして毎回注入されているのに、コンテキストの大半が会話履歴と出力結果で占められると相対的にCLAUDE.mdへの「注意」が薄れるからです。解決策は2つあります。1つ目はCLAUDE.mdを徹底的に短くすること。1行あたりのトークンが少ないほど、他の情報に埋もれにくくなります。2つ目は、セッション途中でルールが守られなくなったと感じたら「CLAUDE.mdの制約を確認して、今の作業に照らし合わせてください」と明示的に呼び戻すプロンプトを打つことです。
問題②長いデバッグセッションで「さっきと逆のことを言ってくる」
複雑なバグを2〜3時間追いかけているとき、最初に「このアプローチはやめよう」と決めたはずなのに、コンテキストが半分を超えたころから「実はこのアプローチの方が良いかもしれません」と蒸し返してくる。これは研究者が「dumb zone」と呼ぶ現象で、コンテキストの前半で下した判断が後半では参照精度が落ちるため、決定が上書きされたように見えるのが原因です。
対処法として効果的なのは「重要な決定をその場でファイルに書き出す」習慣です。「このアプローチは採用しない。理由〇〇。代わりに△△を使う」という一文をdecisions.mdに追記していく。これはコンテキストではなくファイルシステムに残るため、セッションをまたいでも参照できます。
問題③エラーのスタックトレースを貼りすぎてコンテキストが爆速で埋まる
本番環境のインシデント対応で、エラーログを次々と貼り付けて分析してもらっていたら、1時間もしないうちにコンパクションが発動した。これは開発者から最もよく聞く「やらかし」です。エラーログ・テスト結果・ビルドの出力はトークン消費が凄まじく、200Kの半分くらいは余裕で使います。
解決策は長い出力系の作業をサブエージェントに切り出すことです。「このログファイルを読んで、エラーパターンを3行にまとめて報告して」とサブエージェントに投げれば、生ログはサブエージェントのコンテキストに留まり、親には要約だけが返ります。これだけでコンテキスト消費を劇的に抑えられます。
Claude 1Mコンテキストを活かすプロンプトの実践集
ここでは、1Mコンテキストの特性を生かすための具体的なプロンプトを紹介します。これらはClaude特有の性質(XMLタグへの反応、長文への精度、役割設定の深度)を活かして設計しています。
プロンプト①大規模コードベース全体分析の依頼テンプレート
「以下のコードベース全体を読み込んでください。分析が終わったら、以下の4点について報告してください(1)アーキテクチャ上の設計課題 (2)ファイル間の循環依存 (3)セキュリティ上のリスクがある箇所 (4)テストカバレッジが薄いモジュール。報告は必ず <findings> タグで囲み、各項目を <item priority=”high/medium/low”> で分類してください。」
このプロンプトの要点は、最初にアウトプット形式を宣言することです。Claudeは長いコンテキストを読み込んだあと「どこから答えればいいか」で迷うことがあります。XMLタグで構造を指定することで、100万トークン分の分析結果を整理された形で受け取れます。
プロンプト②長時間デバッグセッションのコンテキスト保護プロンプト
「今から複雑なバグの追跡を始めます。セッションを通じて以下のルールを守ってください(1)ここで合意した設計判断は、後から別の提案をする前に必ず『先ほど〇〇と決めましたが、変更しますか?』と確認を取る (2)失敗したアプローチはその都度 <rejected reason=”理由”>内容</rejected> としてメモしてください (3)コンテキストが長くなったと感じたら、決定事項のサマリーを自分から提示してください。」
このプロンプトはセッションの最初に打つことで、「dumb zone問題」を大幅に軽減できます。Claudeに自己モニタリングを促しているのがポイントです。
プロンプト③複数の論文・文書を横断分析するときの指示テンプレート
「以下の複数の文書を読み込んでから分析を始めてください。全文書の読み込みが完了したら『読み込み完了』と一言だけ返してください。分析の指示はその後に出します。文書間で矛盾する主張がある場合は、必ず <conflict> タグでマークしてください。」
これは「全部読んでから答えさせる」という制御が大事です。大量の文書を入れると、Claudeは読み込みながら途中で考え始めることがあります。「完了してから指示を出す」という2段階構造にすることで、全文書に均等に注意が向いた状態で分析が始まります。
プロンプト④コンテキスト節約型のマルチタスク指示
「以下の5つのタスクを順番に実行してください。各タスクが完了したら、結果を <result task=”タスク番号”> に格納して、次のタスクへ進んでください。作業途中の思考過程や試行錯誤は出力しないでください。最終的に全タスクの結果だけをまとめて返してください。」
「思考過程を出力しない」という一文は地味ですが非常に効果的です。Claudeは指示がないと思考過程を詳細に出力する傾向があり、これが予想外にトークンを消費します。長時間の複数タスクでは、中間出力を抑えるだけでコンテキスト消費を30〜40%削減できることがあります。
1Mコンテキストの「隠れたコスト」を把握しよう
料金が均一化されたとはいえ、1Mコンテキストを使いこなすうえで見落とされがちなコストがいくつかあります。金銭的なコストだけでなく、時間的・認知的なコストも含めて整理しておきましょう。
まずレスポンスの遅延です。1Mトークン近くのコンテキストを処理するには当然時間がかかります。200Kセッションと比べて応答速度が落ちることがあり、リアルタイム性が重要な対話型の作業では体感的なストレスになります。次に「入力が多いほど出力も劣化する可能性」への理解です。1Mのコンテキストにバグのある古いコード・却下された設計案・長い議論の履歴が詰まっていると、シグナルとノイズの比率が下がります。大きなコンテキストウィンドウはトークン上限を遅らせますが、コンテキストロットを防ぎません。問題は容量ではなく、ノイズの蓄積と注意力の希薄化にあります。
そして見落とされがちなのが「トークントラップ」です。ある開発者はCursorの中でClaudeを使用し、1回のAIツール呼び出しでデータベース全体を取得したことで80万トークンを消費した事例が報告されています。エージェントに広いファイルアクセス権限を与えたまま1Mコンテキストに移行すると、以前なら制約で自然に抑えられていたものが、制限なく読み込まれるようになります。コンテキストが大きくなったからこそ、エージェントに渡すツール権限のスコープは意識的に絞る必要があります。
「長く使えばいいわけじゃない」——セッション設計の新しい常識
1Mコンテキストが登場したことで、「セッションをできるだけ長く維持する」という方向に引っ張られる人が増えています。でも現場で実際に使い込んでいる開発者たちの結論は、むしろ逆です。
「再起動することは失敗ではない。重要な情報がファイル(CLAUDE.md、AGENTS.md)にあれば、フレッシュなセッションも賢く始められる。セッションは終わるが、ファイルは残る」という考え方が、上級者の共通認識になっています。
「コンテキストを節約するのではなく、コンテキストをキュレーションする」という発想の転換が重要です。1Mだからと何でも詰め込むのではなく、今のタスクに本当に必要な情報だけを入れる。タスクが終わったら関係ない情報は/clearで落とし、次のタスクは新鮮なコンテキストで始める。長くなればなるほど良い、ではなく「タスクに対して最適な密度のコンテキスト」を保つことが、実質的なアウトプット品質を最大化します。
1Mは「全部入れていい器」ではなく「必要なものを高精度に扱える器」です。器が大きくなったからこそ、中に何を入れるかの選択眼が問われます。
ぶっちゃけこうした方がいい!
ここまでの内容を踏まえて、個人的にこうしたほうが楽だし効率的だと思う、という話をします。
1Mコンテキストが来たとき、多くの人の反応は「これでもうコンパクションを気にしなくていい!」でした。でも実際に使い込んでみると、答えは「気にしなくていい場面が増えた」であって「気にしなくていい」ではないことがわかってきます。
一番効いた考え方の転換は、「1Mを使うかどうかの判断基準を、データ量ではなく文脈の連続性で決める」です。「このファイルたちが1Mに収まるか?」ではなく「このタスクはコンテキストが途切れたら品質が落ちるか?」を先に考える。コードレビュー、深いデバッグ、法務文書の横断分析はYes。定型的なファイル変換、単発の質問、毎日繰り返すルーティンタスクはNo。この分類さえ頭に入れておけば、コスト管理も迷わなくなります。
そしてもう一つ。CLAUDE.mdは「Claudeへの手紙」として毎セッションの最初に読まれることを意識して、できる限り短く鋭く書く。長いCLAUDE.mdはトークンを食うだけでなく、コンテキストの中で「背景情報」として扱われてしまい、実際の作業指示よりも注意が払われにくくなります。「最重要ルール3行→アーキテクチャの決定2行→禁止事項2行」くらいのコンパクトさが、長時間セッションでも守られやすい現実解です。
1Mコンテキストは、使い方を知っている人にとっては本当に強力な武器です。でも「大きいから安心」という油断が、コンテキストロットやコスト爆発という形で跳ね返ってくることも事実です。大きな器を手に入れたからこそ、何を入れて何を入れないかの選択を、もう一段丁寧にやる。それが1M時代を上手く使いこなす、ぶっちゃけ一番の近道です。
Claude 1Mコンテキストに関するよくある疑問を解決!
200Kと1Mで回答の品質や速度に差はあるの?
精度については前述のMRCR v2ベンチマークで旧モデル比4倍の改善が確認されています。ただし速度については、コンテキストが長くなるほど処理時間も伸びます。小〜中規模の通常会話では200Kで十分であり、わざわざ1Mを使う必要はありません。「処理しなければならない情報量が実際に大きい作業」にのみ1Mを活用するのが最適な戦略です。一部の開発者から「セッション後半で早い判断を後から無視する」という「dumb zone」現象の報告もあります。超長距離の参照が絡む高精度タスクでは人間によるチェックを挟む習慣は引き続き推奨されます。
Claude CodeのサブエージェントやAgent Teamsと1Mはどう組み合わせるの?
サブエージェントは「親エージェントのコンテキストを消費せずに専門タスクをこなす」仕組みで、コンテキスト節約に有効です。一方、1Mコンテキストは「コンパクションなしで全情報を保持する」アプローチです。この2つは排他ではなく補完関係にあります。たとえばオーケストレーターエージェントが1Mコンテキストで全体状況を保持しながら、各サブエージェントに独立したタスクを委譲するという設計が、大規模マルチエージェント開発の効率を最大化します。Agent Teamsのチームリードとして1Mを活用し、各Teammateへの指示やMailbox通信履歴を失わないようにするのは特に効果的です。
RAGやベクターデータベースは1Mで不要になるの?
「シンプルなアーキテクチャを実現したいAIネイティブスタートアップにとっては、複雑なRAGパイプラインへの依存を減らせる」という見方があります。特定のユースケースでは確かにそのとおりです。ただし、毎日更新されるような動的データや、テラバイト規模のドキュメントコーパスを扱う場合は、依然としてRAGやベクターDBが合理的な選択です。1Mコンテキストはあくまで「1回のリクエストで渡せる量」の上限であり、事前インデックス化されたデータベースへの検索とは根本的に異なるアプローチです。両者を状況に応じて使い分けることが、実務でのベストプラクティスです。
まとめ
Claude 1Mコンテキストが向いている作業を改めて整理すると、共通点は「文脈の連続性が成果の品質に直結する作業」です。コードレビュー・深いデバッグ・法務文書分析・学術研究・マルチエージェント開発・インシデント対応・長期会話。これらはすべて、途中でコンパクションが入ると「やり直し」や「見落とし」が生じるリスクを抱えた作業です。
2026年3月のGA対応で長コンテキスト課金が廃止されたことで、「必要なときに迷わず使える」選択肢になりました。ただし「大きければ何でも入れる」という発想では、コストが予想外に膨らみます。日常的な短いタスクにはサブエージェントや通常のコンテキストを使い、本当に大量の情報を跨ぐ作業だけ1Mを使うという使い分けが、パフォーマンスとコストの両方で最適解です。まずはClaude Code Maxプランで自分のワークフローに合った場面を1〜2つ見つけてみてください。使い始めると、「なんであの頃コンパクションに悩んでいたんだろう」と感じる日がきっと来るはずです。


コメント