「Claude Codeに全部コード貼ったら、あっという間にコンテキスト上限…」
「エラー箇所だけ直してほしいのに、なぜか関係ないファイルまで書き換えられた…」
そんな経験、ありませんか?😇
LLMコーディングって、最初は「なんかすごい!」なんですが、
実プロジェクトに突っ込むとだいたいこういう壁にぶつかります:
- トークン足りない問題(でかいリポジトリを渡せない)
- コンテキスト忘却問題(会話が続くと過去の前提が飛ぶ)
- 「全部読ませる」前提のせいで、コストとレイテンシがえぐい
で、ここにきて 「Claude Code × MCP Tool Search」前提の使い方 が出てきて、
正直、これがかなり“次のフェーズ”感あるなと感じています。
- 一言でいうと、「Docker 前夜の CI/CD っぽい」変化が起きている
- 本当に新しいのは「プロンプト設計」じゃなく「情報アクセス設計」になったこと
- Claude Codeは「賢い補完ツール」ではなく「ツールオーケストレータ」になりつつある
- 競合視点で見ると:Copilot vs Claude Code + MCP はどう棲み分けるのか?
- コミュニティの空気感:「最強だけど、工夫しないと普通に地雷もあるよね」という前向きな慎重さ
- ここが“Gotcha”:ハマりポイントと、個人的に感じている懸念
- じゃあプロダクションでガッツリ使うか?正直、答えは「段階的に」だと思っている
- まとめ:LLM コーディングは「なんちゃって自動化」から「ツール前提の本格ワークフロー」へ
一言でいうと、「Docker 前夜の CI/CD っぽい」変化が起きている

この記事で取り上げたいのは:
- Claude Codeの「作者ワークフロー級」のテクニック
- MCP Tool Search 前提の「トークン節約型ワークフロー」
を踏まえて、なにが本当に新しいのか / どこがヤバいのか / 何に気をつけるべきか です。
一言でいうとこれは、
「LLMコーディング界の Docker」=
コンテキストの扱い方を“プロトコルベース”に揃えた転換点
にかなり近いです。
Dockerが出る前って、
「CI でテスト通るけど本番では謎のライブラリ違いで落ちる」みたいなカオスが日常でしたよね。
それが「コンテナ」という標準化された単位ができた瞬間に、
CI/CD の設計思想そのものが変わった。
今回の MCP 前提 Claude Code も、
「とりあえず全部読ませる LLM」から
「ツールを叩きながら必要な情報だけ取るエージェント」 への転換にかなり近いです。
本当に新しいのは「プロンプト設計」じゃなく「情報アクセス設計」になったこと
従来の LLM コーディングって、ほぼこうでしたよね:
- とりあえず問題の説明を書く
- 関係ありそうなファイルをどかっと貼る
- 「ここをこう直して」と指示する
このやり方の限界は、みんな痛いほどわかっているはずです。
- プロジェクトが中規模を超えると、貼れるファイル量に限界
- 会話を続けるほど履歴が膨らんで、コンテキストが破綻する
- トークンコストが直線的に増えていくので、ビジネスとして割に合わなくなる
今回の記事群が面白いのは、ここを「MCP Tool Searchで“オンデマンド取得”に振り切った」ところです。
「全部読ませる」から「grep させる」へ
MCP Tool Search の思想はシンプルで:
コードやドキュメントをプロンプトに貼るな。
検索ツールを渡して、必要になったときだけ LLM に探させろ。
具体的には、
fs.listDir,fs.readFileみたいなファイル操作grep/ripgrep的な全文検索git.diffやログ探索ツール- さらに Serena や ast-grep のような 構造理解型の検索
を MCP 経由の「ツール」として提供 しておいて、
- 「このエラーを直して」とだけ投げる
- Claude はログだけ読んで、必要なファイル・関数を Tool Search で勝手に引きにいく
- その結果だけをコンテキストに載せて思考・編集する
という流れにしています。
結果として、記事では トークン使用量を最大 85% 削減 という主張。
これは数字以上に、発想の主役が『プロンプト』から『情報アクセス』に変わったという意味で大きい。
ぶっちゃけ、「プロンプト職人芸」はこれからどんどん価値が下がります。
その代わりに、
- どんな検索ツールを MCP で繋ぐか
- どんな粒度で差分編集させるか
- どの情報を「外部ツール側に追い出す」か
という ワークフロー設計 が勝敗を分けるようになります。
Claude Codeは「賢い補完ツール」ではなく「ツールオーケストレータ」になりつつある

もうひとつ、重要だと思っているのが 17個の開発者ワークフロー の中身です。
どれも共通しているのは、
「プロンプトテクニック」ではなく 開発プロセスそのものを Claude 前提で組み替えている こと。
代表的なパターンをざっくり
- 差分駆動編集
- いきなりファイル丸ごと書き換えさせない
- Tool Search で該当部分だけ抜き出し →
diff/patch形式で提案 → 適用 - ログ先行・コード後読み
- まずテストや実行ログだけ渡す
- ソースコードは Claude に MCP 経由で検索させる
- エラー周辺だけが主コンテキストになるので激しく節約
- 段階的リファクタリング
- 一気に「設計変更+実装+テスト修正」をやらせない
- 1) 現状の構造化要約 → 2) 方針テキスト → 3) 影響範囲検索 → 4) 茶色い箇所ごとに diff 提案
- 「LLMに全部説明させない」設計
- 長大な仕様説明・過去議論を毎回繰り返さない
- docs や ADR は Tool Search や Context7 に読ませて、「どのドキュメントを参照したか」だけ説明させる
正直、この辺は GitHub Copilot などの「インライン補完ツール」とは完全に思想が違う と思っています。
Copilot はあくまで「書いているときの補完+軽いタスク」。
Claude Code + MCP は ワークフロー全体を横断して“ツールを呼びまくるペアプロ” に近い。
競合視点で見ると:Copilot vs Claude Code + MCP はどう棲み分けるのか?
「結局 Copilot でよくない?」という問いは当然出てきます。
ここは、どのレイヤを自動化したいか で線引きしたほうがわかりやすいです。
コンテキストのスコープ
- Copilot / Copilot Workspace
- 開いているファイル中心 + 簡易検索
- GitHub リポジトリ内の PR や Actions とは強く連携
-
ただし、DB やログ、社内 API など「IDE外の世界」はやや苦手
-
Claude Code + MCP
- MCP 経由で、コード・DB・ログ・SaaS・社内 API まで一つのプロトコルで接続できる
- 「IDEの外」を含むエコシステム全体を相手にできるのが強み
つまり、
- GitHub にべったり・GitHub Actions が CI/CD の中心 → Copilot 有利
- 異種クラウド・オンプレ・SaaS をごちゃ混ぜで触る現場 → MCP + Claude Code がハマる
という棲み分けになりそうです。
拡張性とロックイン
-
Copilot は GitHub / MS ワールドに寄せた豊かな統合の代わりに、
どうしてもベンダーロックインが強い。 -
Claude Code + MCP は、プロトコルとしてはオープンで、
Serena, Context7, Cipher みたいな OSS MCP ツールも充実しつつある。
ただし、中核モデルは Claude なので、Anthropic ロックインは別途ついてくる。
正直、どちらかが「勝つ」話ではなく、
自社のインフラ構成とチーム文化で決めるべき領域だと思っています。
コミュニティの空気感:「最強だけど、工夫しないと普通に地雷もあるよね」という前向きな慎重さ

海外・国内コミュニティのポストを追っていると、空気感はだいたいこんな感じです:
- トークン削減・コンテキスト設計の話題はめちゃくちゃ盛り上がっている
- 「Claude Code賢くなりすぎワロタ」系の成功談も多い
- でも同時に、「grep ツールしょぼくない?」「削りすぎてバグ見落としそう」みたいな冷静なツッコミも多い
象徴的なのは、
- 「入力トークン97%削減できたけど、文脈不足で微妙なバグを見逃しそうになった」という声
- 「Claudeのgrepはトークン検索に不向き。ast-grep や Serena で構造理解前提にしたら一気に使えるようになった」という実践例
ここから見えてくるのは、
MCP Tool Search は「魔法の最適化ボタン」じゃなくて、
“検索・インデックス設計”をちゃんとやった人だけが得する増幅装置
という現実です。
ここが“Gotcha”:ハマりポイントと、個人的に感じている懸念
礼賛だけしても意味がないので、ちゃんと懸念も書きます。
「トークン削減=常にコスト削減」ではない
記事では 85% 削減という派手な数字が踊っていますが、
現実のコストはこうなります:
- LLMトークン: 減る
- 代わりに増えるもの:
- MCP ツールの開発・運用コスト
- Serena や Cipher のインデックス構築コスト
- ネットワークレイテンシやサーバー費用
小〜中規模プロジェクトで、頻繁に仕様が変わるようなケースだと、
「全部貼り付ける + さっさと答えをもらう」ほうが総コスト安い ことも普通にあります。
ぶっちゃけ、
「なんでも MCP 化しよう!」はインフラエンジニアの悪いクセが出がちなところです🤔
まずは 一番つらいボトルネック(例:巨大モノリス、やたら長いログ解析)だけ MCP化する 方が現実的。
ワークフロー設計の学習コストが重い
17テクニックを読めば読むほど思うのは、
これは「プロンプト真似れば勝ち」みたいな世界じゃないな…
ということです。
- チームとして「設計・タスク整理・実装・検証のどこで Claude を使うか」
- どの MCP ツールを誰がメンテするか
- 差分管理やレビューのフローをどう組むか
ここまで含めて設計しないと、
単に「新しいおもちゃを導入しただけ」で終わります。
歴史的にいうと、Docker Compose も Kubernetes も、「環境変数だけ書けばよくなる魔法」ではなかったのとまったく同じです。
Vendor Lock-in は割とガチな問題
MCP はオープンなプロトコルを志向しているとはいえ、
現状のベストプラクティスはほぼ「Claude Code 前提」で語られています。
- CLAUDE.md
- /serena カスタムコマンド
- Cipher のワークスペース設計
など、Claude 向けにかなり最適化されたノウハウが多い。
将来「会社として別の LLM ベンダーに移行したい」となったとき、
- MCP ツール実装の再接続
- CLAUDE.md / カスタムコマンド群の移植
- 開発者のワークフロー再教育
が必要になるのはほぼ確定です。
正直、このリスクを「まあなんとかなるっしょ」でスルーするのは危ないと思っています。
セキュリティ・コンプライアンス設計が本番では重い
MCP 経由で触るものは、
- ソースコード
- 各種ログ
- ひどいと顧客情報を含む DB
まで含みます。
- どの MCP ツールがどのデータにアクセスできるか
- そのログを誰が見られるか
- モデルに送る前にマスキングすべき情報は何か
この辺りをちゃんと設計しないと、
「AI導入した瞬間に内部統制崩壊」という最悪パターンもぜんぜんありえます。
「トークンをケチりすぎて事故る」パターン
Tool Search の設計が甘いと:
- 影響範囲が十分に拾えない
- Claude が部分的なコンテキストで無理やり結論を出す
- そのまま diff を適用して壊れる
ということが起きます。
特に Serena や ast-grep みたいな賢い検索ツールを導入したときほど、
「検索クエリの精度」と「取得範囲のバランス」を調整する責任が人間側にのしかかってくる。
個人的には、「トークン 2,000 くらい余計に払ってでも、関連ファイルは多めに見せる」くらいのマインドの方が、総コストはむしろ下がると思っています。
じゃあプロダクションでガッツリ使うか?正直、答えは「段階的に」だと思っている

最後に、「じゃあこれを本番でどこまで使うの?」という話。
エンジニアとしての自分の結論は、今のところこうです:
- 全面的に「Claude Code に任せる」フェーズではまだない
- でも 「MCP 前提ワークフローを小さく導入しないチームは、数年後に確実に出遅れる」 とも感じている
いま取りうる現実的な一手
個人的におすすめする進め方は:
- 同じ開発タスクを 2 通りでやってみる PoC をする
- A: いつもの「全部貼る」方式
- B: MCP Tool Search(+ Serena など)方式
-
計測するのは
- トークン量
- 人間の手戻り回数
- 完了までの時間
-
一番つらい領域だけ Claude Code ワークフローを標準化する
-
例:
- バグ調査 + 修正案の diff 提案
- リファクタリング計画立案 + 影響範囲洗い出し
- ログ解析+原因特定
-
自社にとって優先度の高い MCP ツールを 1〜2 個だけ整備する
- 大規模リポジトリ → Serena / ast-grep 系
- ライブラリ最新情報 → Context7
-
長期プロジェクトの「記憶」 → Cipher
-
そこまでやって「ペイする」と感じたら、はじめてフロー全体に広げる
「とりあえず全部 MCP 化して Claude に任せる」は、
歴史的に見ると「とりあえず全部マイクロサービスにした結果、死んだチーム」と同じ匂いがします😅
まとめ:LLM コーディングは「なんちゃって自動化」から「ツール前提の本格ワークフロー」へ
今回の「Claude Code活用テクニック」と「MCP Tool Search による効率化」は、
- 新しい API が出ました、という話ではなく
-
LLM コーディングの“当たり前の設計思想”が更新されつつある ことのシグナルだと思っています。
-
プロンプト職人より、ワークフロー設計者が重要になる
- IDE プラグインではなく、MCP ツール開発者というロールが生まれつつある
- 「全部読ませる LLM」は、そのうち「Docker 以前の手作業デプロイ」扱いになる
正直、まだ荒削りなところも多いし、
ロックインやセキュリティの懸念も無視できません。
でも、
「MCP 前提で LLM に“grep させる”」
という発想を一度味わってしまうと、
もとの「長文貼り付けお祈り開発」には戻りたくなくなる のもまた事実です。
プロダクションでフルベットするには、もう少し様子見。
ただし、
小さく PoC して、
自分たちの現場で「どこまで行けるか」を測る価値は、今すでに十分ある。
これが、ベテランエンジニアとしての率直な結論です。


コメント