「またAIの新モデル?正直もう追いきれないんだけど…」
そんな疲れ、感じたことありませんか?🤔
でも今回のネタは、新モデルの性能自慢ではなく、
「気づいたら職場のデフォルトが変わってた」タイプの話です。
一言で言うと:「Gemini は AI 界の “プリインストールブラウザ” になりつつある」

ニュースとしてはシンプルで、
- ここ1年くらいで
Gemini のシェアが約 5% → 18% に急上昇 - ChatGPT は依然トップだけど、
相対的シェアはじわっと下がっている
これだけ聞くと「へぇ〜」で終わりそうですが、
構造的にはかなりヤバい変化が起きています。
これ、歴史的に言うとNetscape vs IE / Chromeの再演なんですよね。
- 1990年代:ブラウザと言えば Netscape。
- その後:OS に IE / Chrome が標準でくっついてきた瞬間から、
「わざわざ別のブラウザ入れる人」が一気にマイナーになった。
今起きているのはそれの AI 版 です。
- ChatGPT = みんながわざわざアクセスしていた「最初のブラウザ」
- Gemini = Android・Chrome・Search・Workspace に最初からくっついてくるやつ
性能どうこうより、配布方法とデフォルト設定で勝ちに行っている。
正直、この構図を舐めているとプロダクト戦略を外します。
「AI を使うためにサイトを開く時代」から、「気づいたらいつも横にいる時代」へ
ぶっちゃけ、エンジニア目線だと
「Gemini も大規模言語モデルの一種でしょ?」で片づけがちです。
でも 一般ユーザーの視点に立つと構図が全然違います。
ChatGPT の世界観
- ブラウザを開いて chat.openai.com に行く
- もしくは専用アプリを入れて、そこにテキストをコピペ
- 仕事の文脈から 一度離れて AI に相談 → 結果を戻す
つまり 「AI に会いに行く」導線 なんですよね。
Gemini の世界観
対して Gemini は、
- Android のアシスタントとして常駐
- Chrome や Google 検索結果に AI の要約が普通に出てくる
- Google Docs / Sheets / Gmail / Slides の中で
「AI に書いてもらう」「AI に直してもらう」がそのまま選べる
つまり
「今やってる作業の中に、最初から座ってるAI」。
技術的にはどちらも LLM なのに、
ユーザー体験としてはもう別ジャンルと言っていいくらい違います。
そして市場シェアの 5% → 18% は、
この「会いに行く AI」から「横にいる AI」への移行が数字に出てきた結果だと感じています。
Google vs OpenAI:技術じゃなく「配布戦略」の殴り合いになってきた

エンジニアとして気になるのは結局ここです。
ディストリビューションの暴力:Google 側
Google が本気を出すとやっぱり怖いのはここです👇
- Android:
一部では Gemini が Google アシスタントの代わりとして前面に - Chrome / 検索:
AI オーバービューや要約がデフォルトで表示 - Google Workspace:
Gmail / Docs / Sheets / Slides に Gemini ボタンが生える
つまり、
「AI を入れましょう」ではなく
「もう入ってるので、クリックしますか?」
という世界観。
正直、この配布チャネルを正面から殴り合えるのは
Microsoft (Windows + Office)ぐらいで、
OpenAI 単体ではどうやっても同じ土俵には立てません。
OpenAI / ChatGPT 側の立ち位置
一方 ChatGPT 側はと言うと、
- Web UI とモバイルアプリが主戦場
- 開発者向けには API ファースト で強いポジション
- プラグインやカスタム GPT はあるけど、
OS レベルやオフィススイートへの直結度は Google / Microsoft ほどではない
これ、歴史のアナロジーで言えばこうです:
- ChatGPT = 初期の Chrome / Netscape 的な「技術で突き抜けたプロダクト」
- Gemini = OS にバンドルされた IE / Chrome 的な「デフォルトの窓口」
で、マス市場で最終的に強かったのはどっちだったかは、
もはや語るまでもないですよね…。
「Gemini のシェア急上昇」で誰が一番やばいのか?
OpenAI だけが脅かされている…と思うと、それも半分だけです。
一番きついのは「薄いAIラッパー」系サービス
特に危ういのはこういうプロダクトです:
- 「Gmail でメール文面を AI が自動生成します!」
- 「Google Docs の文章を AI が添削します!」
- 「スプレッドシートの関数を AI が教えます!」
正直、これらの多くは技術的には
LLM と Google Workspace をちょっとつないだだけのものが多い。
そこに Google が、
「同じことを、公式に、デフォルトで、追加料金ほぼなし(またはバンドル)で提供します」
とやってきたらどうなるか。
歴史的にも何度も見てきたパターンです。
- OS レベルでスクショ撮影機能が入った瞬間に消えていった
スクショ専用ツール - ブラウザにタブ機能が入った瞬間に空気になった
タブ化ユーティリティ
とまったく同じ構図です。
正直、「汎用AIでちょっと便利にしました」レベルの SaaS は
Workspace + Gemini / Microsoft 365 + Copilot に一掃されるリスクが高いです。
OpenAI / ChatGPT 側のダメージ
もちろん OpenAI にとってもこれは痛手です。
- 一般ユーザーの「とりあえずAI使ってみるか」の入口が
ChatGPT から Gemini に確実にシフトし始めている - 「AI = ChatGPT」というブランド状態が
「AI = とりあえず Google のボタン押せば何とかなる」に移りつつある
とはいえ、開発者向け・企業向け API ビジネスはまだ強いので、
「終わった」とかそういう話ではまったくない。
でも「一般ユーザーのマインドシェアを独占」みたいな
2023 年前後の状態ではなくなってきているのは事実です。
ただ、懸念点もあります…(ここを見ないとプロダクションで痛む)

ここまで書くと
「じゃあ全部 Gemini で良くない?Google についていけばOKでは?」
と思うかもしれませんが、
エンジニア視点で見るとそう簡単でもないです。
シェア = 性能ではない
今回の数字はあくまで
- どれだけのユーザーが
- どの AI を入り口として使っているか
という利用シェアの話です。
- ベンチマーク上の精度
- レイテンシ
- トークン単価
- ツール呼び出しの柔軟さ
- 長文コンテキストの扱いやすさ
こういったコア技術面の優劣とは別次元。
プロダクションでガチなワークロードを載せるなら、
- OpenAI
- Google Gemini
- Anthropic
- それ以外のモデル(自前 LLM 含む)
をきちんと比較検証した上で、
ケースごとに使い分けるのが現実解になります。
Gemini のシェアが伸びているからといって、
「なんとなく全部 Gemini にまとめる」は、
長期的にはかなりリスキーです。
生態系ごとロックインされるリスク
Gemini を Workspace 連携でガッツリ使うのは
ユーザー体験としては最高です。が、その代償として:
- 仕様や UI が Google の都合で変わる
- ログやメトリクスが細かく取れないケースも多い
- 「別ベンダーの LLM に切り替えたい」と思った時のコストが高い
というロックイン問題があります。
ぶっちゃけ、短期的には
- 「Google Workspace の中で完結する社内用ツール」
- 「ちょっとした社内効率化」
くらいならロックインを気にしすぎる必要はありません。
ただ、
- 自社の中核プロダクト
- 長期でメンテする B2B サービス
に関しては、最初からマルチモデル前提のアーキテクチャにしておかないと
未来の自分が泣きます。
情報ガバナンス・ログ・制御の難しさ
Gemini を Workspace 経由で使うときと、
素の Gemini API を叩くときでは、
エンジニアとして握れるコントロールの粒度が全然違います。
- Workspace の「ボタンとしての Gemini」
→ 手軽だが、プロンプトやレスポンスの細かい制御・モニタリングはほぼ不可能 - 自前バックエンドから Gemini API / OpenAI API を叩く
→ 手間は増えるが、再現性や監査性を自分の手に持てる
組織によっては
- ログ保存期間
- どのデータが学習に使われるのか
- リーク時の責任範囲
など、コンプラ系の要件が厳しいところも多いはずです。
「Google がやってくれるから大丈夫でしょ」は、
正直エンプラでは通用しません。
じゃあエンジニア/PMとしてどう動くべきか?
ここからが本題です。
「Gemini が伸びてるね〜」で終わらせないために、
今のうちにやっておいた方がいいことを挙げておきます。
「ユーザーの入口は複数ある」前提に切り替える
- 「みんなとりあえず ChatGPT 使ってるでしょ?」という前提はもう通用しない
- Google Workspace 勢は、むしろ Gemini から AI に触れ始める可能性が高い
なので、
- 自社サービスのヘルプやオンボーディングで
「ChatGPT にこう聞いてください」と書いているなら、
Gemini / Copilot 前提の導線も用意した方がいいです。
アーキテクチャは「モデル非依存」を志向する
個人的に、これから新規で何か AI プロダクトを作るなら、
- OpenAI 専用クライアントを書く
- Google 専用クライアントを書く
のではなく、
- アプリ内部では「LLM 抽象インターフェース」を一枚はさみ
- その裏で OpenAI / Gemini / Anthropic / ローカルモデル等を切り替え可能にしておく
という構造を最初から入れておきます。
実装コストは少し増えますが、
- コスト構造が変わったとき
- 品質が逆転したとき
- 規約変更やリージョン制限が入ったとき
に「1ベンダー縛り」が完全に足かせになるのを何度も見てきました。
正直、12〜18 ヶ月で勢力図が変わる前提で設計するくらいがちょうどいいです。
「Gemini で十分な領域」と「専用AIで差別化すべき領域」を分けて考える
- 一般的な文章生成・要約・翻訳
- ちょっとしたスプレッドシート支援
- メールの下書き生成
この辺は、もうGemini / Copilot などのバンドル機能に任せてしまって、
自分たちは
- 業界特化(医療・法務・製造など)
- 自社データに密着した検索 / 推論
- 高い精度・説明責任が求められる領域
といった「汎用LLM+ちょい便利」では届かないところで勝負する方が健全です。
結論:プロダクションで全面 Gemini 移行?正直、まだ様子見+マルチモデル前提が現実的

現時点での自分の立場をまとめると:
- Gemini のシェア急上昇は、「技術戦争」よりも「配布戦略戦争」のターニングポイント
- 「AI = ChatGPT の時代」は終わりつつあり、
これからは Android / Workspace / Windows / Microsoft 365 / iOS といった
「プラットフォームごとのデフォルトAI」が戦うフェーズに入る - エンジニア / PM 視点では、
- ユーザーの入口が ChatGPT 一辺倒ではない世界を前提にしつつ、
- コアアーキテクチャは特定ベンダーにロックインしない
- Gemini / OpenAI / その他を差し替え可能な前提で設計する
なので、
「プロダクションすべてを Gemini に寄せてしまうか?」と聞かれたら、
正直、まだ様子見しつつマルチモデル構成を維持する、が自分の答えです。
ただし一方で、
「Google Workspace 内のちょっとした業務改善に Gemini を使うか?」と聞かれたら、
それはもうガンガン使っていいと思っています。
(そこはロックインより「早く楽になる」メリットの方が大きい領域なので)
これから 1〜2 年は、
ブラウザ戦争の序盤をリアルタイムで見ているのと同じようなフェーズに入ります。
- どの AI が一番賢いか
ではなく、 - どの AI がどの文脈で「デフォルトの窓口」になるのか
を冷静に見ながら、
自分たちのプロダクトがどのレイヤーに乗るのか・どこで勝負するのか、
今のうちに決めておくのが良さそうです。🚀


コメント