3Dのプロトタイプづくりで
「ちょっとしたワールドを試したいだけなのに、なぜ週末が全部 Unity に消えるんだ…」
と思ったこと、ありませんか?
- モデリングは外注 or Asset Store 頼み
- コリジョンとライトとカメラで半日溶ける
- しかも「ボツ案」になるかもしれないコンセプトにそこまで工数をかけるのか…?
そんなところに、Google が妙にエグい球を投げてきました。
Project Genie 3 一般公開(AI Ultra 向け)です。
一言でいうと:「Unity のグレーボックスを、プロンプトで一晩に全部やるやつ」

今回の Genie 3 を一言でまとめると、
「ゲームエンジンのグレーボックスフェーズを、テキストだけでやる自動レベルデザイナー」
という感じです。
- テキストを投げると
→ 3Dインタラクティブワールドがブラウザ内で生成される - しかも
- 地形/オブジェクト配置
- 簡単なインタラクション(クリックで動く、追いかけてくる敵、など)
- それなりのカメラ&操作
をまとめてやってくれる
歴史的には、
- 「生コード → ビジュアルスクリプト(Blueprint / Playmaker)」で一段ラクになり、
- そこからさらに
「ビジュアルスクリプト → テキストプロンプト」に上がってきた、
そんな感覚です。
正直、このレイヤーまで自動化されたのは初めてと言っていいレベルです 🚀
何が本当に新しいのか?単なる “3D版 DALL·E” ではない
テキストから 3D を出すモデル自体は、ここ 1〜2年でいくつも出てきていますが、Genie 3 が他と決定的に違うのは、
「3Dオブジェクト」ではなく「3Dワールド + ふるまい」まで一気通貫で出す
ところです。
「ワールドモデル」が一般開放されたインパクト
Morimoto さんのフィジカルAIニュースでも触れられていましたが、DeepMind は Genie 3 を世界モデルとして位置付けています。
- テキスト or 画像 → 探索可能な3D世界をリアルタイム生成
- キャラクターの移動に応じて地形を継続生成
- 物理的な相互作用も AI が推論
- 今は 60秒制限つき
研究界隈では「ワールドモデル」はロボティクスや自動運転の文脈で語られてきましたが、
それがAI Ultra サブスクさえ入れば個人開発者も触れるレベルに落ちてきた。
ここが一番デカいです。
正直、「世界モデルをブラウザでポチポチいじれる」と聞いたときは、
10年前の自分に説明しても信じてもらえないだろうなと思いました 🤯
「動画」じゃなく「触れる世界」が出てくる
よくある誤解は、
「どうせ 3D っぽい動画を吐くだけでしょ?」
というものですが、Genie 3 は動画ではなくワールドです。
- プレイヤー操作で動き回れる
- オブジェクトをクリック・衝突できる
- NPC の簡易挙動もテキストから生成
つまり、生成物が「鑑賞用コンテンツ」ではなく「プロジェクトの素材」になる。
ここが、3D アーティストだけでなく、エンジニアのワークフローを変えるポイントです。
これ、誰の仕事を一番揺らすのか?

一番影響を受けるのは「プロトタイピングの現場」
本番ゲーム開発者よりも、まず打撃(というか変化)が来るのは:
- インディーゲーム開発者の「検証用プロトタイプ」
- 3D UX や WebXR のPoC を量産しているチーム
- EdTech / 研修 / シミュレータ系のデモ担当
今まで:
- Unity / Unreal でプロジェクト生成
- 適当な地形ツールで地面を作る
- 無料アセット漁って並べる
- FPS コントローラ入れて、最低限の当たり判定
これで「歩き回れるだけの島」を作るのに、
慣れていても数時間〜半日は持っていかれていたはずです。
Genie 3 だと:
- 「小さな島の上にサンドボックス風の3Dワールドを。WASDで移動、スペースでジャンプ。中央に木、クリックすると揺れる」
とテキストを書くだけ
ぶっちゃけ、「とりあえず歩けるワールド」を作る作業は、ほぼ壊滅すると思っていいです。
それをやるために人件費を払う意味がなくなってしまう。
Roblox / no-code 3D ツールとの違い
よく比較に出される Roblox Studio と、どう違うか整理すると:
Roblox Studio(+AIツール)
- すでに巨大なエコシステム
- 物理・ネットワーク・マネタイズまで揃ったフルゲームプラットフォーム
- ただし Lua やツールの学習は必要
- 作ったゲームは基本 Roblox 上で動かす前提
Genie 3
- 「Web で動く 3D マイクロワールドジェネレーター」
- あくまでコンテンツ生成レイヤー色が強い
- WebGL/WebGPU ベースで、将来的に glTF / FBX エクスポートが整えば
→ Unity / Unreal / Roblox どれにも「たたき台」として持ち込める
つまり Roblox が「遊ぶ場所込みのプラットフォーム」なのに対して、
Genie 3 は「どのプラットフォームにも載せられるかもしれない、共通の3Dたたき台製造機」になり得る。
もし Google が本気で
- glTF/FBX エクスポート
- シンプルな JSON シーングラフ
- 生成された挙動のスクリプトスタブ(TypeScript / C# 等)
を整備してきたら、
「Genie でラフ → Unity で磨く → Roblox にも流用」というワークフローが普通になります。
これは既存ツールにとって、かなりイヤな未来です。
とはいえ、「3D CG 死ぬ」はさすがに言い過ぎ
X でも「3DCG死ぬ」といった強い言葉が飛び交っていますが、
正直、それは半分だけ当たっていて、半分はミスリードだと感じています。
死ぬのは「雑グレーボックス + 量産型背景」の一部
Genie 3 のスイートスポットは、
- そこまで精度はいらないけど、
- 「とにかく今すぐ形がほしい」ワールド
です。
- レベルデザインの初期ラフ案
- インタラクション UX のざっくりテスト
- 教材や社内デモ用の見栄えそこそこシーン
この辺は ほぼ確実に Genie に持っていかれます。
「箱を積んで通路を作るだけのレベルデザイナー仕事」は、ぶっちゃけ危ない。
逆に、死なない・むしろ価値が上がる領域
一方で、Genie 3 によって価値がむしろ上がる仕事もあります。
- IP や世界観がっちり決まったハイエンドタイトル
- ゲームバランス・レベルフローを極端に作り込むタイトル
- パフォーマンスチューニング(LOD, Draw Call 最適化など)
- UX デザインと心理設計まで含めた体験設計者
AI が勝手に作ってくれるのは、あくまで
「そこそこそれっぽい世界」
であって、
「その IP らしさ」「そのゲームらしさ」「作品としての完成度」
までは担保してくれません。
Genie 3 は「0 → 0.7 を一瞬でやるツール」に過ぎず、
「0.7 → 1.0 に仕上げる人」の価値はむしろ上がる、と私は見ています。
正直ここが本音:なぜプロダクション採用はまだ怖いのか

ワクワクする一方で、「じゃあ次のプロジェクトから本番採用する?」と言われたら、正直まだ様子見だと思っています。理由は大きく 4 つです。
再現性(リプロデュース)とバージョン管理問題
生成系あるあるですが、
- モデルバージョンが変わる
- 同じプロンプトでも微妙に違う世界が出てくる
- 「あのバージョンのあのワールド、もう一回だけ細部を変えて出してほしい」ができない
という事態は容易に想像できます。
ゲーム開発現場は Git でシーンファイルまでバージョン管理する文化がありますが、
「プロンプトとオプション」を唯一のソースにしてしまうと、
- 差分レビューがしづらい
- 不具合再現が難しい
- チームでの共同編集の単位が曖昧
という、かなり面倒な世界になります。
プロダクションに組み込むなら、
- 生成結果を glTF / 自前フォーマットに固めてリポジトリに入れる
- プロンプトも一緒に保存するが、「真実のソース」は生成物の方
というような新しいワークフロー設計が必要になります。
ベンダーロックインと「Google墓場」問題
開発者が一番冷静になるポイントはここかもしれません。
- 実行ランタイムがどこまでオープンか
- 自前ホスティングできるのか
- 商用タイトルへのライセンス条件はどうか
- もしサービス終了したら、生成ワールドをどう救出できるか
Google は歴史的に
「最高に面白いが、突然終了するプロジェクト」
を山ほど作ってきました。
Genie が「Project Something」に留まるのか、
Firebase / Cloud Run のように長期のプロダクトラインになるのかは、まだ読めません。
正直、メインパイプラインを全て Genie 依存にするのは危険で、
しばらくは「プロトタイピング専用」「社内ツール専用」くらいが妥当ラインだと思います。
コストとレイテンシの現実
テキスト → LLM → 3D ワールド生成は、
普通のチャット補助と比べて圧倒的に重い処理です。
- AI Ultra サブスク前提
- さらにシーン生成ごとに課金の可能性
- 生成待ちのレイテンシ(数秒〜十数秒)が UX 的に許容できるか
大量のレベル案を AI に吐かせて、
社内でガンガン試すようなフローを組むと、
月末の請求書を見て青ざめる未来も普通にあり得ます。
品質:80点を何個積んでも 100点にはならない問題
生成されたワールドは、デモ動画を見る限り「おお、すごい」レベルまで来ていますが、
- ポリゴン数・描画負荷のチューニング
- 細かなレベルデザイン(見通し線・導線・探索の快楽)
- 長時間プレイ時のリピート感
などを考えると、あくまで 80 点台の素材という印象です。
Genie 3 を過信して「そのままリリースしてしまえ」とやると、
- パフォーマンス問題
- 動線が悪くてユーザーが迷子
- 「生成物っぽさ」が抜けないグラフィック
といった地味に効く問題にハマる可能性は高いです。
じゃあ、エンジニアとしてどう付き合うのが現実的か?
ここからは完全に個人的な結論ですが、
Genie 3 は「レベルデザイン&シミュレーションの GitHub Copilot」くらいの位置づけにするのが、一番健全だと思っています。
私ならこう使う
- 企画初期の「世界観スケッチ」
- プランナーと一緒にプロンプトをいじりながら、
- 「こういう村」「こういう宇宙船内」「こういう工場ライン」をその場で立ち上げる
-
Miro で絵コンテ引くノリで、ブラウザで歩き回りながら会話する
-
ロボティクス / XR の合成データ生成
- これは DeepMind 本来の文脈ですが、
- ロボットの行動計画や UX テストのためのシミュレータ世界を自動生成
-
「未知の環境」を大量に作れるのは、研究 / フィジカルAIにはかなり効きます
-
社内デモ・PoC のブースト
- 経営層向けの「未来の工場ダッシュボード」デモ
- カスタマーデモでサクっと作りたい「お客様の工場そっくりな 3D 環境」
-
こういう見せ物だけど工数をかけたくないものに最適
-
本番パイプラインには「輸入専用ゲート」として取り込む
- Genie で生成
- glTF 等でエクスポート
- Unity/Unreal プロジェクトにインポートして、
以降は完全に自前管理に切り替え
このくらいの距離感が、2026 年時点では妥当かなと。
他社と比べた「Google らしさ」

最後に、競合との比較で Genie 3 の「らしさ」を整理すると:
- Microsoft
- Rho-alpha で産業ロボット向けの VLA モデルを商用化
- Azure + Isaac Sim でクラウド x シミュレータに強い
- Tesla / xAI
- Optimus 含め、ハード x AI の垂直統合に全振り
- Google / DeepMind(Genie 3)
- ブラウザ / Web ベースで開発者&一般ユーザーに世界モデルを開放
- Gemini / Android / Web を巻き込んだ「インタラクティブな合成世界の標準」を狙っているように見える
ぶっちゃけ、
- Azure は工場
- Tesla はロボット
- Google はブラウザ
と言えるくらい、見ている世界のレイヤーが違う印象です。
もし Genie 3 が
- Android / Web / ChromeOS にがっつり入り、
- 「Web の 3D 体験といえば Genie ベース」がデファクトになる
ところまで行ったら、
それは 「ブラウザに GPU が来たとき」レベルのパラダイムシフトになると思います。
結論:プロダクションで使うか?正直まだ「様子見しつつ全員触れ」です
まとめると、今のところの私のスタンスはこうです。
- プロダクションのメインパイプラインに組み込む → まだ早い、様子見
- プロトタイプ・PoC・研究用途でガンガン使う → むしろ今すぐ触るべき
- 3D / レベルデザインのスキルセット → 「AI に指示できる言語力」と「仕上げの職人芸」がますます重要になる
Genie 3 は、
「3D インタラクティブワールドを言葉でプログラミングする時代への、かなり本気度の高い一歩」
です。
この手のツールは、
「触らないまま評論だけしている人」と
「くだらない遊びでもいいから実際に回してみた人」で、
数年後のアウトプット差がシャレにならないレベルで開きます。
AI Ultra の地域制限や料金体系、エクスポート仕様など、懸念は山ほどありますが、
「グレーボックス仕事から卒業するための実験場」として、まずは小さく導入してみる価値は十分にあると思います。
もしあなたの現場が
- Unity / Unreal メインで
- 3D プロトタイプやデモを頻繁に作る
ようなスタックなら、
「Genie 3 をどこまでパイプラインに入れるか」の設計図も一緒に考えられます。
スタック(エンジン / Web / VR など)とユースケース(ゲーム / シミュレーション / 研修 など)を書いてくれれば、
どの段階まで任せて、どこから人間が引き継ぐべきかを具体的に切り分けてみましょう。


コメント