論文の概要: NuiWorld: Exploring a Scalable Framework for End-to-End Controllable World Generation
- arxiv url: http://arxiv.org/abs/2601.19048v1
- Date: Tue, 27 Jan 2026 00:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.101439
- Title: NuiWorld: Exploring a Scalable Framework for End-to-End Controllable World Generation
- Title(参考訳): NuiWorld: エンドツーエンドの制御可能な世界生成のためのスケーラブルなフレームワーク
- Authors: Han-Hung Lee, Cheng-Yu Yang, Yu-Lun Liu, Angel X. Chang,
- Abstract要約: 我々は,次世代の課題に対処するためのフレームワークであるNuiWorldを紹介する。
さまざまなサイズとレイアウトのシーンを合成し、エンドツーエンドモデルをトレーニングするのに十分なデータを生成します。
筆者らのフレームワークは,擬似スケッチラベルによる制御性を実現し,以前は見つからなかったスケッチに対する一般化の度合いを示す。
- 参考スコア(独自算出の注目度): 19.342379757491177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: World generation is a fundamental capability for applications like video games, simulation, and robotics. However, existing approaches face three main obstacles: controllability, scalability, and efficiency. End-to-end scene generation models have been limited by data scarcity. While object-centric generation approaches rely on fixed resolution representations, degrading fidelity for larger scenes. Training-free approaches, while flexible, are often slow and computationally expensive at inference time. We present NuiWorld, a framework that attempts to address these challenges. To overcome data scarcity, we propose a generative bootstrapping strategy that starts from a few input images. Leveraging recent 3D reconstruction and expandable scene generation techniques, we synthesize scenes of varying sizes and layouts, producing enough data to train an end-to-end model. Furthermore, our framework enables controllability through pseudo sketch labels, and demonstrates a degree of generalization to previously unseen sketches. Our approach represents scenes as a collection of variable scene chunks, which are compressed into a flattened vector-set representation. This significantly reduces the token length for large scenes, enabling consistent geometric fidelity across scenes sizes while improving training and inference efficiency.
- Abstract(参考訳): ワールドジェネレーションは、ビデオゲーム、シミュレーション、ロボット工学のようなアプリケーションにとって基本的な能力である。
しかし、既存のアプローチでは、コントロール可能性、スケーラビリティ、効率性の3つの主な障害に直面している。
エンドツーエンドのシーン生成モデルは、データの不足によって制限されている。
オブジェクト中心生成アプローチは固定解像度表現に依存するが、より大きなシーンに対する忠実度は低下する。
トレーニングなしのアプローチは柔軟だが、推論時には遅くて計算コストがかかることが多い。
これらの課題に対処するフレームワークであるNuiWorldを紹介します。
データ不足を克服するために,いくつかの入力画像から始まる生成的ブートストラップ戦略を提案する。
近年の3次元再構成と拡張可能なシーン生成技術を活用し,様々な大きさとレイアウトのシーンを合成し,エンド・ツー・エンド・モデルのトレーニングに十分なデータを生成する。
さらに,本フレームワークは擬似スケッチラベルによる制御性を実現し,これまで見られなかったスケッチに対する一般化の度合いを示す。
提案手法は, 可変シーンチャンクの集合としてシーンを表現し, 平面化されたベクトル集合表現に圧縮する。
これにより、大きなシーンのトークン長を大幅に削減し、トレーニングと推論効率を改善しながら、シーンサイズ全体にわたって一貫した幾何学的忠実度を実現することができる。
関連論文リスト
- TRELLISWorld: Training-Free World Generation from Object Generators [13.962895984556582]
テキスト駆動の3Dシーン生成は、仮想プロトタイピングからAR/VR、シミュレーションまで、幅広いアプリケーションに対して約束されている。
既存のメソッドは、多くの場合、単一オブジェクトの生成、ドメイン固有のトレーニング、あるいは完全な360度ビュービリティのサポートの欠如に制約される。
汎用テキストから3Dオブジェクトへの拡散モデルをモジュラータイルジェネレータとして再利用することで,3次元シーン合成のトレーニング不要な手法を提案する。
論文 参考訳(メタデータ) (2025-10-27T21:40:31Z) - WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - BloomScene: Lightweight Structured 3D Gaussian Splatting for Crossmodal Scene Generation [54.12899218104669]
3Dシーンは非常に複雑な構造を持ち、出力が密度が高く、一貫性があり、必要な全ての構造を含むことを保証する必要がある。
現在の3Dシーン生成法は、事前訓練されたテキスト・画像拡散モデルと単眼深度推定器に依存している。
クロスモーダルシーン生成のための軽量な3次元ガウススプラッティングであるBloomSceneを提案する。
論文 参考訳(メタデータ) (2025-01-15T11:33:34Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。