論文の概要: AnchoredDream: Zero-Shot 360° Indoor Scene Generation from a Single View via Geometric Grounding
- arxiv url: http://arxiv.org/abs/2601.16532v2
- Date: Mon, 26 Jan 2026 07:46:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 17:22:45.36045
- Title: AnchoredDream: Zero-Shot 360° Indoor Scene Generation from a Single View via Geometric Grounding
- Title(参考訳): AnchoredDream: 幾何学的グラウンドリングによる単一視点からのゼロショット360度屋内シーン生成
- Authors: Runmao Yao, Junsheng Zhou, Zhen Dong, Yu-Shen Liu,
- Abstract要約: シングルビュー屋内シーン生成は、様々な現実世界のアプリケーションにおいて重要な役割を担っている。
近年,拡散モデルと深度推定ネットワークを活用して進展している。
高忠実度形状で360度映像を生成する新しいゼロショットパイプラインAnchoredDreamを提案する。
- 参考スコア(独自算出の注目度): 58.90269958632018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-view indoor scene generation plays a crucial role in a range of real-world applications. However, generating a complete 360° scene from a single image remains a highly ill-posed and challenging problem. Recent approaches have made progress by leveraging diffusion models and depth estimation networks, yet they still struggle to maintain appearance consistency and geometric plausibility under large viewpoint changes, limiting their effectiveness in full-scene generation. To address this, we propose AnchoredDream, a novel zero-shot pipeline that anchors 360° scene generation on high-fidelity geometry via an appearance-geometry mutual boosting mechanism. Given a single-view image, our method first performs appearance-guided geometry generation to construct a reliable 3D scene layout. Then, we progressively generate the complete scene through a series of modules: warp-and-inpaint, warp-and-refine, post-optimization, and a novel Grouting Block, which ensures seamless transitions between the input view and generated regions. Extensive experiments demonstrate that AnchoredDream outperforms existing methods by a large margin in both appearance consistency and geometric plausibility--all in a zero-shot manner. Our results highlight the potential of geometric grounding for high-quality, zero-shot single-view scene generation.
- Abstract(参考訳): シングルビュー屋内シーン生成は、様々な現実世界のアプリケーションにおいて重要な役割を担っている。
しかし、単一の画像から完全な360度シーンを生成することは、非常に不適切で困難な問題である。
近年のアプローチでは拡散モデルと深度推定ネットワークを活用して進歩しているが、大きな視点変化下での外観整合性と幾何的可視性を維持するのに苦慮し、フルシーン世代での有効性を制限している。
そこで本稿では,高忠実度形状に360度シーンを固定するゼロショットパイプラインであるAnchoredDreamを提案する。
単視点画像が与えられた場合、まず外見誘導幾何生成を行い、信頼性の高い3Dシーンレイアウトを構築する。
そして、一連のモジュール、warp-and-inpaint、warp-and-refine、post-optimization、および、入力ビューと生成されたリージョン間のシームレスな遷移を保証する新しいGrouting Blockを通じて、完全なシーンを段階的に生成する。
広範囲な実験により、AnchoredDreamは、外観整合性と幾何学的可視性の両方に大きな差で、すべてゼロショット方式で、既存の手法より優れていることが示されている。
本結果は,高品質でゼロショットのシーン生成のための幾何学的グラウンド化の可能性を強調した。
関連論文リスト
- GaMO: Geometry-aware Multi-view Diffusion Outpainting for Sparse-View 3D Reconstruction [6.362401262063673]
GaMOは、マルチビューのアウトペイントを通じてスパースビューの再構築を再構築するフレームワークである。
本手法では,マルチビュー・コンディショニングとジオメトリ・アウェア・デノナイズ・ストラテジーをゼロショット方式で採用する。
論文 参考訳(メタデータ) (2025-12-31T18:59:55Z) - Self-Evolving 3D Scene Generation from a Single Image [44.87957263540352]
EvoSceneはトレーニング不要のフレームワークで、単一の画像から完全な3Dシーンを徐々に再構築する。
EvoSceneは2Dドメインと3Dドメインを交互に交換し、構造と外観の両方を徐々に改善する。
論文 参考訳(メタデータ) (2025-12-09T18:44:21Z) - GeoWorld: Unlocking the Potential of Geometry Models to Facilitate High-Fidelity 3D Scene Generation [68.02988074681427]
画像から3Dのシーン生成にビデオモデルを利用する以前の研究は、幾何学的歪みやぼやけた内容に悩まされる傾向にある。
本稿では,幾何学モデルの可能性を解き放つことにより,画像から3次元のシーン生成のパイプラインを再構築する。
我々のGeoWorldは、1つの画像と所定のカメラ軌道から高忠実度3Dシーンを生成することができ、定性的かつ定量的に先行手法より優れている。
論文 参考訳(メタデータ) (2025-11-28T13:55:45Z) - G4Splat: Geometry-Guided Gaussian Splatting with Generative Prior [53.762256749551284]
我々は,3次元シーン再構成を効果的に活用するための基本的な前提条件として,正確な幾何学を同定する。
生成パイプライン全体にこの幾何学的ガイダンスを導入し、可視性マスク推定を改善し、新しいビュー選択をガイドし、ビデオ拡散モデルに着色した場合の多視点一貫性を向上させる。
本手法は,屋内および屋外の両方のシナリオにおいて,高い一般化性を有するシングルビュー入力とアンポーズ映像を自然にサポートする。
論文 参考訳(メタデータ) (2025-10-14T03:06:28Z) - TiP4GEN: Text to Immersive Panorama 4D Scene Generation [82.8444414014506]
TiP4GENはテキストから動的パノラマシーン生成フレームワークである。
微粒なコンテンツ制御を可能にし、動きに富んだ幾何学的なパノラマ4Dシーンを合成する。
TiP4GENはパノラマビデオ生成と動的シーン再構成を統合し、360度没入型仮想環境を作成する。
論文 参考訳(メタデータ) (2025-08-17T16:02:24Z) - HaloGS: Loose Coupling of Compact Geometry and Gaussian Splats for 3D Scenes [23.141875500453484]
HaloGSは、幾何学の粗い三角形と外見のガウス原始とを疎結合する双対表現である。
我々の設計は、コンパクトで表現力のあるモデルで、室内と屋外の両方でリアルにレンダリングできる。
論文 参考訳(メタデータ) (2025-05-26T17:44:04Z) - Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。