論文の概要: One2Scene: Geometric Consistent Explorable 3D Scene Generation from a Single Image
- arxiv url: http://arxiv.org/abs/2602.19766v1
- Date: Mon, 23 Feb 2026 12:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.803539
- Title: One2Scene: Geometric Consistent Explorable 3D Scene Generation from a Single Image
- Title(参考訳): One2Scene: 単一画像からの幾何学的一貫性のある探索可能な3Dシーン生成
- Authors: Pengfei Wang, Liyi Chen, Zhiyuan Ma, Yanjun Guo, Guowen Zhang, Lei Zhang,
- Abstract要約: textbf2Sceneは、不適切な問題を3つのトラクタブルなサブタスクに分解する効果的なフレームワークである。
One2Sceneは、パノラマ深度推定、フィードフォワード360再構成、探索可能な3Dシーン生成において、最先端の手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 13.717660892718099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating explorable 3D scenes from a single image is a highly challenging problem in 3D vision. Existing methods struggle to support free exploration, often producing severe geometric distortions and noisy artifacts when the viewpoint moves far from the original perspective. We introduce \textbf{One2Scene}, an effective framework that decomposes this ill-posed problem into three tractable sub-tasks to enable immersive explorable scene generation. We first use a panorama generator to produce anchor views from a single input image as initialization. Then, we lift these 2D anchors into an explicit 3D geometric scaffold via a generalizable, feed-forward Gaussian Splatting network. Instead of treating the panorama as a single image for reconstruction, we project it into multiple sparse anchor views and reformulate the reconstruction task as multi-view stereo matching, which allows us to leverage robust geometric priors learned from large-scale multi-view datasets. A bidirectional feature fusion module is used to enforce cross-view consistency, yielding an efficient and geometrically reliable scaffold. Finally, the scaffold serves as a strong prior for a novel view generator to produce photorealistic and geometrically accurate views at arbitrary cameras. By explicitly conditioning on a 3D-consistent scaffold to perform reconstruction, One2Scene works stably under large camera motions, supporting immersive scene exploration. Extensive experiments show that One2Scene substantially outperforms state-of-the-art methods in panorama depth estimation, feed-forward 360° reconstruction, and explorable 3D scene generation. Code and models will be released.
- Abstract(参考訳): 単一の画像から探索可能な3Dシーンを生成することは、3Dビジョンにおいて非常に難しい問題である。
既存の手法は自由な探検を支援するのに苦労し、視点が本来の視点から遠く離れると、しばしば厳しい幾何学的歪みやノイズの多い人工物を生み出す。
我々は,この不適切な問題を3つの抽出可能なサブタスクに分解して,没入可能な探索可能なシーン生成を可能にする,効果的なフレームワークである「textbf{One2Scene}」を紹介した。
まず,パノラマ生成器を用いて1つの入力画像からアンカービューを初期化する。
そして、これらの2次元アンカーを、一般化可能なフィードフォワードガウススプラッティングネットワークを介して、明示的な3次元幾何学的足場に持ち上げる。
パノラマを再構成のための単一のイメージとして扱う代わりに、複数のスパースアンカービューに投影し、再構成タスクをマルチビューステレオマッチングとして再構成することで、大規模マルチビューデータセットから得られた堅牢な幾何学的事前情報を活用することができる。
双方向のフィーチャーフュージョンモジュールは、効率的で幾何学的に信頼性の高い足場をもたらす、クロスビューの一貫性を強制するために使用される。
最後に、足場は、任意のカメラでフォトリアリスティックで幾何学的に正確なビューを生成する新しいビュージェネレータの強力な先駆けとなる。
One2Sceneは3D一貫性のある足場を明示的に調整することで、大きなカメラの動きの下で安定して動作し、没入型シーン探索をサポートする。
大規模な実験により、One2Sceneはパノラマ深度推定、フィードフォワード360度再構成、探索可能な3Dシーン生成において、最先端の手法を大幅に上回っていることが示された。
コードとモデルはリリースされる。
関連論文リスト
- AnchoredDream: Zero-Shot 360° Indoor Scene Generation from a Single View via Geometric Grounding [58.90269958632018]
シングルビュー屋内シーン生成は、様々な現実世界のアプリケーションにおいて重要な役割を担っている。
近年,拡散モデルと深度推定ネットワークを活用して進展している。
高忠実度形状で360度映像を生成する新しいゼロショットパイプラインAnchoredDreamを提案する。
論文 参考訳(メタデータ) (2026-01-23T08:08:12Z) - ExScene: Free-View 3D Scene Reconstruction with Gaussian Splatting from a Single Image [4.366356163044466]
既存の方法は、単一視点からの視野が狭い低一貫性の3Dシーンを再構成するためにしばしば制限される。
任意の単視点画像から没入型3Dシーンを再構成する2段階パイプラインであるExSceneを提案する。
ExSceneは単一ビュー入力のみを使用して一貫した没入的なシーン再構築を実現する。
論文 参考訳(メタデータ) (2025-03-31T09:33:22Z) - WonderVerse: Extendable 3D Scene Generation with Video Generative Models [28.002645364066005]
拡張可能な3Dシーンを生成するフレームワークであるWonderVerseを紹介する。
WonderVerseは、ビデオ生成基盤モデルに埋め込まれた強力な世界レベルの事前情報を活用する。
様々な3D再構成手法と互換性があり、効率的かつ高品質な生成を可能にする。
論文 参考訳(メタデータ) (2025-03-12T08:44:51Z) - Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - Multiview Compressive Coding for 3D Reconstruction [77.95706553743626]
単一オブジェクトの3Dポイントやシーン全体で動作するシンプルなフレームワークを紹介します。
我々のモデルであるMultiview Compressive Codingは、入力の外観と形状を圧縮して3次元構造を予測する。
論文 参考訳(メタデータ) (2023-01-19T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。