論文の概要: 3D-RE-GEN: 3D Reconstruction of Indoor Scenes with a Generative Framework
- arxiv url: http://arxiv.org/abs/2512.17459v1
- Date: Fri, 19 Dec 2025 11:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.356939
- Title: 3D-RE-GEN: 3D Reconstruction of Indoor Scenes with a Generative Framework
- Title(参考訳): 3D-RE-GEN:生成フレームワークを用いた室内シーンの3次元再構成
- Authors: Tobias Sautter, Jan-Niklas Dihlmann, Hendrik P. A. Lensch,
- Abstract要約: 3D-RE-GENは、単一の画像をテクスチャ化された3Dオブジェクトと背景に再構成する合成フレームワークである。
私たちのパイプラインは、アセット検出、再構築、配置のためのモデルを統合し、元々意図されたドメインを超えて、特定のモデルをプッシュします。
現在の方法とは異なり、3D-RE-GENは最適化中にオブジェクトを空間的に制約する包括的背景を生成する。
- 参考スコア(独自算出の注目度): 7.4570191712029965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D scene generation produce visually appealing output, but current representations hinder artists' workflows that require modifiable 3D textured mesh scenes for visual effects and game development. Despite significant advances, current textured mesh scene reconstruction methods are far from artist ready, suffering from incorrect object decomposition, inaccurate spatial relationships, and missing backgrounds. We present 3D-RE-GEN, a compositional framework that reconstructs a single image into textured 3D objects and a background. We show that combining state of the art models from specific domains achieves state of the art scene reconstruction performance, addressing artists' requirements. Our reconstruction pipeline integrates models for asset detection, reconstruction, and placement, pushing certain models beyond their originally intended domains. Obtaining occluded objects is treated as an image editing task with generative models to infer and reconstruct with scene level reasoning under consistent lighting and geometry. Unlike current methods, 3D-RE-GEN generates a comprehensive background that spatially constrains objects during optimization and provides a foundation for realistic lighting and simulation tasks in visual effects and games. To obtain physically realistic layouts, we employ a novel 4-DoF differentiable optimization that aligns reconstructed objects with the estimated ground plane. 3D-RE-GEN~achieves state of the art performance in single image 3D scene reconstruction, producing coherent, modifiable scenes through compositional generation guided by precise camera recovery and spatial optimization.
- Abstract(参考訳): 近年の3Dシーン生成は、視覚的に魅力的な出力を生み出すが、現在の表現は、視覚効果とゲーム開発のための3Dテクスチャメッシュシーンの修正を必要とするアーティストのワークフローを妨げている。
重要な進歩にもかかわらず、現在のテクスチャ化されたメッシュシーンの再構築手法は、不正確なオブジェクトの分解、不正確な空間関係、そして背景の欠如に苦しむアーティストにはほど遠い。
一つの画像をテクスチャ化された3Dオブジェクトと背景に再構成する合成フレームワークである3D-RE-GENを提案する。
特定のドメインから最先端のモデルを組み合わせることで、最先端のシーン再構築のパフォーマンスが達成され、アーティストの要求に対処できることを示す。
我々の再構築パイプラインは、アセット検出、再構築、配置のためのモデルを統合し、本来意図されたドメインを超えて特定のモデルをプッシュします。
隠蔽オブジェクトの取得は、一貫した照明と幾何学の下でシーンレベルの推論と再構成を行う生成モデルによる画像編集タスクとして扱われる。
現行の手法とは異なり、3D-RE-GENは、最適化中にオブジェクトを空間的に制約する包括的な背景を生成し、視覚効果やゲームにおける現実的な照明とシミュレーションタスクの基盤を提供する。
物理的に現実的なレイアウトを得るために,再構成された物体と推定された地上面とを整合させる新しい4-DoF微分可能最適化を用いる。
3D-RE-GEN〜achieves state-of-the-art performance in single image 3D scene reconstruction, produced coherent, modible scene through compositional generationed by accurate camera recovery and space optimization。
関連論文リスト
- ZeroScene: A Zero-Shot Framework for 3D Scene Generation from a Single Image and Controllable Texture Editing [36.098009720325436]
画像から3Dのシーン再構成とテクスチャ編集をゼロショットで行う新しいシステムを提案する。
ZeroSceneは、入力画像からオブジェクトレベルの2Dセグメンテーションと深度情報を抽出し、シーン内の空間的関係を推測する。
そして、ポイントクラウドの3Dおよび2Dプロジェクション損失を共同で最適化し、正確なシーンアライメントのためのオブジェクトのポーズを更新する。
論文 参考訳(メタデータ) (2025-09-28T03:21:12Z) - Constructing a 3D Scene from a Single Image [31.11317559252235]
SceneFuse-3Dは、単一のトップダウンビューからコヒーレントな3Dシーンを合成するために設計されたトレーニング不要のフレームワークである。
入力画像を重なり合う領域に分解し、事前訓練された3Dオブジェクトジェネレータを用いてそれぞれを生成する。
このモジュラー設計により、3次元の監督や微調整を必要とせず、解像度のボトルネックを克服し、空間構造を維持できる。
論文 参考訳(メタデータ) (2025-05-21T17:10:47Z) - CAST: Component-Aligned 3D Scene Reconstruction from an RGB Image [44.8172828045897]
現在のメソッドはドメイン固有の制限や低品質のオブジェクト生成に悩まされることが多い。
本稿では,3次元シーンの復元と復元のための新しい手法であるCASTを提案する。
論文 参考訳(メタデータ) (2025-02-18T14:29:52Z) - Architect: Generating Vivid and Interactive 3D Scenes with Hierarchical 2D Inpainting [47.014044892025346]
Architectは、拡散ベースの2Dイメージのインペイントを活用する、複雑で現実的な3Dエボダイド環境を作成する、生成フレームワークである。
我々のパイプラインはさらに階層的かつ反復的な塗装プロセスに拡張され、大きな家具や小さな物体の配置を連続的に生成し、シーンを豊かにする。
論文 参考訳(メタデータ) (2024-11-14T22:15:48Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。