論文の概要: A Modular Framework for Single-View 3D Reconstruction of Indoor Environments
- arxiv url: http://arxiv.org/abs/2512.17955v1
- Date: Wed, 17 Dec 2025 22:49:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.123235
- Title: A Modular Framework for Single-View 3D Reconstruction of Indoor Environments
- Title(参考訳): 室内環境の単一視点3次元再構成のためのモジュラー・フレームワーク
- Authors: Yuxiao Li,
- Abstract要約: そこで本研究では,単視点屋内シーン3次元再構成のためのモジュラー・フレームワークを提案する。
いくつかのコアモジュールは拡散技術によって駆動される。
このフレームワークは、インテリアデザイン、不動産、拡張現実の応用に有望な可能性を秘めている。
- 参考スコア(独自算出の注目度): 1.979245586749314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a modular framework for single-view indoor scene 3D reconstruction, where several core modules are powered by diffusion techniques. Traditional approaches for this task often struggle with the complex instance shapes and occlusions inherent in indoor environments. They frequently overshoot by attempting to predict 3D shapes directly from incomplete 2D images, which results in limited reconstruction quality. We aim to overcome this limitation by splitting the process into two steps: first, we employ diffusion-based techniques to predict the complete views of the room background and occluded indoor instances, then transform them into 3D. Our modular framework makes contributions to this field through the following components: an amodal completion module for restoring the full view of occluded instances, an inpainting model specifically trained to predict room layouts, a hybrid depth estimation technique that balances overall geometric accuracy with fine detail expressiveness, and a view-space alignment method that exploits both 2D and 3D cues to ensure precise placement of instances within the scene. This approach effectively reconstructs both foreground instances and the room background from a single image. Extensive experiments on the 3D-Front dataset demonstrate that our method outperforms current state-of-the-art (SOTA) approaches in terms of both visual quality and reconstruction accuracy. The framework holds promising potential for applications in interior design, real estate, and augmented reality.
- Abstract(参考訳): 本稿では,複数のコアモジュールが拡散技術によって駆動される,単一視点屋内シーン3次元再構成のためのモジュラーフレームワークを提案する。
このタスクの伝統的なアプローチは、しばしば屋内環境に固有の複雑なインスタンスの形状と閉塞に苦しむ。
不完全な2D画像から直接3D形状を予測しようとすると、しばしばオーバーシュートし、結果として復元品質が制限される。
まず,部屋の背景の全体像を予測し,室内のインスタンスを隠蔽し,それらを3Dに変換する拡散ベースの手法を用いて,この制限を克服する。
我々のモジュラーフレームワークは, 隠蔽されたインスタンスの全体像を復元するためのアモーダルコンプリートモジュール, 部屋のレイアウトを予測するために特別に訓練された塗装モデル, 全体的な幾何学的精度と詳細な表現性とのバランスをとるハイブリッド深度推定手法, シーン内のインスタンスの正確な配置を確保するために2Dと3Dの両方を活用するビュー空間アライメント手法などを通じて, この領域にコントリビュートする。
このアプローチは、1つの画像から前景のインスタンスと部屋の背景の両方を効果的に再構築する。
3D-Frontデータセットの大規模な実験により、我々の手法は、視覚的品質と復元精度の両方において、現在の最先端(SOTA)アプローチより優れていることが示された。
このフレームワークは、インテリアデザイン、不動産、拡張現実の応用に有望な可能性を秘めている。
関連論文リスト
- Unposed Sparse Views Room Layout Reconstruction in the Age of Pretrain Model [15.892685514932323]
マルチビュールームレイアウト推定のための新しい手法であるPlain-DUSt3Rを提案する。
Plane-DUSt3RはDUSt3Rフレームワークを室内レイアウトデータセット(Structure3D)に組み込んで構造平面を推定する。
均一かつ同相な結果を生成することにより、Plane-DUSt3Rは、単一の後処理ステップと2D検出結果のみを用いて、部屋レイアウトの推定を可能にする。
論文 参考訳(メタデータ) (2025-02-24T02:14:19Z) - Unified Few-shot Crack Segmentation and its Precise 3D Automatic Measurement in Concrete Structures [2.178830801484721]
本研究では, 2次元(2次元)き裂検出, 3次元再構築, 3次元自動き裂計測のためのフレームワークを提案する。
そこで我々は,不慣れなシナリオにまたがって強力な一般化を図り,正確な2次元き裂マスクの生成を可能にするき裂分割法を開発した。
画像とLiDAR-SLAMの両方を活用することで、高密度で彩色された点雲を生成するマルチフレームおよびマルチモーダル融合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-01-15T23:36:05Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
提案するMiDiffusionは,可塑性3次元屋内シーンを合成するための混合離散連続拡散モデルである。
床条件の3次元シーン合成において,最先端の自己回帰モデルおよび拡散モデルより優れることを示す。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - StructuredMesh: 3D Structured Optimization of Fa\c{c}ade Components on
Photogrammetric Mesh Models using Binary Integer Programming [17.985961236568663]
我々は、フォトグラムメッシュモデル内の建物の規則性に応じてファサード構造を再構築する新しい手法であるStructuredMeshを提案する。
本手法では,仮想カメラを用いて建物モデルの多視点色と深度画像を取得する。
次に、深度画像を用いてこれらのボックスを3次元空間に再マップし、初期ファサードレイアウトを生成する。
論文 参考訳(メタデータ) (2023-06-07T06:40:54Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。