論文の概要: OmniIndoor3D: Comprehensive Indoor 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2505.20610v1
- Date: Tue, 27 May 2025 01:17:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.332069
- Title: OmniIndoor3D: Comprehensive Indoor 3D Reconstruction
- Title(参考訳): OmniIndoor3D : 総合的な室内3D再構築
- Authors: Xiaobao Wei, Xiaoan Zhang, Hao Wang, Qingpo Wuwu, Ming Lu, Wenzhao Zheng, Shanghang Zhang,
- Abstract要約: 我々は,OmniIndoor3Dと呼ばれるガウス表現を用いた屋内3次元再構築のための新しい枠組みを提案する。
このフレームワークは、コンシューマレベルのRGB-Dカメラで捉えた様々な屋内シーンの正確な外観、幾何学、およびパノプティカル再構成を可能にする。
我々は複数のデータセットに対して徹底的な評価を行い、OmniIndoor3Dは外観、幾何学、汎視的再構成における最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 33.78554043637743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework for comprehensive indoor 3D reconstruction using Gaussian representations, called OmniIndoor3D. This framework enables accurate appearance, geometry, and panoptic reconstruction of diverse indoor scenes captured by a consumer-level RGB-D camera. Since 3DGS is primarily optimized for photorealistic rendering, it lacks the precise geometry critical for high-quality panoptic reconstruction. Therefore, OmniIndoor3D first combines multiple RGB-D images to create a coarse 3D reconstruction, which is then used to initialize the 3D Gaussians and guide the 3DGS training. To decouple the optimization conflict between appearance and geometry, we introduce a lightweight MLP that adjusts the geometric properties of 3D Gaussians. The introduced lightweight MLP serves as a low-pass filter for geometry reconstruction and significantly reduces noise in indoor scenes. To improve the distribution of Gaussian primitives, we propose a densification strategy guided by panoptic priors to encourage smoothness on planar surfaces. Through the joint optimization of appearance, geometry, and panoptic reconstruction, OmniIndoor3D provides comprehensive 3D indoor scene understanding, which facilitates accurate and robust robotic navigation. We perform thorough evaluations across multiple datasets, and OmniIndoor3D achieves state-of-the-art results in appearance, geometry, and panoptic reconstruction. We believe our work bridges a critical gap in indoor 3D reconstruction. The code will be released at: https://ucwxb.github.io/OmniIndoor3D/
- Abstract(参考訳): 我々は,OmniIndoor3Dと呼ばれるガウス表現を用いた屋内3次元再構築のための新しい枠組みを提案する。
このフレームワークは、コンシューマレベルのRGB-Dカメラで捉えた様々な屋内シーンの正確な外観、幾何学、およびパノプティカル再構成を可能にする。
3DGSは主にフォトリアリスティックレンダリングに最適化されているため、高品質の汎光学再構成に不可欠な正確な幾何学が欠如している。
したがって、OmniIndoor3Dはまず複数のRGB-D画像を組み合わせて粗い3D再構成を作成し、3Dガウシアンを初期化し、3DGSのトレーニングを指導するために使用される。
外観と幾何学の間の最適化競合を分離するために,3次元ガウスの幾何学的性質を調節する軽量MLPを導入する。
軽量MLPは、幾何学的再構成のための低域通過フィルタとして機能し、室内の騒音を著しく低減する。
ガウスプリミティブの分布を改善するために,平面面の滑らかさを促進するために,パノプティカルプリミティブによって導かれる密度化戦略を提案する。
OmniIndoor3Dは外観、幾何学、汎視的再構成を共同で最適化することで、総合的な3D屋内シーン理解を提供し、正確で堅牢なロボットナビゲーションを可能にしている。
我々は複数のデータセットに対して徹底的な評価を行い、OmniIndoor3Dは外観、幾何学、汎視的再構成における最先端の結果を達成する。
室内3D再構築において,作業ブリッジは重要なギャップであると考えています。
コードは、https://ucwxb.github.io/OmniIndoor3D/でリリースされる。
関連論文リスト
- GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - PanoSLAM: Panoptic 3D Scene Reconstruction via Gaussian SLAM [105.01907579424362]
PanoSLAMは、幾何学的再構成、3Dセマンティックセマンティックセマンティクス、3Dインスタンスセマンティクスを統合フレームワークに統合する最初のSLAMシステムである。
初めて、RGB-Dビデオから直接、オープンワールド環境のパノプティカル3D再構成を実現する。
論文 参考訳(メタデータ) (2024-12-31T08:58:10Z) - PartGS:Learning Part-aware 3D Representations by Fusing 2D Gaussians and Superquadrics [16.446659867133977]
ポイントクラウド、メッシュ、NeRF、そして3Dガウスのような低レベルの3D表現は、一般的に3Dオブジェクトやシーンを表現するために使用される。
2D $textbfG$aussiansと$textbfS$uperquadricsのハイブリッド表現による、$textbfPartGS$, $textbfPart$-aware 3D再構築を紹介します。
論文 参考訳(メタデータ) (2024-08-20T12:30:37Z) - 3D Geometry-aware Deformable Gaussian Splatting for Dynamic View Synthesis [49.352765055181436]
動的ビュー合成のための3次元幾何学的変形可能なガウススメッティング法を提案する。
提案手法は,動的ビュー合成と3次元動的再構成を改良した3次元形状認識変形モデリングを実現する。
論文 参考訳(メタデータ) (2024-04-09T12:47:30Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Text-to-3D using Gaussian Splatting [18.163413810199234]
本稿では,最新の最先端表現であるガウススプラッティングをテキストから3D生成に適用する新しい手法であるGSGENを提案する。
GSGENは、高品質な3Dオブジェクトを生成し、ガウススティングの明示的な性質を活用することで既存の欠点に対処することを目的としている。
我々の手法は繊細な細部と正確な形状で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2023-09-28T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。