論文の概要: Automated 3D-GS Registration and Fusion via Skeleton Alignment and Gaussian-Adaptive Features
- arxiv url: http://arxiv.org/abs/2507.20480v1
- Date: Mon, 28 Jul 2025 02:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.773498
- Title: Automated 3D-GS Registration and Fusion via Skeleton Alignment and Gaussian-Adaptive Features
- Title(参考訳): 骨格アライメントとガウス適応特徴による3D-GS自動登録と融合
- Authors: Shiyang Liu, Dianyi Yang, Yu Gao, Bohan Ren, Yi Yang, Mengyin Fu,
- Abstract要約: 自動3D-GSサブマップアライメントと融合のための新しい手法を提案する。
我々は,複数のシーンにまたがる幾何学的骨格を抽出し,楕円体認識の畳み込みを利用して3D-GS特性を捉える。
ScanNet-GSRegとCoordデータセットの実験は、登録と融合における提案手法の有効性を実証している。
- 参考スコア(独自算出の注目度): 16.989310343271924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, 3D Gaussian Splatting (3D-GS)-based scene representation demonstrates significant potential in real-time rendering and training efficiency. However, most existing methods primarily focus on single-map reconstruction, while the registration and fusion of multiple 3D-GS sub-maps remain underexplored. Existing methods typically rely on manual intervention to select a reference sub-map as a template and use point cloud matching for registration. Moreover, hard-threshold filtering of 3D-GS primitives often degrades rendering quality after fusion. In this paper, we present a novel approach for automated 3D-GS sub-map alignment and fusion, eliminating the need for manual intervention while enhancing registration accuracy and fusion quality. First, we extract geometric skeletons across multiple scenes and leverage ellipsoid-aware convolution to capture 3D-GS attributes, facilitating robust scene registration. Second, we introduce a multi-factor Gaussian fusion strategy to mitigate the scene element loss caused by rigid thresholding. Experiments on the ScanNet-GSReg and our Coord datasets demonstrate the effectiveness of the proposed method in registration and fusion. For registration, it achieves a 41.9\% reduction in RRE on complex scenes, ensuring more precise pose estimation. For fusion, it improves PSNR by 10.11 dB, highlighting superior structural preservation. These results confirm its ability to enhance scene alignment and reconstruction fidelity, ensuring more consistent and accurate 3D scene representation for robotic perception and autonomous navigation.
- Abstract(参考訳): 近年,3次元ガウス・スプラッティング(3D-GS)に基づくシーン表現は,リアルタイムレンダリングやトレーニングの効率化に大きな可能性を示している。
しかし、既存のほとんどの手法はシングルマップの再構成に重点を置いているが、複数の3D-GSサブマップの登録と融合は未調査のままである。
既存のメソッドは通常、テンプレートとして参照サブマップを選択し、登録にポイントクラウドマッチングを使用するために手動で介入する。
さらに、3D-GSプリミティブのハード閾値フィルタリングは、融合後のレンダリング品質を劣化させることが多い。
本稿では,自動3D-GSサブマップアライメントと融合のための新しいアプローチを提案する。
まず,複数のシーンにまたがる幾何学的骨格を抽出し,楕円体認識の畳み込みを利用して3D-GS属性をキャプチャし,ロバストなシーン登録を容易にする。
第2に,厳密なしきい値設定によるシーン要素の損失を軽減するため,多要素ガウス融合戦略を導入する。
ScanNet-GSRegとCoordデータセットの実験は、登録と融合における提案手法の有効性を実証している。
登録のためには、複雑なシーンでのRREを41.9 %削減し、より正確なポーズ推定を確実にする。
核融合では、PSNRを10.11dB向上させ、優れた構造保存を強調させる。
これらの結果は、シーンアライメントと再現性を高め、ロボット認識と自律ナビゲーションのためのより一貫性と正確な3Dシーン表現を確実にする能力を確認している。
関連論文リスト
- Unposed 3DGS Reconstruction with Probabilistic Procrustes Mapping [10.88046882501116]
本稿では,事前学習したMVSを確率論的Procrustesマッピング戦略と統合した新しい3DGS再構成フレームワークを提案する。
提案手法は,非ポーズ画像列からの正確な再構成を実現し,非ポーズ3DGS再構成のための新しい手法の確立を図っている。
論文 参考訳(メタデータ) (2025-07-24T16:08:01Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。