論文の概要: RU4D-SLAM: Reweighting Uncertainty in Gaussian Splatting SLAM for 4D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2602.20807v1
- Date: Tue, 24 Feb 2026 11:47:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.733077
- Title: RU4D-SLAM: Reweighting Uncertainty in Gaussian Splatting SLAM for 4D Scene Reconstruction
- Title(参考訳): RU4D-SLAM:4次元シーン再構成のためのガウス切削SLAMにおける不確かさの再検討
- Authors: Yangfan Zhao, Hanwei Zhang, Ke Huang, Qiufeng Wang, Zhenzhou Shao, Dengyu Wu,
- Abstract要約: 4Dリコンストラクション、特に4Dガウシアンスプラッティングは、これらの課題に対処するための有望な方向性を提供する。
本研究では,4次元シーン再構成のための頑健で効率的なフレームワーク,すなわち,ガウススティングSLAM(RU4D-SLAM)における不確実性の再重み付けを提案する。
提案手法は,軌道精度と4次元シーン再構成の両面において,最先端の手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 8.13353479857245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combining 3D Gaussian splatting with Simultaneous Localization and Mapping (SLAM) has gained popularity as it enables continuous 3D environment reconstruction during motion. However, existing methods struggle in dynamic environments, particularly moving objects complicate 3D reconstruction and, in turn, hinder reliable tracking. The emergence of 4D reconstruction, especially 4D Gaussian splatting, offers a promising direction for addressing these challenges, yet its potential for 4D-aware SLAM remains largely underexplored. Along this direction, we propose a robust and efficient framework, namely Reweighting Uncertainty in Gaussian Splatting SLAM (RU4D-SLAM) for 4D scene reconstruction, that introduces temporal factors into spatial 3D representation while incorporating uncertainty-aware perception of scene changes, blurred image synthesis, and dynamic scene reconstruction. We enhance dynamic scene representation by integrating motion blur rendering, and improve uncertainty-aware tracking by extending per-pixel uncertainty modeling, which is originally designed for static scenarios, to handle blurred images. Furthermore, we propose a semantic-guided reweighting mechanism for per-pixel uncertainty estimation in dynamic scenes, and introduce a learnable opacity weight to support adaptive 4D mapping. Extensive experiments on standard benchmarks demonstrate that our method substantially outperforms state-of-the-art approaches in both trajectory accuracy and 4D scene reconstruction, particularly in dynamic environments with moving objects and low-quality inputs. Code available: https://ru4d-slam.github.io
- Abstract(参考訳): 3次元ガウススプラッティングと同時局在マッピング(SLAM)を組み合わせることで、運動中の連続的な3次元環境再構築が可能になった。
しかし、既存の手法は動的環境、特に移動物体は3D再構成を複雑にし、信頼性の高い追跡を妨げている。
4Dリコンストラクションの出現、特に4Dガウススプラッティングは、これらの課題に対処するための有望な方向を提供するが、4D対応SLAMの可能性はいまだに未定である。
そこで本研究では,空間的3次元表現に時間的要因を導入し,シーン変化,ぼやけた画像合成,ダイナミックなシーン再構成などの不確実性認識を取り入れた,堅牢で効率的なフレームワーク,すなわちガウスの4次元シーン再構成のためのSLAM(RU4D-SLAM)を提案する。
動作のぼやけたレンダリングを統合することで動的なシーン表現を強化し、画像のぼやけた処理のために、もともと静的なシナリオ用に設計された画素ごとの不確実性モデリングを拡張して不確実性追跡を改善する。
さらに,動的シーンにおける画素ごとの不確かさ推定のための意味誘導型リウェイト機構を提案し,適応的な4Dマッピングをサポートするために学習可能な不透明度重みを導入する。
提案手法は, 移動物体と低品質入力を有する動的環境において, 軌道精度と4次元シーン再構成の両方において, 最先端の手法を著しく上回ることを示す。
コード提供: https://ru4d-slam.github.io
関連論文リスト
- EVolSplat4D: Efficient Volume-based Gaussian Splatting for 4D Urban Scene Synthesis [43.898895514609286]
EvolSplat4Dは、ボリュームベースとピクセルベースのガウス予測を統合することで、既存のピクセル単位のパラダイムを超えたフィードフォワードフレームワークである。
EvolSplat4Dは静的環境と動的環境の両方を高い精度と一貫性で再構成し、シーンごとの最適化と最先端のフィードフォワードベースラインの両方に優れることを示す。
論文 参考訳(メタデータ) (2026-01-22T13:39:29Z) - Motion4D: Learning 3D-Consistent Motion and Semantics for 4D Scene Understanding [54.859943475818234]
基礎モデルからの2次元先行を統一された4次元ガウススプラッティング表現に統合する新しいフレームワークであるMotion4Dを提案する。
1) 局所的な一貫性を維持するために連続的に動き場と意味体を更新する逐次最適化,2) 長期的コヒーレンスのために全ての属性を共同で洗練するグローバル最適化,である。
提案手法は,ポイントベーストラッキング,ビデオオブジェクトセグメンテーション,新しいビュー合成など,多様なシーン理解タスクにおいて,2次元基礎モデルと既存の3Dベースアプローチの両方に優れる。
論文 参考訳(メタデータ) (2025-12-03T09:32:56Z) - 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - C4D: 4D Made from 3D through Dual Correspondences [77.04731692213663]
時間的対応を利用して既存の3次元再構成を4Dに拡張するフレームワークであるC4Dを紹介する。
C4Dは、短期光学フローと長期点追跡の2種類の対応をキャプチャする。
我々は、追加の移動情報を提供する動的認識ポイントトラッカーを訓練する。
論文 参考訳(メタデータ) (2025-10-16T17:59:06Z) - D$^2$USt3R: Enhancing 3D Reconstruction for Dynamic Scenes [54.886845755635754]
本研究は動的シーンにおける3次元再構成の課題に対処し,物体の動きが従来の3次元ポイントマップ回帰法の品質を劣化させる。
空間的側面と時間的側面の両方を明示的に組み込むことにより,提案した点マップに対する3次元密度対応のカプセル化に成功した。
論文 参考訳(メタデータ) (2025-04-08T17:59:50Z) - Embracing Dynamics: Dynamics-aware 4D Gaussian Splatting SLAM [0.0]
D4DGS-SLAMは動的環境に対する4DGSマップ表現に基づく最初のSLAM法である。
提案手法は,カメラのポーズトラッキングとマップの品質の両方において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-07T08:56:35Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - 4D Gaussian Splatting in the Wild with Uncertainty-Aware Regularization [43.81271239333774]
そこで本研究では,カジュアルに記録されたモノクロビデオから動的シーンを動的に撮影する4DGSアルゴリズムを提案する。
提案手法は,ハンドヘルドモノクラーカメラで撮影した映像から4DGS再構成の性能を向上することを示す。
論文 参考訳(メタデータ) (2024-11-13T18:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。