論文の概要: ADD-SLAM: Adaptive Dynamic Dense SLAM with Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.19420v1
- Date: Mon, 26 May 2025 02:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.106507
- Title: ADD-SLAM: Adaptive Dynamic Dense SLAM with Gaussian Splatting
- Title(参考訳): ADD-SLAM:ガウススプラッティングを用いた適応動的高密度SLAM
- Authors: Wenhua Wu, Chenpeng Su, Siting Zhu, Tianchen Deng, Zhe Liu, Hesheng Wang,
- Abstract要約: ADD-SLAM: ガウス分割に基づくAdaptive Dynamic Dense SLAMフレームワーク。
シーン整合性解析に基づく適応的動的識別機構を設計する。
事前に定義されたセマンティックなカテゴリは必要とせず、シーンのダイナミクスを適応的に発見する。
- 参考スコア(独自算出の注目度): 12.846353008321394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Neural Radiance Fields (NeRF) and 3D Gaussian-based Simultaneous Localization and Mapping (SLAM) methods have demonstrated exceptional localization precision and remarkable dense mapping performance. However, dynamic objects introduce critical challenges by disrupting scene consistency, leading to tracking drift and mapping artifacts. Existing methods that employ semantic segmentation or object detection for dynamic identification and filtering typically rely on predefined categorical priors, while discarding dynamic scene information crucial for robotic applications such as dynamic obstacle avoidance and environmental interaction. To overcome these challenges, we propose ADD-SLAM: an Adaptive Dynamic Dense SLAM framework based on Gaussian splitting. We design an adaptive dynamic identification mechanism grounded in scene consistency analysis, comparing geometric and textural discrepancies between real-time observations and historical maps. Ours requires no predefined semantic category priors and adaptively discovers scene dynamics. Precise dynamic object recognition effectively mitigates interference from moving targets during localization. Furthermore, we propose a dynamic-static separation mapping strategy that constructs a temporal Gaussian model to achieve online incremental dynamic modeling. Experiments conducted on multiple dynamic datasets demonstrate our method's flexible and accurate dynamic segmentation capabilities, along with state-of-the-art performance in both localization and mapping.
- Abstract(参考訳): ニューラルラジアンス場(NeRF)と3次元ガウス型同時局在マッピング法(SLAM)の最近の進歩は、異常な局所化精度と顕著な高密度マッピング性能を示している。
しかし、動的オブジェクトはシーンの一貫性を損なうことによって重要な課題を導入し、ドリフトとマッピングアーティファクトを追跡する。
動的識別やフィルタリングにセマンティックセグメンテーションやオブジェクト検出を用いる既存の手法は、通常、事前に定義されたカテゴリの事前情報に依存し、動的障害物回避や環境相互作用のようなロボットアプリケーションに不可欠な動的なシーン情報を破棄する。
これらの課題を克服するために,ガウス分割に基づく適応動的Dense SLAMフレームワークであるADD-SLAMを提案する。
本研究では,シーン一貫性解析に基づく適応的動的識別機構を設計し,実時間観測と歴史地図の幾何学的特徴とテクスチャ的差異を比較した。
事前に定義されたセマンティックなカテゴリは必要とせず、シーンのダイナミクスを適応的に発見する。
高精度な動的物体認識は、ローカライゼーション中の移動対象からの干渉を効果的に軽減する。
さらに、オンラインインクリメンタルな動的モデリングを実現するために、時相ガウスモデルを構築する動的静的分離マッピング戦略を提案する。
複数の動的データセットで行った実験は、我々の手法の柔軟で正確な動的セグメンテーション能力と、ローカライゼーションとマッピングの両方における最先端の性能を実証する。
関連論文リスト
- WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments [48.51530726697405]
WildGS-SLAMは、動的環境を扱うために設計された、堅牢で効率的な単分子RGB SLAMシステムである。
本研究では,浅い多層パーセプトロンとDINOv2の特徴によって予測される不確実性マップを導入し,追跡とマッピングの両方において動的物体除去を誘導する。
その結果,WildGS-SLAMの動的環境における性能は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-04-04T19:19:40Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - DDN-SLAM: Real-time Dense Dynamic Neural Implicit SLAM [5.267859554944985]
DDN-SLAMは,意味的特徴を統合した最初のリアルタイム高密度ニューラルネットワーク暗黙的SLAMシステムである。
既存の暗黙的SLAMシステムと比較して、動的データセットの追跡結果は平均軌道誤差(ATE)の精度が平均90%向上していることを示している。
論文 参考訳(メタデータ) (2024-01-03T05:42:17Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - D2SLAM: Semantic visual SLAM based on the influence of Depth for Dynamic
environments [0.483420384410068]
一般化とシーン認識に欠ける動的要素を決定するための新しい手法を提案する。
我々は,幾何学的および意味的モジュールからの推定精度を向上するシーン深度情報を用いる。
その結果, 動的環境における正確な位置推定とマッピングを行う上で, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-16T22:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。