論文の概要: Dy3DGS-SLAM: Monocular 3D Gaussian Splatting SLAM for Dynamic Environments
- arxiv url: http://arxiv.org/abs/2506.05965v1
- Date: Fri, 06 Jun 2025 10:43:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.43316
- Title: Dy3DGS-SLAM: Monocular 3D Gaussian Splatting SLAM for Dynamic Environments
- Title(参考訳): Dy3DGS-SLAM:動的環境のための単分子3次元ガウス平滑化SLAM
- Authors: Mingrui Li, Yiming Zhou, Hongxing Zhou, Xinggang Hu, Florian Roemer, Hongyu Wang, Ahmad Osman,
- Abstract要約: モノクロRGB入力を用いた動的シーンのための3次元ガウススティング(3DGS)SLAM法であるDy3DGS-SLAMを提案する。
その結果,Dy3DGS-SLAMは動的環境下での最先端のトラッキングとレンダリングを実現することがわかった。
- 参考スコア(独自算出の注目度): 5.050525952210101
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current Simultaneous Localization and Mapping (SLAM) methods based on Neural Radiance Fields (NeRF) or 3D Gaussian Splatting excel in reconstructing static 3D scenes but struggle with tracking and reconstruction in dynamic environments, such as real-world scenes with moving elements. Existing NeRF-based SLAM approaches addressing dynamic challenges typically rely on RGB-D inputs, with few methods accommodating pure RGB input. To overcome these limitations, we propose Dy3DGS-SLAM, the first 3D Gaussian Splatting (3DGS) SLAM method for dynamic scenes using monocular RGB input. To address dynamic interference, we fuse optical flow masks and depth masks through a probabilistic model to obtain a fused dynamic mask. With only a single network iteration, this can constrain tracking scales and refine rendered geometry. Based on the fused dynamic mask, we designed a novel motion loss to constrain the pose estimation network for tracking. In mapping, we use the rendering loss of dynamic pixels, color, and depth to eliminate transient interference and occlusion caused by dynamic objects. Experimental results demonstrate that Dy3DGS-SLAM achieves state-of-the-art tracking and rendering in dynamic environments, outperforming or matching existing RGB-D methods.
- Abstract(参考訳): ニューラルネットワーク場(NeRF)や3次元ガウス・スプレイティングによる静的な3次元シーンの再構築に際し,現実のシーンや移動要素などの動的環境におけるトラッキングと再構築に苦慮している。
既存のNeRFベースのSLAMアプローチは、RGB-D入力に依存し、純粋なRGB入力を調節する手法はほとんどない。
このような制約を克服するために,単分子RGB入力を用いた動的シーンのための3次元ガウススティング(3DGS)SLAM法Dy3DGS-SLAMを提案する。
動的干渉に対処するため,光学フローマスクと深度マスクを確率モデルで融合し,融合した動的マスクを得る。
単一のネットワークイテレーションだけで、トラッキングのスケールを制限し、レンダリングされた幾何学を洗練できる。
融合した動的マスクをベースとして,ポーズ推定ネットワークのトラッキングを制約する新たな動作損失を設計した。
マッピングでは、動的物体による過渡的干渉や閉塞を取り除くために、動的画素、色、深さのレンダリング損失を用いる。
実験結果から,Dy3DGS-SLAMは動的環境下での最先端のトラッキングとレンダリングを実現し,既存のRGB-D手法よりも優れ,適合していることが示された。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GARAD-SLAM: 3D GAussian splatting for Real-time Anti Dynamic SLAM [9.060527946525381]
動的シーンに適したリアルタイム3DGSベースのSLAMシステムであるGARAD-SLAMを提案する。
追跡の面では、ガウスの動的セグメンテーションを直接実行し、それらをフロントエンドにマッピングして動的点ラベルを得る。
実世界のデータセットを用いた結果から,本手法はベースライン手法と比較して,トラッキングに競争力があることが示された。
論文 参考訳(メタデータ) (2025-02-05T14:44:17Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - 3DS-SLAM: A 3D Object Detection based Semantic SLAM towards Dynamic
Indoor Environments [1.4901625182926226]
3DS-SLAM, 3D Semantic SLAMを導入する。
3DS-SLAMは、意味的制約と幾何学的制約の両方を逐次解決する密結合アルゴリズムである。
TUM RGB-Dデータセットの動的シーケンスを平均98.01%改善している。
論文 参考訳(メタデータ) (2023-10-10T07:48:40Z) - Dynamic Mesh-Aware Radiance Fields [75.59025151369308]
本稿では,メッシュとNeRFの双方向結合をレンダリングおよびシミュレーション時に設計する。
ハイブリッドシステムはメッシュ挿入のための視覚リアリズムの代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:18:18Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。