論文の概要: V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting
- arxiv url: http://arxiv.org/abs/2410.12068v1
- Date: Tue, 15 Oct 2024 21:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:43:19.165277
- Title: V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting
- Title(参考訳): V3D-SLAM:3次元意味幾何学投票を用いた動的環境におけるロバストRGB-DSLAM
- Authors: Tuan Dang, Khang Nguyen, Mandfred Huber,
- Abstract要約: 動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
- 参考スコア(独自算出の注目度): 1.3493547928462395
- License:
- Abstract: Simultaneous localization and mapping (SLAM) in highly dynamic environments is challenging due to the correlation complexity between moving objects and the camera pose. Many methods have been proposed to deal with this problem; however, the moving properties of dynamic objects with a moving camera remain unclear. Therefore, to improve SLAM's performance, minimizing disruptive events of moving objects with a physical understanding of 3D shapes and dynamics of objects is needed. In this paper, we propose a robust method, V3D-SLAM, to remove moving objects via two lightweight re-evaluation stages, including identifying potentially moving and static objects using a spatial-reasoned Hough voting mechanism and refining static objects by detecting dynamic noise caused by intra-object motions using Chamfer distances as similarity measurements. Our experiment on the TUM RGB-D benchmark on dynamic sequences with ground-truth camera trajectories showed that our methods outperform the most recent state-of-the-art SLAM methods. Our source code is available at https://github.com/tuantdang/v3d-slam.
- Abstract(参考訳): 動体とカメラのポーズの相関が複雑になるため、高度に動的な環境での同時局所化とマッピング(SLAM)は困難である。
この問題に対処する多くの方法が提案されているが、動カメラを用いた動的物体の移動特性は未だ不明である。
そのため, SLAMの性能向上のためには, 物体の3次元形状や力学を物理的に理解した動作物体の破壊事象を最小限に抑える必要がある。
本稿では,2つの軽量な再評価段階を通じて移動物体を除去する頑健な手法であるV3D-SLAMを提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
ソースコードはhttps://github.com/tuantdang/v3d-slam.comで公開されています。
関連論文リスト
- DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - 3DS-SLAM: A 3D Object Detection based Semantic SLAM towards Dynamic
Indoor Environments [1.4901625182926226]
3DS-SLAM, 3D Semantic SLAMを導入する。
3DS-SLAMは、意味的制約と幾何学的制約の両方を逐次解決する密結合アルゴリズムである。
TUM RGB-Dデータセットの動的シーケンスを平均98.01%改善している。
論文 参考訳(メタデータ) (2023-10-10T07:48:40Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - AirDOS: Dynamic SLAM benefits from Articulated Objects [9.045690662672659]
オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
論文 参考訳(メタデータ) (2021-09-21T01:23:48Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - DymSLAM:4D Dynamic Scene Reconstruction Based on Geometrical Motion
Segmentation [22.444657614883084]
DymSLAM(ダイムSLAM)は、4D(3D + Time)ダイナミックシーンを剛体移動物体で再構成できる動的ステレオ視覚SLAMシステムである。
提案システムでは,動的物体の障害物回避などの高レベルなタスクにロボットを使用できる。
論文 参考訳(メタデータ) (2020-03-10T08:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。