論文の概要: DOT: Dynamic Object Tracking for Visual SLAM
- arxiv url: http://arxiv.org/abs/2010.00052v1
- Date: Wed, 30 Sep 2020 18:36:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:03:04.827474
- Title: DOT: Dynamic Object Tracking for Visual SLAM
- Title(参考訳): DOT: Visual SLAMのための動的オブジェクト追跡
- Authors: Irene Ballester, Alejandro Fontan, Javier Civera, Klaus H. Strobl,
Rudolph Triebel
- Abstract要約: DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 83.69544718120167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present DOT (Dynamic Object Tracking), a front-end that
added to existing SLAM systems can significantly improve their robustness and
accuracy in highly dynamic environments. DOT combines instance segmentation and
multi-view geometry to generate masks for dynamic objects in order to allow
SLAM systems based on rigid scene models to avoid such image areas in their
optimizations.
To determine which objects are actually moving, DOT segments first instances
of potentially dynamic objects and then, with the estimated camera motion,
tracks such objects by minimizing the photometric reprojection error. This
short-term tracking improves the accuracy of the segmentation with respect to
other approaches. In the end, only actually dynamic masks are generated. We
have evaluated DOT with ORB-SLAM 2 in three public datasets. Our results show
that our approach improves significantly the accuracy and robustness of
ORB-SLAM 2, especially in highly dynamic scenes.
- Abstract(参考訳): 本稿では,既存のSLAMシステムに追加されるフロントエンドであるDOT(Dynamic Object Tracking)を提案する。
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて動的オブジェクトのマスクを生成し、厳密なシーンモデルに基づくSLAMシステムでそれらの最適化の領域を避ける。
どのオブジェクトが実際に動いているかを決定するために、ドットセグメントはまず動的オブジェクトのインスタンスを作成し、推定されたカメラの動きで、測光再投影誤差を最小化し、オブジェクトを追跡する。
この短期追跡は、他のアプローチに対するセグメンテーションの精度を向上させる。
最後に、実際には動的マスクのみが生成される。
ORB-SLAM 2を用いたDOTを3つの公開データセットで評価した。
その結果,本手法はorb-slam 2の精度とロバスト性,特に高ダイナミックな場面において著しく向上することがわかった。
関連論文リスト
- NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic
environments [10.413523346264055]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - DL-SLOT: Dynamic Lidar SLAM and Object Tracking Based On Graph
Optimization [2.889268075288957]
エゴ位置推定と動的物体追跡は、自律運転システムにおける2つの重要な問題である。
本稿では,動的Lidar SLAMとオブジェクト追跡手法であるDL-SLOTを提案する。
我々はこのフレームワークでSLAMとオブジェクトトラッキングを同時に実行し、高ダイナミックな道路シナリオにおけるSLAMの堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-02-23T11:22:43Z) - AirDOS: Dynamic SLAM benefits from Articulated Objects [9.045690662672659]
オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
論文 参考訳(メタデータ) (2021-09-21T01:23:48Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Dynamic Object Tracking and Masking for Visual SLAM [1.37013665345905]
動的環境下では、動いた物体から得られる視覚的特徴によって視覚的SLAM技術の性能が損なわれる可能性がある。
本稿では、ディープニューラルネットワーク、拡張カルマンフィルタ、視覚SLAMを用いて、ローカライゼーションとマッピングの両方を改善するパイプラインを提案する。
論文 参考訳(メタデータ) (2020-07-31T20:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。