論文の概要: Dynamic Object Tracking and Masking for Visual SLAM
- arxiv url: http://arxiv.org/abs/2008.00072v1
- Date: Fri, 31 Jul 2020 20:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 07:04:19.657133
- Title: Dynamic Object Tracking and Masking for Visual SLAM
- Title(参考訳): Visual SLAMのための動的物体追跡とマスキング
- Authors: Jonathan Vincent, Mathieu Labb\'e, Jean-Samuel Lauzon, Fran\c{c}ois
Grondin, Pier-Marc Comtois-Rivet, Fran\c{c}ois Michaud
- Abstract要約: 動的環境下では、動いた物体から得られる視覚的特徴によって視覚的SLAM技術の性能が損なわれる可能性がある。
本稿では、ディープニューラルネットワーク、拡張カルマンフィルタ、視覚SLAMを用いて、ローカライゼーションとマッピングの両方を改善するパイプラインを提案する。
- 参考スコア(独自算出の注目度): 1.37013665345905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In dynamic environments, performance of visual SLAM techniques can be
impaired by visual features taken from moving objects. One solution is to
identify those objects so that their visual features can be removed for
localization and mapping. This paper presents a simple and fast pipeline that
uses deep neural networks, extended Kalman filters and visual SLAM to improve
both localization and mapping in dynamic environments (around 14 fps on a GTX
1080). Results on the dynamic sequences from the TUM dataset using RTAB-Map as
visual SLAM suggest that the approach achieves similar localization performance
compared to other state-of-the-art methods, while also providing the position
of the tracked dynamic objects, a 3D map free of those dynamic objects, better
loop closure detection with the whole pipeline able to run on a robot moving at
moderate speed.
- Abstract(参考訳): 動的環境下では、動いた物体から得られる視覚的特徴によって視覚的SLAM技術の性能が損なわれる可能性がある。
一つの解決策は、それらのオブジェクトを識別して、その視覚的特徴をローカライズとマッピングのために取り除くことである。
本稿では,深層ニューラルネットワーク,拡張kalmanフィルタ,視覚スラムを用いて,動的環境(gtx 1080の約14fps)における局所化とマッピングの両方を改善する,シンプルで高速なパイプラインを提案する。
RTAB-MapをビジュアルSLAMとして使用したTUMデータセットからの動的シーケンスの結果から,本手法は他の最先端手法と同じようなローカライゼーション性能を実現するとともに,追跡された動的オブジェクトの位置,それらの動的オブジェクトを含まない3Dマップ,パイプライン全体を適度に移動するロボット上でのループクロージャ検出の改善などが示唆された。
関連論文リスト
- V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - Real-time SLAM Pipeline in Dynamics Environment [0.0]
我々は,RGB-D SLAM と YOLO リアルタイムオブジェクト検出を用いて動的シーンの分割と削除を行い,静的シーン3D を構築するソリューションを提案する。
我々は、セマンティクス、幾何学、物理学を共同で検討できるデータセットを収集し、全ての動的オブジェクトをフィルタリングしながら静的なシーンを再構築することを可能にする。
論文 参考訳(メタデータ) (2023-03-04T00:08:52Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。