論文の概要: A Look at Improving Robustness in Visual-inertial SLAM by Moment
Matching
- arxiv url: http://arxiv.org/abs/2205.13821v1
- Date: Fri, 27 May 2022 08:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:38:40.135043
- Title: A Look at Improving Robustness in Visual-inertial SLAM by Moment
Matching
- Title(参考訳): モーメントマッチングによる視覚慣性SLAMのロバスト性向上の検討
- Authors: Arno Solin, Rui Li, Andrea Pilzer
- Abstract要約: 本稿では,拡張カルマンフィルタ(EKF)がもたらす実用的意味と限界について批判的な考察を行う。
我々は,視覚-慣性計測と視覚SLAMの両方にモーメントマッチング(未開のカルマンフィルタリング)アプローチを採用する。
- 参考スコア(独自算出の注目度): 17.995121900076615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fusion of camera sensor and inertial data is a leading method for
ego-motion tracking in autonomous and smart devices. State estimation
techniques that rely on non-linear filtering are a strong paradigm for solving
the associated information fusion task. The de facto inference method in this
space is the celebrated extended Kalman filter (EKF), which relies on
first-order linearizations of both the dynamical and measurement model. This
paper takes a critical look at the practical implications and limitations posed
by the EKF, especially under faulty visual feature associations and the
presence of strong confounding noise. As an alternative, we revisit the assumed
density formulation of Bayesian filtering and employ a moment matching
(unscented Kalman filtering) approach to both visual-inertial odometry and
visual SLAM. Our results highlight important aspects in robustness both in
dynamics propagation and visual measurement updates, and we show
state-of-the-art results on EuRoC MAV drone data benchmark.
- Abstract(参考訳): カメラセンサと慣性データの融合は、自律的およびスマートデバイスにおけるエゴモーショントラッキングの先駆的手法である。
非線形フィルタリングに依存する状態推定技術は、関連する情報融合タスクを解決するための強力なパラダイムである。
この空間におけるデファクト推論法は有名な拡張カルマンフィルタ(EKF)であり、力学モデルと測定モデルの両方の1階線形化に依存している。
本稿では,EKFが生み出す実用的意味と限界,特に視覚的特徴相関の欠陥と強い共起雑音の存在について批判的な考察を行う。
代わりとして,ベイズフィルタの仮定密度の定式化を再考し,視慣性オドメトリと視覚スラムの両方にモーメントマッチング(無香りカルマンフィルタリング)アプローチを適用する。
本結果は,ダイナミックス伝搬と視覚計測の両面でのロバスト性の重要な側面を強調し,EuRoC MAVのドローンデータベンチマークで最先端の結果を示す。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [56.95046107046027]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - A Framework for 3D Tracking of Frontal Dynamic Objects in Autonomous
Cars [0.0]
本論文では, YOLOv3 アプローチを OpenCV トラッカーの横に使用し, 画像から特徴を引き出す。
横距離と縦距離を得るため、状態依存リッカティ方程式フィルタと並行して非線形sfmモデルを考える。
SDREフィルタの堅牢な性能を高めるために, スイッチング推定誤差共分散方式のスイッチング方式を提案する。
論文 参考訳(メタデータ) (2021-03-24T18:21:29Z) - Robust Correlation Tracking via Multi-channel Fused Features and
Reliable Response Map [10.079856376445598]
本稿では,2つのアイデアに基づく頑健な相関追跡アルゴリズム(RCT)を提案する。
まず,追跡対象の勾配や色情報をより自然に記述するために,特徴を融合する手法を提案する。
第二に、応答マップにおけるノイズを著しく低減し、従ってモデルドリフトの問題を緩和する新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T07:15:03Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - TLIO: Tight Learned Inertial Odometry [43.17991168599939]
IMUのみの状態推定のための密結合拡張カルマンフィルタフレームワークを提案する。
ヘッドセットからの歩行者データでトレーニングされた我々のネットワークは、統計的に一貫した測定と不確実性を生み出すことができる。
論文 参考訳(メタデータ) (2020-07-06T03:13:34Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。