論文の概要: Monocular Event-Inertial Odometry with Adaptive decay-based Time Surface and Polarity-aware Tracking
- arxiv url: http://arxiv.org/abs/2409.13971v1
- Date: Sat, 21 Sep 2024 01:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 04:17:38.695838
- Title: Monocular Event-Inertial Odometry with Adaptive decay-based Time Surface and Polarity-aware Tracking
- Title(参考訳): 適応減衰型時間表面と極性認識トラッキングを用いた単眼イベント慣性オドメトリー
- Authors: Kai Tang, Xiaolei Lang, Yukai Ma, Yuehao Huang, Laijian Li, Yong Liu, Jiajun Lv,
- Abstract要約: イベントカメラは、消費電力が低く、ダイナミックレンジが高く、動きがぼやけていない従来のカメラよりも利点があるため、かなりの注目を集めている。
本稿では,極性認識トラッキングを備えた適応型減衰カーネルベース時間面を応用した単分子イベント慣性オドメトリーを提案する。
- 参考スコア(独自算出の注目度): 8.706391634769384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras have garnered considerable attention due to their advantages over traditional cameras in low power consumption, high dynamic range, and no motion blur. This paper proposes a monocular event-inertial odometry incorporating an adaptive decay kernel-based time surface with polarity-aware tracking. We utilize an adaptive decay-based Time Surface to extract texture information from asynchronous events, which adapts to the dynamic characteristics of the event stream and enhances the representation of environmental textures. However, polarity-weighted time surfaces suffer from event polarity shifts during changes in motion direction. To mitigate its adverse effects on feature tracking, we optimize the feature tracking by incorporating an additional polarity-inverted time surface to enhance the robustness. Comparative analysis with visual-inertial and event-inertial odometry methods shows that our approach outperforms state-of-the-art techniques, with competitive results across various datasets.
- Abstract(参考訳): イベントカメラは、消費電力が低く、ダイナミックレンジが高く、動きがぼやけていない従来のカメラよりも利点があるため、かなりの注目を集めている。
本稿では,極性認識トラッキングを備えた適応型減衰カーネルベース時間面を応用した単分子イベント慣性オドメトリーを提案する。
適応的減衰に基づく時間表面を用いて,非同期イベントからテクスチャ情報を抽出し,イベントストリームの動的特性に適応し,環境テクスチャの表現を向上させる。
しかし、極性重み付き時間表面は、運動方向の変化中に事象の極性シフトに悩まされる。
特徴追跡に対する悪影響を軽減するため,極性反転時間面を付加することにより特徴追跡を最適化し,ロバスト性を高める。
視覚・慣性・事象・慣性オドメトリー法との比較分析により,本手法は最先端技術よりも優れ,各種データセットの競合性も高いことがわかった。
関連論文リスト
- AsynEIO: Asynchronous Monocular Event-Inertial Odometry Using Gaussian Process Regression [7.892365588256595]
本稿では,非同期イベントと慣性データを融合した単分子イベント慣性オドメトリーAsynEIOを提案する。
AsynEIOは、特に高速・低照度シナリオにおいて、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-19T02:39:57Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - EVIT: Event-based Visual-Inertial Tracking in Semi-Dense Maps Using Windowed Nonlinear Optimization [19.915476815328294]
イベントカメラは、絶対的な画像強度を統合するのではなく、明るさの変化に反応する興味深い視覚的知覚センサーである。
本報告では, 推定精度を高めるため, 慣性信号の追加を提案する。
本評価では,さまざまな実世界のシーケンスに焦点をあて,異なるレートで実行されるイベントベースの代替手段との比較を行った。
論文 参考訳(メタデータ) (2024-08-02T16:24:55Z) - Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
視覚ジャイロスコープは、画像を通してカメラの回転を推定する。
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
本稿では,効率的なマルチマスク・フィルタ回転エステータと学習に基づく最適化を組み合わせた,新しい視覚ジャイロスコープを導入することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - Spatiotemporal Registration for Event-based Visual Odometry [40.02502611087858]
イベントセンシングの有用な応用は、特に高時間分解能を必要とする設定において視覚計測である。
本稿では,イベントベース回転運動推定手法として大規模登録を提案する。
また,高精度ロボットアームを用いて,速度変動が大きい動き列を取得するビジュアルオドメトリーのための新しいイベントデータセットも提供した。
論文 参考訳(メタデータ) (2021-03-10T09:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。