論文の概要: AsynEIO: Asynchronous Monocular Event-Inertial Odometry Using Gaussian Process Regression
- arxiv url: http://arxiv.org/abs/2411.12175v1
- Date: Tue, 19 Nov 2024 02:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:36:00.169551
- Title: AsynEIO: Asynchronous Monocular Event-Inertial Odometry Using Gaussian Process Regression
- Title(参考訳): AsynEIO: ガウス過程回帰を用いた非同期単分子イベント慣性オドメトリー
- Authors: Zhixiang Wang, Xudong Li, Yizhai Zhang, Fan Zhang, Panfeng,
- Abstract要約: 本稿では,非同期イベントと慣性データを融合した単分子イベント慣性オドメトリーAsynEIOを提案する。
AsynEIOは、特に高速・低照度シナリオにおいて、既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 7.892365588256595
- License:
- Abstract: Event cameras, when combined with inertial sensors, show significant potential for motion estimation in challenging scenarios, such as high-speed maneuvers and low-light environments. There are many methods for producing such estimations, but most boil down to a synchronous discrete-time fusion problem. However, the asynchronous nature of event cameras and their unique fusion mechanism with inertial sensors remain underexplored. In this paper, we introduce a monocular event-inertial odometry method called AsynEIO, designed to fuse asynchronous event and inertial data within a unified Gaussian Process (GP) regression framework. Our approach incorporates an event-driven frontend that tracks feature trajectories directly from raw event streams at a high temporal resolution. These tracked feature trajectories, along with various inertial factors, are integrated into the same GP regression framework to enable asynchronous fusion. With deriving analytical residual Jacobians and noise models, our method constructs a factor graph that is iteratively optimized and pruned using a sliding-window optimizer. Comparative assessments highlight the performance of different inertial fusion strategies, suggesting optimal choices for varying conditions. Experimental results on both public datasets and our own event-inertial sequences indicate that AsynEIO outperforms existing methods, especially in high-speed and low-illumination scenarios.
- Abstract(参考訳): イベントカメラと慣性センサーを組み合わせると、高速機動や低照度環境といった困難なシナリオにおいて、運動推定に重要な可能性を示す。
このような推定法は数多く存在するが、ほとんどの場合同期離散時間融合問題に導かれる。
しかし、イベントカメラの非同期特性と慣性センサーを用いた独自の融合機構はいまだ未解明のままである。
本稿では,非同期イベントと慣性データを統一されたガウスプロセス(GP)回帰フレームワーク内で融合させる,AsynEIOと呼ばれる単眼イベント慣性オドメトリー手法を提案する。
当社のアプローチでは,高時間分解能で生イベントストリームから直接特徴トラジェクトリを追跡する,イベント駆動型のフロントエンドを導入しています。
これらの追跡された特徴軌跡は、様々な慣性要因とともに、非同期融合を可能にするために、同じGP回帰フレームワークに統合される。
解析的残留ヤコビアンとノイズモデルから導出することにより,スライディング・ウインドウ・オプティマイザを用いて反復的に最適化および刈り取られる因子グラフを構築する。
比較評価では、異なる慣性融合戦略の性能を強調し、異なる条件に対する最適な選択を提案する。
公開データセットと当社のイベント慣性シーケンスによる実験結果から,AsynEIOは既存の手法,特に高速・低照度シナリオにおいて優れていたことが示唆された。
関連論文リスト
- Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - ALERT-Transformer: Bridging Asynchronous and Synchronous Machine Learning for Real-Time Event-based Spatio-Temporal Data [8.660721666999718]
非同期センシングと同期処理を組み合わせたハイブリッドパイプラインを提案する。
競争相手よりもレイテンシの低い最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-02-02T13:17:19Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - A Diffusion-Model of Joint Interactive Navigation [14.689298253430568]
本稿では,交通シナリオを生成する拡散に基づくDJINNを提案する。
我々のアプローチは、過去、現在、未来からのフレキシブルな状態観察のセットに基づいて、全てのエージェントの軌跡を共同で拡散させる。
本稿では,DJINNが様々な条件分布からの直接的テスト時間サンプリングを柔軟に行う方法を示す。
論文 参考訳(メタデータ) (2023-09-21T22:10:20Z) - STGlow: A Flow-based Generative Framework with Dual Graphormer for
Pedestrian Trajectory Prediction [22.553356096143734]
歩行者軌跡予測(STGlow)のための二重グラフマーを用いた新しい生成フローベースフレームワークを提案する。
本手法は,動作の正確なログライクな振る舞いを最適化することにより,基礎となるデータ分布をより正確にモデル化することができる。
いくつかのベンチマークによる実験結果から,本手法は従来の最先端手法に比べて性能が向上することが示された。
論文 参考訳(メタデータ) (2022-11-21T07:29:24Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Globally Optimal Event-Based Divergence Estimation for Ventral Landing [55.29096494880328]
イベントセンシングはバイオインスパイアされた飛行誘導と制御システムの主要なコンポーネントである。
本研究では, イベントカメラを用いた腹側着陸時の表面との接触時間予測について検討する。
これは、着陸時に発生する事象の流れから放射光の流れの速度である発散(逆TTC)を推定することで達成される。
我々のコアコントリビューションは、イベントベースの発散推定のための新しいコントラスト最大化定式化と、コントラストを正確に最大化し、最適な発散値を求めるブランチ・アンド・バウンドアルゴリズムである。
論文 参考訳(メタデータ) (2022-09-27T06:00:52Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。