論文の概要: Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation
- arxiv url: http://arxiv.org/abs/2401.09296v1
- Date: Wed, 17 Jan 2024 15:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:26:11.514880
- Title: Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation
- Title(参考訳): 直接速度推定のためのイベントの高度融合と慣性測定
- Authors: Wanting Xu, Xin Peng and Laurent Kneip
- Abstract要約: 本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
- 参考スコア(独自算出の注目度): 20.002238735553792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional visual-inertial state estimation targets absolute camera poses
and spatial landmark locations while first-order kinematics are typically
resolved as an implicitly estimated sub-state. However, this poses a risk in
velocity-based control scenarios, as the quality of the estimation of
kinematics depends on the stability of absolute camera and landmark coordinates
estimation. To address this issue, we propose a novel solution to tight
visual-inertial fusion directly at the level of first-order kinematics by
employing a dynamic vision sensor instead of a normal camera. More
specifically, we leverage trifocal tensor geometry to establish an incidence
relation that directly depends on events and camera velocity, and demonstrate
how velocity estimates in highly dynamic situations can be obtained over short
time intervals. Noise and outliers are dealt with using a nested two-layer
RANSAC scheme. Additionally, smooth velocity signals are obtained from a tight
fusion with pre-integrated inertial signals using a sliding window optimizer.
Experiments on both simulated and real data demonstrate that the proposed tight
event-inertial fusion leads to continuous and reliable velocity estimation in
highly dynamic scenarios independently of absolute coordinates. Furthermore, in
extreme cases, it achieves more stable and more accurate estimation of
kinematics than traditional, point-position-based visual-inertial odometry.
- Abstract(参考訳): 従来の視覚慣性状態推定は絶対的なカメラポーズや空間的ランドマークの位置を目標とし、一階キネマティクスは通常暗黙的に推定されるサブステートとして解決される。
しかし、これは速度に基づく制御シナリオのリスクを生じさせ、キネマティクスの推定の質は絶対カメラの安定性とランドマーク座標の推定に依存する。
この問題に対処するために,通常のカメラの代わりにダイナミック・ビジョン・センサを用いて,一階キネマティクスのレベルで直接ビジュアル・慣性融合を行う新しい手法を提案する。
より具体的には、三焦点テンソル幾何を利用して、イベントとカメラの速度に直接依存する入射関係を確立し、非常にダイナミックな状況における速度推定が短時間の間隔でどのように得られるかを実証する。
ノイズと降圧器はネストした2層RANSAC方式で処理される。
また、スライディングウインドウオプティマイザを用いた予め積分した慣性信号との密接な融合により、滑らかな速度信号が得られる。
シミュレーションデータと実データの両方の実験により、提案された厳密な事象-慣性融合が絶対座標とは無関係に高ダイナミックなシナリオにおいて連続的かつ信頼性の高い速度推定をもたらすことを示した。
さらに極端なケースでは、従来の点位置に基づく視覚慣性オドメトリよりも、より安定で正確な運動量の推定が可能となる。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - EVIT: Event-based Visual-Inertial Tracking in Semi-Dense Maps Using Windowed Nonlinear Optimization [19.915476815328294]
イベントカメラは、絶対的な画像強度を統合するのではなく、明るさの変化に反応する興味深い視覚的知覚センサーである。
本報告では, 推定精度を高めるため, 慣性信号の追加を提案する。
本評価では,さまざまな実世界のシーケンスに焦点をあて,異なるレートで実行されるイベントベースの代替手段との比較を行った。
論文 参考訳(メタデータ) (2024-08-02T16:24:55Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - Event-Based Visual Odometry on Non-Holonomic Ground Vehicles [20.847519645153337]
イベントベースのビジュアルオドメトリーは、挑戦的な照明シナリオにおいて信頼性と堅牢性を示す。
提案アルゴリズムは車両の回転速度を正確に推定し,通常の条件下でのフレームベースセンサによるデルタ回転に匹敵する結果を得る。
論文 参考訳(メタデータ) (2024-01-17T16:52:20Z) - A 5-Point Minimal Solver for Event Camera Relative Motion Estimation [47.45081895021988]
本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
論文 参考訳(メタデータ) (2023-09-29T08:30:18Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Continuous Event-Line Constraint for Closed-Form Velocity Initialization [0.0]
イベントカメラは、対数輝度レベルの十分な変更に基づいて、非同期かつ独立にイベントをトリガーする。
本稿では,一階カメラのダイナミックスだけでなく,イベントクラスタが与えるラインオブザーバ間の関係を表現するために,一定の速度運動仮定と三焦点形状に依存する連続的なイベントライン制約を提案する。
論文 参考訳(メタデータ) (2021-09-09T14:39:56Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。