論文の概要: Event-Based Visual Odometry on Non-Holonomic Ground Vehicles
- arxiv url: http://arxiv.org/abs/2401.09331v1
- Date: Wed, 17 Jan 2024 16:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:11:29.923851
- Title: Event-Based Visual Odometry on Non-Holonomic Ground Vehicles
- Title(参考訳): 非ホロノミック地上車両におけるイベントベースビジュアルオドメトリー
- Authors: Wanting Xu, Si'ao Zhang, Li Cui, Xin Peng, Laurent Kneip
- Abstract要約: イベントベースのビジュアルオドメトリーは、挑戦的な照明シナリオにおいて信頼性と堅牢性を示す。
提案アルゴリズムは車両の回転速度を正確に推定し,通常の条件下でのフレームベースセンサによるデルタ回転に匹敵する結果を得る。
- 参考スコア(独自算出の注目度): 20.847519645153337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promise of superior performance under challenging conditions,
event-based motion estimation remains a hard problem owing to the difficulty of
extracting and tracking stable features from event streams. In order to
robustify the estimation, it is generally believed that fusion with other
sensors is a requirement. In this work, we demonstrate reliable, purely
event-based visual odometry on planar ground vehicles by employing the
constrained non-holonomic motion model of Ackermann steering platforms. We
extend single feature n-linearities for regular frame-based cameras to the case
of quasi time-continuous event-tracks, and achieve a polynomial form via
variable degree Taylor expansions. Robust averaging over multiple event tracks
is simply achieved via histogram voting. As demonstrated on both simulated and
real data, our algorithm achieves accurate and robust estimates of the
vehicle's instantaneous rotational velocity, and thus results that are
comparable to the delta rotations obtained by frame-based sensors under normal
conditions. We furthermore significantly outperform the more traditional
alternatives in challenging illumination scenarios. The code is available at
\url{https://github.com/gowanting/NHEVO}.
- Abstract(参考訳): 課題条件下では優れた性能が期待できるが、イベントストリームから安定した特徴を抽出・追跡することが難しいため、イベントベースの動作推定は依然として難しい課題である。
この推定を堅牢にするために、他のセンサーとの融合が要求事項であると考えられている。
本研究では,アッカーマンステアリングプラットフォームの非ホロノミックな運動モデルを用いて,平面地上車両上での信頼性,純粋にイベントベースの視覚計測を実証する。
正規フレームベースカメラの単一特徴n-線型性を準時間連続イベントトラックの場合まで拡張し,可変次テイラー展開による多項式形式を実現する。
複数のイベントトラックに対するロバスト平均化は、ヒストグラム投票によって達成される。
シミュレーションデータと実データの両方で示すように,本アルゴリズムは車両の瞬時回転速度の精度およびロバストな推定を実現し,通常の条件下でのフレームベースセンサによるデルタ回転に匹敵する結果を得た。
さらに,照明シナリオへの挑戦において,従来の選択肢を大きく上回っている。
コードは \url{https://github.com/gowanting/nhevo} で入手できる。
関連論文リスト
- AsynEIO: Asynchronous Monocular Event-Inertial Odometry Using Gaussian Process Regression [7.892365588256595]
本稿では,非同期イベントと慣性データを融合した単分子イベント慣性オドメトリーAsynEIOを提案する。
AsynEIOは、特に高速・低照度シナリオにおいて、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-19T02:39:57Z) - EVIT: Event-based Visual-Inertial Tracking in Semi-Dense Maps Using Windowed Nonlinear Optimization [19.915476815328294]
イベントカメラは、絶対的な画像強度を統合するのではなく、明るさの変化に反応する興味深い視覚的知覚センサーである。
本報告では, 推定精度を高めるため, 慣性信号の追加を提案する。
本評価では,さまざまな実世界のシーケンスに焦点をあて,異なるレートで実行されるイベントベースの代替手段との比較を行った。
論文 参考訳(メタデータ) (2024-08-02T16:24:55Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - Asynchronous Blob Tracker for Event Cameras [5.64242497932732]
イベントベースのカメラは、高時間分解能、低レイテンシ、高範囲のために、高速で動く物体を追跡するのに人気がある。
本稿では,生イベントをリアルタイムに非同期に追跡する新しいアルゴリズムを提案する。
本アルゴリズムは, 難解な照明条件下であっても, 高精度なブロブ追跡, 速度推定, 形状推定を実現する。
論文 参考訳(メタデータ) (2023-07-20T05:15:03Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。