論文の概要: Event-Based Visual Odometry on Non-Holonomic Ground Vehicles
- arxiv url: http://arxiv.org/abs/2401.09331v1
- Date: Wed, 17 Jan 2024 16:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:11:29.923851
- Title: Event-Based Visual Odometry on Non-Holonomic Ground Vehicles
- Title(参考訳): 非ホロノミック地上車両におけるイベントベースビジュアルオドメトリー
- Authors: Wanting Xu, Si'ao Zhang, Li Cui, Xin Peng, Laurent Kneip
- Abstract要約: イベントベースのビジュアルオドメトリーは、挑戦的な照明シナリオにおいて信頼性と堅牢性を示す。
提案アルゴリズムは車両の回転速度を正確に推定し,通常の条件下でのフレームベースセンサによるデルタ回転に匹敵する結果を得る。
- 参考スコア(独自算出の注目度): 20.847519645153337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promise of superior performance under challenging conditions,
event-based motion estimation remains a hard problem owing to the difficulty of
extracting and tracking stable features from event streams. In order to
robustify the estimation, it is generally believed that fusion with other
sensors is a requirement. In this work, we demonstrate reliable, purely
event-based visual odometry on planar ground vehicles by employing the
constrained non-holonomic motion model of Ackermann steering platforms. We
extend single feature n-linearities for regular frame-based cameras to the case
of quasi time-continuous event-tracks, and achieve a polynomial form via
variable degree Taylor expansions. Robust averaging over multiple event tracks
is simply achieved via histogram voting. As demonstrated on both simulated and
real data, our algorithm achieves accurate and robust estimates of the
vehicle's instantaneous rotational velocity, and thus results that are
comparable to the delta rotations obtained by frame-based sensors under normal
conditions. We furthermore significantly outperform the more traditional
alternatives in challenging illumination scenarios. The code is available at
\url{https://github.com/gowanting/NHEVO}.
- Abstract(参考訳): 課題条件下では優れた性能が期待できるが、イベントストリームから安定した特徴を抽出・追跡することが難しいため、イベントベースの動作推定は依然として難しい課題である。
この推定を堅牢にするために、他のセンサーとの融合が要求事項であると考えられている。
本研究では,アッカーマンステアリングプラットフォームの非ホロノミックな運動モデルを用いて,平面地上車両上での信頼性,純粋にイベントベースの視覚計測を実証する。
正規フレームベースカメラの単一特徴n-線型性を準時間連続イベントトラックの場合まで拡張し,可変次テイラー展開による多項式形式を実現する。
複数のイベントトラックに対するロバスト平均化は、ヒストグラム投票によって達成される。
シミュレーションデータと実データの両方で示すように,本アルゴリズムは車両の瞬時回転速度の精度およびロバストな推定を実現し,通常の条件下でのフレームベースセンサによるデルタ回転に匹敵する結果を得た。
さらに,照明シナリオへの挑戦において,従来の選択肢を大きく上回っている。
コードは \url{https://github.com/gowanting/nhevo} で入手できる。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - SIMPL: A Simple and Efficient Multi-agent Motion Prediction Baseline for
Autonomous Driving [27.776472262857045]
本稿では,自動運転車のための簡易かつ効率的な運動予測ベースライン(SIMPL)を提案する。
メッセージ転送を対称的に行う,コンパクトで効率的なグローバル機能融合モジュールを提案する。
強力なベースラインとして、SIMPLはArgoverse 1と2のモーション予測ベンチマークで高い競争性能を示す。
論文 参考訳(メタデータ) (2024-02-04T15:07:49Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - A 5-Point Minimal Solver for Event Camera Relative Motion Estimation [47.45081895021988]
本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
論文 参考訳(メタデータ) (2023-09-29T08:30:18Z) - Event Blob Tracking: An Asynchronous Real-Time Algorithm [14.312736839139417]
本稿では,生イベントをリアルタイムに非同期に追跡する新しいアルゴリズムを提案する。
本アルゴリズムは,難解な照明条件下であっても,高精度なトラッキングとイベントブロブ形状推定を実現する。
フィルタ出力は、時間対接触や範囲推定などの二次情報を導出するのに使用することができる。
論文 参考訳(メタデータ) (2023-07-20T05:15:03Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。