論文の概要: Planar Velocity Estimation for Fast-Moving Mobile Robots Using Event-Based Optical Flow
- arxiv url: http://arxiv.org/abs/2505.11116v1
- Date: Fri, 16 May 2025 11:00:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.771092
- Title: Planar Velocity Estimation for Fast-Moving Mobile Robots Using Event-Based Optical Flow
- Title(参考訳): イベントベース光流を用いた高速移動ロボットの平面速度推定
- Authors: Liam Boyle, Jonas Kühne, Nicolas Baumann, Niklas Bastuck, Michele Magno,
- Abstract要約: 本稿では,車輪と表面のトラクションの仮定から分離した速度推定手法を提案する。
提案手法は1:10スケールの自律レースプラットフォーム上でのフィールド実験により評価される。
- 参考スコア(独自算出の注目度): 1.4447019135112429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate velocity estimation is critical in mobile robotics, particularly for driver assistance systems and autonomous driving. Wheel odometry fused with Inertial Measurement Unit (IMU) data is a widely used method for velocity estimation; however, it typically requires strong assumptions, such as non-slip steering, or complex vehicle dynamics models that do not hold under varying environmental conditions like slippery surfaces. We introduce an approach to velocity estimation that is decoupled from wheel-to-surface traction assumptions by leveraging planar kinematics in combination with optical flow from event cameras pointed perpendicularly at the ground. The asynchronous micro-second latency and high dynamic range of event cameras make them highly robust to motion blur, a common challenge in vision-based perception techniques for autonomous driving. The proposed method is evaluated through in-field experiments on a 1:10 scale autonomous racing platform and compared to precise motion capture data, demonstrating not only performance on par with the state-of-the-art Event-VIO method but also a 38.3 % improvement in lateral error. Qualitative experiments at highway speeds of up to 32 m/s further confirm the effectiveness of our approach, indicating significant potential for real-world deployment.
- Abstract(参考訳): 正確な速度推定はモバイルロボティクス、特に運転支援システムや自動運転において重要である。
慣性測定ユニット(IMU)データと融合した車輪計測は速度推定法として広く用いられているが、一般には非すべりステアリングや、すべり面のような様々な環境条件下では保持されない複雑な車両力学モデルのような強い仮定を必要とする。
本研究では, 平面キネマティクスと, 地上に垂直に向けられたイベントカメラからの光学的流れを併用することにより, 車輪と表面のトラクションの仮定から切り離された速度推定手法を提案する。
非同期マイクロ秒レイテンシと高ダイナミックレンジのイベントカメラは、自律運転のための視覚ベースの認識技術において一般的な課題である、動きのぼかしに対して非常に堅牢である。
提案手法は、1:10スケールの自律レースプラットフォーム上でのフィールド実験により評価され、精密なモーションキャプチャデータと比較され、最先端のEvent-VIO法と同等の性能を示しただけでなく、横誤差が38.3%向上した。
高速で最大32m/sの定性的実験を行い,本手法の有効性を確認した。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - Learning Terrain-Aware Kinodynamic Model for Autonomous Off-Road Rally
Driving With Model Predictive Path Integral Control [4.23755398158039]
本稿では,固有受容情報と外部受容情報の両方に基づいて,地形を考慮したキノダイナミクスモデルを学習する手法を提案する。
提案モデルでは、6自由度運動の信頼性予測が生成され、接触相互作用を推定することもできる。
シミュレーションされたオフロードトラック実験により提案手法の有効性を実証し,提案手法がベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:09:49Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。