論文の概要: Steering Prediction via a Multi-Sensor System for Autonomous Racing
- arxiv url: http://arxiv.org/abs/2409.19356v1
- Date: Sat, 28 Sep 2024 13:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 23:48:39.622959
- Title: Steering Prediction via a Multi-Sensor System for Autonomous Racing
- Title(参考訳): 自動レース用マルチセンサシステムによるステアリング予測
- Authors: Zhuyun Zhou, Zongwei Wu, Florian Bolli, Rémi Boutteau, Fan Yang, Radu Timofte, Dominique Ginhac, Tobi Delbruck,
- Abstract要約: 伝統的に、レーシングカーは主要な視覚系として2D LiDARに依存している。
本研究では,イベントカメラと既存システムの統合について検討し,時間情報の拡張について述べる。
私たちの目標は、2D LiDARデータをイベントデータをエンドツーエンドの学習フレームワークに融合させることです。
- 参考スコア(独自算出の注目度): 45.70482345703285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous racing has rapidly gained research attention. Traditionally, racing cars rely on 2D LiDAR as their primary visual system. In this work, we explore the integration of an event camera with the existing system to provide enhanced temporal information. Our goal is to fuse the 2D LiDAR data with event data in an end-to-end learning framework for steering prediction, which is crucial for autonomous racing. To the best of our knowledge, this is the first study addressing this challenging research topic. We start by creating a multisensor dataset specifically for steering prediction. Using this dataset, we establish a benchmark by evaluating various SOTA fusion methods. Our observations reveal that existing methods often incur substantial computational costs. To address this, we apply low-rank techniques to propose a novel, efficient, and effective fusion design. We introduce a new fusion learning policy to guide the fusion process, enhancing robustness against misalignment. Our fusion architecture provides better steering prediction than LiDAR alone, significantly reducing the RMSE from 7.72 to 1.28. Compared to the second-best fusion method, our work represents only 11% of the learnable parameters while achieving better accuracy. The source code, dataset, and benchmark will be released to promote future research.
- Abstract(参考訳): 自動運転レースは急速に研究の注目を集めている。
伝統的に、レーシングカーは主要な視覚系として2D LiDARに依存している。
本研究では,イベントカメラと既存システムの統合について検討し,時間情報の拡張について述べる。
私たちの目標は、2D LiDARデータをイベントデータをエンドツーエンドの学習フレームワークに融合させることです。
私たちの知る限りでは、この挑戦的な研究トピックに対処する最初の研究です。
まずは、ステアリング予測専用のマルチセンサデータセットを作成することから始めます。
このデータセットを用いて、様々なSOTA融合法を評価することで、ベンチマークを確立する。
既存の手法では計算コストがかなり高い場合が多い。
そこで我々は,新しい,効率的かつ効果的な融合設計を提案するために,低ランク技術を適用した。
我々は、融合プロセスの指針となる新しい融合学習ポリシーを導入し、不整合に対する堅牢性を高めた。
我々の融合アーキテクチャはLiDAR単独よりも優れた操舵予測を提供し、RMSEは7.72から1.28に大幅に減少する。
第2次融合法と比較すると,本研究は学習可能なパラメータの11%に過ぎず,精度は向上した。
ソースコード、データセット、ベンチマークは、将来の研究を促進するためにリリースされる。
関連論文リスト
- Enhancing Lane Segment Perception and Topology Reasoning with Crowdsourcing Trajectory Priors [12.333249510969289]
本稿では, 軌道先行の新たな視点から, 先行オーディメンテーションを考察する。
我々は、融合プロセス中にアライメントを考慮に入れた信頼に基づく融合モジュールを設計する。
その結果,本手法の性能は現在の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-11-26T07:05:05Z) - FusionAD: Multi-modality Fusion for Prediction and Planning Tasks of
Autonomous Driving [20.037562671813]
FusionADは、最も重要なセンサー、カメラ、LiDARからの情報を融合する最初の統合フレームワークです。
カメラベースのエンドツーエンドUniADに対して、FMSと呼ばれるモダリティ対応の予測ステータス計画モジュールを融合支援する手法を確立する。
我々は、一般的に使用されているベンチマークnuのデータセット、我々の最先端性能、検出や追跡などの認識タスクにおける平均15%のベースライン、占有率の10%の予測精度、予測誤差の0.708から0.389の削減、衝突率の0.31%の削減など、幅広い実験を行った。
論文 参考訳(メタデータ) (2023-08-02T08:29:44Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Stress-Testing LiDAR Registration [52.24383388306149]
本稿では,LiDARデータセットからフレームペアの挑戦的集合である平衡登録集合を選択する手法を提案する。
おそらく予想外のことに、最も高速かつ同時に正確なアプローチは、先進RANSACのバージョンであることがわかった。
論文 参考訳(メタデータ) (2022-04-16T05:10:55Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。