論文の概要: SpaRC-AD: A Baseline for Radar-Camera Fusion in End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.10567v1
- Date: Thu, 14 Aug 2025 12:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.300331
- Title: SpaRC-AD: A Baseline for Radar-Camera Fusion in End-to-End Autonomous Driving
- Title(参考訳): SpaRC-AD: エンド・ツー・エンド自動運転におけるレーダーカメラ融合のベースライン
- Authors: Philipp Wolters, Johannes Gilg, Torben Teepe, Gerhard Rigoll,
- Abstract要約: SpaRC-ADは、計画指向の自律運転のためのクエリベースのエンドツーエンドカメラレーダ融合フレームワークである。
本手法は、複数の自律運転タスクにおいて、最先端のビジョンのみのベースラインよりも強力な改善を実現する。
- 参考スコア(独自算出の注目度): 5.343552118560704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End-to-end autonomous driving systems promise stronger performance through unified optimization of perception, motion forecasting, and planning. However, vision-based approaches face fundamental limitations in adverse weather conditions, partial occlusions, and precise velocity estimation - critical challenges in safety-sensitive scenarios where accurate motion understanding and long-horizon trajectory prediction are essential for collision avoidance. To address these limitations, we propose SpaRC-AD, a query-based end-to-end camera-radar fusion framework for planning-oriented autonomous driving. Through sparse 3D feature alignment, and doppler-based velocity estimation, we achieve strong 3D scene representations for refinement of agent anchors, map polylines and motion modelling. Our method achieves strong improvements over the state-of-the-art vision-only baselines across multiple autonomous driving tasks, including 3D detection (+4.8% mAP), multi-object tracking (+8.3% AMOTA), online mapping (+1.8% mAP), motion prediction (-4.0% mADE), and trajectory planning (-0.1m L2 and -9% TPC). We achieve both spatial coherence and temporal consistency on multiple challenging benchmarks, including real-world open-loop nuScenes, long-horizon T-nuScenes, and closed-loop simulator Bench2Drive. We show the effectiveness of radar-based fusion in safety-critical scenarios where accurate motion understanding and long-horizon trajectory prediction are essential for collision avoidance. The source code of all experiments is available at https://phi-wol.github.io/sparcad/
- Abstract(参考訳): エンドツーエンドの自動運転システムは、知覚、運動予測、計画の統一的な最適化を通じて、より強力なパフォーマンスを約束する。
しかし、視覚に基づくアプローチは、悪天候条件、部分閉塞、正確な速度推定の基本的な制限に直面している。
これらの制約に対処するため、我々は、計画指向自動運転のためのクエリベースのエンドツーエンドカメラレーダ融合フレームワークであるSpaRC-ADを提案する。
シャープな3次元特徴アライメントとドップラーに基づく速度推定により,エージェントアンカーの洗練,マップポリライン,モーションモデリングのための強力な3次元シーン表現を実現する。
提案手法は、3次元検出(+4.8% mAP)、多対象追跡(+8.3% AMOTA)、オンラインマッピング(+1.8% mAP)、動き予測(-4.0% mADE)、軌道計画(-0.1m L2および-9% TPC)を含む、複数の自律走行タスクにおける最先端のビジョンのみのベースラインに対する強力な改善を実現する。
実世界のオープンループ nuScenes,ロングホライゾン T-nuScenes,クローズドループシミュレータ Bench2Drive など,複数の課題のあるベンチマークにおいて,空間的コヒーレンスと時間的整合性を両立させる。
衝突回避のためには,正確な動き理解と長距離軌道予測が不可欠である安全クリティカルなシナリオにおいて,レーダベースの融合の有効性を示す。
すべての実験のソースコードはhttps://phi-wol.github.io/sparcad/で公開されている。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Bayesian Approximation-Based Trajectory Prediction and Tracking with 4D Radar [13.438311878715536]
3Dマルチオブジェクトトラッキング(MOT)は自動運転車には不可欠だが、LiDARとカメラベースの手法は悪天候下では劣化する。
本研究では,4次元レーダベースMOTフレームワークであるBayes-4DRTrackを提案する。
論文 参考訳(メタデータ) (2025-02-03T13:49:21Z) - MetaOcc: Spatio-Temporal Fusion of Surround-View 4D Radar and Camera for 3D Occupancy Prediction with Dual Training Strategies [12.485905108032146]
本稿では,Omni指向の3次元占有予測のための新しいマルチモーダルフレームワークであるMetaOccを紹介する。
レーダーデータにエンコーダを直接適用することの限界に対処するため,レーダハイト自己保持モジュールを提案する。
高価な点クラウドへの依存を軽減するため,オープンセットセグメンタに基づく擬似ラベル生成パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-26T03:51:56Z) - Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。