論文の概要: CarPLAN: Context-Adaptive and Robust Planning with Dynamic Scene Awareness for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.12607v1
- Date: Fri, 13 Mar 2026 03:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.872621
- Title: CarPLAN: Context-Adaptive and Robust Planning with Dynamic Scene Awareness for Autonomous Driving
- Title(参考訳): CarPLAN: 自律運転のための動的シーン認識によるコンテキスト適応型ロバスト計画
- Authors: Junyong Yun, Jungho Kim, ByungHyun Lee, Dongyoung Lee, Sehwan Choi, Seunghyeop Nam, Kichun Jo, Jun Won Choi,
- Abstract要約: CarPLANは、駆動コンテキスト理解を明示的に強化する新しいILベースのモーションプランニングフレームワークである。
変位認識予測一般化(DPE)はモデルの空間認識を改善する。
CMD(Context-adaptive Multi-Expert Decoder)は、さまざまな駆動コンテキストを扱うモデルの能力を改善する。
- 参考スコア(独自算出の注目度): 24.617191209246226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning (IL) is widely used for motion planning in autonomous driving due to its data efficiency and access to real-world driving data. For safe and robust real-world driving, IL-based planning requires capturing the complex driving contexts inherent in real-world data and enabling context-adaptive decision-making, rather than relying solely on expert trajectory imitation. In this paper, we propose CarPLAN, a novel IL-based motion planning framework that explicitly enhances driving context understanding and enables adaptive planning across diverse traffic scenarios. Our contributions are twofold: We introduce Displacement-Aware Predictive Encoding (DPE) to improve the model's spatial awareness by predicting future displacement vectors between the Autonomous Vehicle (AV) and surrounding scene elements. This allows the planner to account for relational spacing when generating trajectories. In addition to the standard imitation loss, we incorporate an augmented loss term that captures displacement prediction errors, ensuring planning decisions consider relative distances from other agents. To improve the model's ability to handle diverse driving contexts, we propose Context-Adaptive Multi-Expert Decoder (CMD), which leverages the Mixture of Experts (MoE) framework. CMD dynamically selects the most suitable expert decoders based on scene structure at each Transformer layer, enabling adaptive and context-aware planning in dynamic environments. We evaluate CarPLAN on the nuPlan benchmark and demonstrate state-of-the-art performance across all closed-loop simulation metrics. In particular, CarPLAN exhibits robust performance on challenging scenarios such as Test14-Hard, validating its effectiveness in complex driving conditions. Additional experiments on the Waymax benchmark further demonstrate its generalization capability across different benchmark settings.
- Abstract(参考訳): シミュレーション学習(IL)は、そのデータ効率と実世界の運転データへのアクセスにより、自律運転における運動計画に広く利用されている。
安全で堅牢な現実世界の運転には、ILベースの計画では、専門家の軌道模倣にのみ依存するのではなく、現実世界のデータに固有の複雑な運転コンテキストをキャプチャし、文脈適応型意思決定を可能にする必要がある。
本稿では,多様な交通シナリオにまたがって,運転状況の理解を深め,適応的な計画を可能にする,新しいILベースの動作計画フレームワークであるCarPLANを提案する。
自動走行車(AV)と周囲のシーン要素の間の将来の変位ベクトルを予測することにより、モデルの空間認識を改善するために、変位認識予測符号化(DPE)を導入する。
これにより、プランナーはトラジェクトリを生成する際のリレーショナル間隔を考慮できる。
標準的な模倣損失に加えて、変位予測誤差を捕捉し、他のエージェントとの相対距離を考慮した計画決定を確実にする拡張損失項を組み込む。
各種駆動コンテキストを扱うモデルの能力を改善するために,Mixture of Experts(MoE)フレームワークを活用したコンテキスト適応型マルチエキスパートデコーダ(CMD)を提案する。
CMDは、各トランスフォーマー層におけるシーン構造に基づいて、最適な専門家デコーダを動的に選択し、動的環境における適応的かつコンテキスト対応の計画を可能にする。
nuPlanベンチマーク上でCarPLANを評価し,すべての閉ループシミュレーション指標における最先端性能を示す。
特に、CarPLANはTest14-Hardのような挑戦的なシナリオに対して堅牢なパフォーマンスを示し、複雑な運転条件におけるその有効性を検証する。
Waymaxベンチマークのさらなる実験は、異なるベンチマーク設定でその一般化能力をさらに実証している。
関連論文リスト
- ImagiDrive: A Unified Imagination-and-Planning Framework for Autonomous Driving [64.12414815634847]
ビジョン・ランゲージ・モデル(VLM)とドライビング・ワールド・モデル(DWM)は、この課題のさまざまな側面に対処する強力なレシピとして独立して登場した。
我々は、VLMベースの運転エージェントとDWMベースのシーン想像装置を統合した、新しいエンドツーエンドの自動運転フレームワークであるImagiDriveを提案する。
論文 参考訳(メタデータ) (2025-08-15T12:06:55Z) - VLMPlanner: Integrating Visual Language Models with Motion Planning [18.633637485218802]
VLMPlannerは、学習ベースのリアルタイムプランナと生画像の推論が可能な視覚言語モデル(VLM)を組み合わせたハイブリッドフレームワークである。
我々は,VLMが人間の運転動作を模倣できるコンテキスト適応推論ゲート機構を開発した。
論文 参考訳(メタデータ) (2025-07-27T16:15:21Z) - ReCogDrive: A Reinforced Cognitive Framework for End-to-End Autonomous Driving [49.07731497951963]
ReCogDriveは、エンドツーエンドの自動運転のための新しい強化認知フレームワークである。
我々は、人間のドライバーのシーケンシャルな認知過程を模倣する階層的なデータパイプラインを導入する。
次に、VLMの学習した運転先を拡散プランナーに注入することで、言語行動ミスマッチに対処する。
論文 参考訳(メタデータ) (2025-06-09T03:14:04Z) - Driving-RAG: Driving Scenarios Embedding, Search, and RAG Applications [5.375209782382388]
運転シナリオデータは、インテリジェントな車や自動運転の開発において、ますます重要な役割を担っている。
本稿では,RAGシステムにおける効率的なシナリオデータ埋め込み,検索,アプリケーション化の課題に対処するための Driving-RAG フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-04-06T09:05:33Z) - RAD: Retrieval-Augmented Decision-Making of Meta-Actions with Vision-Language Models in Autonomous Driving [10.984203470464687]
視覚言語モデル(VLM)は、空間認識の不十分さや幻覚といった限界に悩まされることが多い。
本稿では,自律走行シーンにおけるメタアクションを確実に生成するVLMの能力を高めるための,検索強化意思決定(RAD)フレームワークを提案する。
我々は,NuScenesデータセットから得られたデータセットに基づいてVLMを微調整し,その空間的知覚と鳥眼視画像理解能力を高める。
論文 参考訳(メタデータ) (2025-03-18T03:25:57Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。