論文の概要: Perception in Plan: Coupled Perception and Planning for End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.11488v1
- Date: Fri, 15 Aug 2025 14:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.039102
- Title: Perception in Plan: Coupled Perception and Planning for End-to-End Autonomous Driving
- Title(参考訳): 計画における知覚: エンド・ツー・エンド自動運転の認識と計画
- Authors: Bozhou Zhang, Jingyu Li, Nan Song, Li Zhang,
- Abstract要約: VeteranADは、エンドツーエンドの自動運転のための認識と計画の複合フレームワークである。
本稿では,計画プロセスに知覚を組み込むフレームワーク設計について紹介する。
VeteranADは、計画指向のエンドツーエンドメソッドの可能性を完全に解き放ち、より正確で信頼性の高い運転行動をもたらす。
- 参考スコア(独自算出の注目度): 13.367058484125787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end autonomous driving has achieved remarkable advancements in recent years. Existing methods primarily follow a perception-planning paradigm, where perception and planning are executed sequentially within a fully differentiable framework for planning-oriented optimization. We further advance this paradigm through a perception-in-plan framework design, which integrates perception into the planning process. This design facilitates targeted perception guided by evolving planning objectives over time, ultimately enhancing planning performance. Building on this insight, we introduce VeteranAD, a coupled perception and planning framework for end-to-end autonomous driving. By incorporating multi-mode anchored trajectories as planning priors, the perception module is specifically designed to gather traffic elements along these trajectories, enabling comprehensive and targeted perception. Planning trajectories are then generated based on both the perception results and the planning priors. To make perception fully serve planning, we adopt an autoregressive strategy that progressively predicts future trajectories while focusing on relevant regions for targeted perception at each step. With this simple yet effective design, VeteranAD fully unleashes the potential of planning-oriented end-to-end methods, leading to more accurate and reliable driving behavior. Extensive experiments on the NAVSIM and Bench2Drive datasets demonstrate that our VeteranAD achieves state-of-the-art performance.
- Abstract(参考訳): 近年、エンドツーエンドの自動運転は目覚ましい進歩を遂げている。
既存の手法は主に知覚計画パラダイムに従っており、知覚と計画は計画指向最適化のための完全に微分可能なフレームワーク内で順次実行される。
我々は、このパラダイムをさらに進めるために、認知を計画プロセスに統合する、知覚・イン・プラン・フレームワークの設計を行う。
このデザインは、時間の経過とともに計画目標を進化させ、最終的に計画性能を向上させることによって、目標の認識を促進する。
この知見に基づいて、エンド・ツー・エンドの自動運転のための認識と計画の複合フレームワークであるVeteranADを紹介します。
複数モードの固定軌道を事前計画として組み込むことにより、知覚モジュールは、これらの軌道に沿った交通要素を収集し、包括的で目標とする知覚を可能にするように設計されている。
そして、認識結果と計画事前の両方に基づいて計画軌跡を生成する。
本研究は, 将来の軌跡を段階的に予測する自己回帰的戦略を, 各段階における目標知覚の関連領域に焦点をあてて導入する。
このシンプルで効果的な設計により、VeteranADは計画指向のエンドツーエンドメソッドの可能性を完全に解き放ち、より正確で信頼性の高い運転行動をもたらす。
NAVSIMとBench2Driveデータセットに関する大規模な実験は、私たちのVeteranADが最先端のパフォーマンスを実現していることを示している。
関連論文リスト
- Plan-R1: Safe and Feasible Trajectory Planning as Language Modeling [75.83583076519311]
Plan-R1は、軌道計画を逐次予測タスクとして定式化する、新しい2段階の軌道計画フレームワークである。
第1段階では,専門家データに基づく次の動きトークン予測により,自己回帰軌道予測器を訓練する。
第2段階では、規則に基づく報酬(衝突回避、速度制限など)を設計し、グループ相対政策最適化を用いてモデルを微調整する。
論文 参考訳(メタデータ) (2025-05-23T09:22:19Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation [11.011219709863875]
我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
論文 参考訳(メタデータ) (2024-05-30T02:13:56Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。