論文の概要: Future-Aware End-to-End Driving: Bidirectional Modeling of Trajectory Planning and Scene Evolution
- arxiv url: http://arxiv.org/abs/2510.11092v1
- Date: Mon, 13 Oct 2025 07:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.246102
- Title: Future-Aware End-to-End Driving: Bidirectional Modeling of Trajectory Planning and Scene Evolution
- Title(参考訳): 未来のエンド・ツー・エンド運転:軌道計画とシーン進化の双方向モデリング
- Authors: Bozhou Zhang, Nan Song, Jingyu Li, Xiatian Zhu, Jiankang Deng, Li Zhang,
- Abstract要約: 将来的なシーンの進化と軌道計画を共同でモデル化する,新たなエンドツーエンドフレームワークであるSeerDriveを紹介する。
本手法はまず,周辺環境の動態を予測するために,将来の鳥眼ビュー(BEV)の表現を予測する。
2つの重要な要素がこれを可能にする:(1)予測されたBEV機能を軌道プランナーに注入する将来対応計画、(2)反復的なシーンモデリングと車両計画。
- 参考スコア(独自算出の注目度): 96.25314747309811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end autonomous driving methods aim to directly map raw sensor inputs to future driving actions such as planned trajectories, bypassing traditional modular pipelines. While these approaches have shown promise, they often operate under a one-shot paradigm that relies heavily on the current scene context, potentially underestimating the importance of scene dynamics and their temporal evolution. This limitation restricts the model's ability to make informed and adaptive decisions in complex driving scenarios. We propose a new perspective: the future trajectory of an autonomous vehicle is closely intertwined with the evolving dynamics of its environment, and conversely, the vehicle's own future states can influence how the surrounding scene unfolds. Motivated by this bidirectional relationship, we introduce SeerDrive, a novel end-to-end framework that jointly models future scene evolution and trajectory planning in a closed-loop manner. Our method first predicts future bird's-eye view (BEV) representations to anticipate the dynamics of the surrounding scene, then leverages this foresight to generate future-context-aware trajectories. Two key components enable this: (1) future-aware planning, which injects predicted BEV features into the trajectory planner, and (2) iterative scene modeling and vehicle planning, which refines both future scene prediction and trajectory generation through collaborative optimization. Extensive experiments on the NAVSIM and nuScenes benchmarks show that SeerDrive significantly outperforms existing state-of-the-art methods.
- Abstract(参考訳): エンド・ツー・エンドの自律運転法は、従来のモジュールパイプラインをバイパスする計画的な軌跡のような将来の運転行動に、生のセンサー入力を直接マッピングすることを目的としている。
これらのアプローチは将来性を示しているが、現在のシーンコンテキストに大きく依存するワンショットパラダイムの下で運用されることが多く、シーンダイナミクスの重要性と時間的進化を過小評価する可能性がある。
この制限は、複雑な駆動シナリオにおいて、インフォームドおよびアダプティブな決定を行うモデルの能力を制限する。
自動運転車の将来の軌道は、その環境の進化するダイナミクスと密接に絡み合っており、逆に、車両の将来の状態は、周囲のシーンがどのように広がるかに影響を与える可能性がある。
この双方向関係に動機づけられたSeerDriveは、将来のシーンの進化と軌道計画をクローズドループ方式で共同でモデル化する、新しいエンドツーエンドフレームワークである。
提案手法は,まず,周辺環境のダイナミックスを予測するために,将来の鳥眼ビュー(BEV)の表現を予測し,この視点を活用して,未来を意識した軌跡を生成する。
2つの重要な要素がこれを可能にする。(1)BEVの予測特徴を軌道プランナに注入する将来認識計画、(2)将来のシーン予測と軌道生成の両方を協調最適化により洗練する反復的なシーンモデリングと車両計画である。
NAVSIMとnuScenesベンチマークの大規模な実験により、SeerDriveは既存の最先端の手法を大幅に上回っていることがわかった。
関連論文リスト
- Ego-centric Predictive Model Conditioned on Hand Trajectories [52.531681772560724]
自我中心のシナリオでは、次の行動とその視覚的結果の両方を予測することは、人間と物体の相互作用を理解するために不可欠である。
我々は,エゴセントリックなシナリオにおける行動と視覚的未来を共同でモデル化する,統合された2段階予測フレームワークを提案する。
我々のアプローチは、エゴセントリックな人間の活動理解とロボット操作の両方を扱うために設計された最初の統一モデルである。
論文 参考訳(メタデータ) (2025-08-27T13:09:55Z) - Flow-guided Motion Prediction with Semantics and Dynamic Occupancy Grid Maps [5.9803668726235575]
OGM(Occupancy Grid Maps)は、一般的にシーン予測に使用される。
近年,OGMと深層学習を併用してシーンの進化を予測する手法が研究されている。
我々は,動的なOGMとセマンティック情報を利用して,将来の車両セマンティックグリッドとシーンの将来の流れを予測できる新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T14:42:34Z) - GenAD: Generative End-to-End Autonomous Driving [13.332272121018285]
GenADは、ジェネレーティブモデリング問題に自律運転を組み込むジェネレーティブフレームワークである。
本稿では,まず周囲のシーンをマップ対応のインスタンストークンに変換するインスタンス中心のシーントークン化手法を提案する。
次に、変動型オートエンコーダを用いて、軌道先行モデリングのための構造潜在空間における将来の軌道分布を学習する。
論文 参考訳(メタデータ) (2024-02-18T08:21:05Z) - PPAD: Iterative Interactions of Prediction and Planning for End-to-end Autonomous Driving [57.89801036693292]
PPAD(Iterative Interaction of Prediction and Planning Autonomous Driving)は、予測と計画のより良い統合を目的とした、タイムステップワイドなインタラクションである。
我々は,階層的動的キーオブジェクトに着目したego-to-agent,ego-to-map,ego-to-BEVインタラクション機構を設計し,インタラクションをモデル化する。
論文 参考訳(メタデータ) (2023-11-14T11:53:24Z) - Self-Supervised Action-Space Prediction for Automated Driving [0.0]
本稿では,自動走行のための新しい学習型マルチモーダル軌道予測アーキテクチャを提案する。
学習問題を加速度と操舵角の空間に投入することにより、運動論的に実現可能な予測を実現する。
提案手法は,都市交差点とラウンドアバウトを含む実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-09-21T08:27:56Z) - PiP: Planning-informed Trajectory Prediction for Autonomous Driving [69.41885900996589]
マルチエージェント設定における予測問題に対処するために,計画インフォームド・トラジェクトリ予測(PiP)を提案する。
本手法は,エゴカーの計画により予測過程を通知することにより,高速道路のデータセット上でのマルチエージェント予測の最先端性能を実現する。
論文 参考訳(メタデータ) (2020-03-25T16:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。