論文の概要: Two Tasks, One Goal: Uniting Motion and Planning for Excellent End To End Autonomous Driving Performance
- arxiv url: http://arxiv.org/abs/2504.12667v1
- Date: Thu, 17 Apr 2025 05:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 22:46:43.472802
- Title: Two Tasks, One Goal: Uniting Motion and Planning for Excellent End To End Autonomous Driving Performance
- Title(参考訳): 2つの課題, 1つの目標: 自律走行性能を終了させるための一元化運動と卓越した終了計画
- Authors: Lin Liu, Ziying Song, Hongyu Pan, Lei Yang, Caiyan Jia,
- Abstract要約: かつてのエンドツーエンドの自動運転アプローチは、しばしば計画と動きのタスクを分離し、それらを別々のモジュールとして扱う。
本稿では,新しい2段階軌道生成フレームワークであるTTOGを提案する。
第1段階では、多種多様な軌道候補が生成され、第2段階では、車両の状態情報を通じてこれらの候補を精製することに焦点を当てる。
周囲の車両状態の問題を緩和するため、TTOGは自車用データ訓練状態推定器を採用し、その後他の車両に拡張した。
- 参考スコア(独自算出の注目度): 14.665143402317685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end autonomous driving has made impressive progress in recent years. Former end-to-end autonomous driving approaches often decouple planning and motion tasks, treating them as separate modules. This separation overlooks the potential benefits that planning can gain from learning out-of-distribution data encountered in motion tasks. However, unifying these tasks poses significant challenges, such as constructing shared contextual representations and handling the unobservability of other vehicles' states. To address these challenges, we propose TTOG, a novel two-stage trajectory generation framework. In the first stage, a diverse set of trajectory candidates is generated, while the second stage focuses on refining these candidates through vehicle state information. To mitigate the issue of unavailable surrounding vehicle states, TTOG employs a self-vehicle data-trained state estimator, subsequently extended to other vehicles. Furthermore, we introduce ECSA (equivariant context-sharing scene adapter) to enhance the generalization of scene representations across different agents. Experimental results demonstrate that TTOG achieves state-of-the-art performance across both planning and motion tasks. Notably, on the challenging open-loop nuScenes dataset, TTOG reduces the L2 distance by 36.06\%. Furthermore, on the closed-loop Bench2Drive dataset, our approach achieves a 22\% improvement in the driving score (DS), significantly outperforming existing baselines.
- Abstract(参考訳): 近年、エンドツーエンドの自動運転は目覚ましい進歩を遂げている。
かつてのエンドツーエンドの自動運転アプローチは、しばしば計画と動きのタスクを分離し、それらを別々のモジュールとして扱う。
この分離は、行動タスクで遭遇したアウト・オブ・ディストリビューションデータからプランニングが得られる潜在的な利点を見落としている。
しかしながら、これらのタスクを統一することは、共有コンテキスト表現の構築や、他の車の状態の観測不能な処理など、大きな課題を引き起こす。
これらの課題に対処するために,新しい2段階軌道生成フレームワークであるTTOGを提案する。
第1段階では、多種多様な軌道候補が生成され、第2段階では、車両の状態情報を通じてこれらの候補を精製することに焦点を当てる。
周囲の車両状態の問題を緩和するため、TTOGは自車用データ訓練状態推定器を採用し、その後他の車両に拡張した。
さらに、異なるエージェント間でのシーン表現の一般化を促進するため、ECSA(equivariant context-sharing scene adapter)を導入する。
実験により、TTOGは、計画タスクと動作タスクの両方で最先端のパフォーマンスを達成することが示された。
特に、挑戦的なオープンループnuScenesデータセットでは、TTOGはL2距離を36.06\%削減する。
さらに,クローズドループのBench2Driveデータセットでは,運転スコア(DS)が22倍向上し,既存のベースラインよりも大幅に向上した。
関連論文リスト
- ReCogDrive: A Reinforced Cognitive Framework for End-to-End Autonomous Driving [35.493857028919685]
本研究では,視覚言語モデルと拡散プランナを統合した自律運転システムReCogDriveを提案する。
本稿では,大規模運転質問応答データセットを用いてVLMの訓練を行い,汎用コンテンツと実世界の運転シナリオとのドメイン差を緩和する。
第2段階では、拡散型プランナーを用いて模倣学習を行い、潜在言語空間から連続運転行動への表現をマッピングする。
論文 参考訳(メタデータ) (2025-06-09T03:14:04Z) - ORION: A Holistic End-to-End Autonomous Driving Framework by Vision-Language Instructed Action Generation [44.16465715911478]
視覚言語による行動生成による総合的E2E自律運転フレームワークORIONを提案する。
本手法は,Bench2Driveデータセットの課題に対して,77.74 Driving Score (DS) と54.62%の成功率 (SR) の顕著なクローズループ性能を実現する。
論文 参考訳(メタデータ) (2025-03-25T15:18:43Z) - DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - Online Location Planning for AI-Defined Vehicles: Optimizing Joint Tasks of Order Serving and Spatio-Temporal Heterogeneous Model Fine-Tuning [12.784479119173223]
車両群集センシング(VCS)は、車両の移動性とセンサーを装備した能力を活用する重要なイネーブラーとして登場した。
この研究は、エッジアシスト車両が注文サービスと基礎モデルの微調整のジョイントタスクを行う、有望なシナリオを探求する。
論文 参考訳(メタデータ) (2025-02-06T07:23:40Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - STT: Stateful Tracking with Transformers for Autonomous Driving [48.621552393062686]
三次元空間における物体の追跡は、自律走行に不可欠である。
運転中の安全性を確保するため、トラッカーはフレーム全体の物体を確実に追跡し、現在の速度や加速度などの状態を正確に推定する必要がある。
本研究では,トランスフォーマーで構築したステートフルトラッキングモデルであるSTTを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:04:36Z) - DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - Pioneering SE(2)-Equivariant Trajectory Planning for Automated Driving [45.18582668677648]
制御されたエゴ車両の軌道を計画することは、自動走行において重要な課題である。
本稿では,全車両に対して多モード共同予測を生成する軽量同変計画モデルを提案する。
また,車載GPSナビゲーションシステムによって提供される高水準経路に沿って,エゴ車両を誘導する等変経路アトラクションを提案する。
論文 参考訳(メタデータ) (2024-03-17T18:53:46Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [84.17711168595311]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - TOFG: A Unified and Fine-Grained Environment Representation in
Autonomous Driving [7.787762537147956]
自律運転では、軌道予測や運動計画といった多くの運転タスクにおいて、環境の正確な理解が重要な役割を果たす。
軌道予測と運動計画のための多くのデータ駆動モデルでは、車両間および車両間相互作用を分離的かつ逐次的に抽出する。
環境表現であるTOFG(Temporal Occupancy Flow Graph)を提案し、地図情報と車両軌跡を均質なデータ形式に統一する。
論文 参考訳(メタデータ) (2023-05-31T17:43:56Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Vision-Guided Forecasting -- Visual Context for Multi-Horizon Time
Series Forecasting [0.6947442090579469]
2つのモードを融合させて車両状態のマルチ水平予測に取り組む。
我々は,視覚的特徴抽出のための3次元畳み込みと,速度と操舵角度トレースからの特徴抽出のための1次元畳み込みの設計と実験を行った。
我々は,車両の状態を様々な地平線に予測でき,運転状態推定のタスクにおいて,現在の最先端結果よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-27T08:52:40Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Deep Structured Reactive Planning [94.92994828905984]
自動運転のための新しいデータ駆動型リアクティブ計画目標を提案する。
本モデルは,非常に複雑な操作を成功させる上で,非反応性変種よりも優れることを示す。
論文 参考訳(メタデータ) (2021-01-18T01:43:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。