論文の概要: SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation
- arxiv url: http://arxiv.org/abs/2405.19620v2
- Date: Fri, 31 May 2024 07:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 18:54:00.205806
- Title: SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation
- Title(参考訳): SparseDrive: スパースシーン表現によるエンドツーエンドの自動運転
- Authors: Wenchao Sun, Xuewu Lin, Yining Shi, Chuang Zhang, Haoran Wu, Sifa Zheng,
- Abstract要約: 我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
- 参考スコア(独自算出の注目度): 11.011219709863875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The well-established modular autonomous driving system is decoupled into different standalone tasks, e.g. perception, prediction and planning, suffering from information loss and error accumulation across modules. In contrast, end-to-end paradigms unify multi-tasks into a fully differentiable framework, allowing for optimization in a planning-oriented spirit. Despite the great potential of end-to-end paradigms, both the performance and efficiency of existing methods are not satisfactory, particularly in terms of planning safety. We attribute this to the computationally expensive BEV (bird's eye view) features and the straightforward design for prediction and planning. To this end, we explore the sparse representation and review the task design for end-to-end autonomous driving, proposing a new paradigm named SparseDrive. Concretely, SparseDrive consists of a symmetric sparse perception module and a parallel motion planner. The sparse perception module unifies detection, tracking and online mapping with a symmetric model architecture, learning a fully sparse representation of the driving scene. For motion prediction and planning, we review the great similarity between these two tasks, leading to a parallel design for motion planner. Based on this parallel design, which models planning as a multi-modal problem, we propose a hierarchical planning selection strategy , which incorporates a collision-aware rescore module, to select a rational and safe trajectory as the final planning output. With such effective designs, SparseDrive surpasses previous state-of-the-arts by a large margin in performance of all tasks, while achieving much higher training and inference efficiency. Code will be avaliable at https://github.com/swc-17/SparseDrive for facilitating future research.
- Abstract(参考訳): 十分に確立されたモジュラー自動運転システムは、知覚、予測、計画、情報損失、モジュール間のエラー蓄積といった、さまざまなスタンドアロンタスクに分離されている。
対照的に、エンドツーエンドのパラダイムはマルチタスクを完全に差別化可能なフレームワークに統合し、計画指向の精神で最適化を可能にします。
エンド・ツー・エンドのパラダイムの大きな可能性にもかかわらず、既存の手法の性能と効率は、特に計画上の安全性において満足できない。
計算コストのかかるBEV(Bird's Eye View)機能と、予測と計画のための簡単な設計による。
この目的のために、スパース表現を探求し、SparseDriveという新しいパラダイムを提案し、エンドツーエンドの自動運転のためのタスク設計をレビューする。
具体的には、SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーから構成される。
スパース認識モジュールは、検出、追跡、オンラインマッピングを対称モデルアーキテクチャで統一し、運転シーンの完全なスパース表現を学習する。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
マルチモーダル問題として計画をモデル化するこの並列設計に基づいて,衝突認識再スコアモジュールを組み込んだ階層的計画選択戦略を提案し,最終的な計画出力として合理的かつ安全な軌道を選択する。
このような効果的な設計により、SparseDriveは従来の最先端のタスクをはるかに上回り、より高いトレーニングと推論効率を実現している。
コードは、将来の研究を促進するためにhttps://github.com/swc-17/SparseDriveで無効になる。
関連論文リスト
- SparseAD: Sparse Query-Centric Paradigm for Efficient End-to-End Autonomous Driving [13.404790614427924]
エンドツーエンド自動運転のためのスパースクエリ中心のパラダイムを提案する。
我々は、検出、追跡、オンラインマッピングを含む知覚タスクのための統一されたスパースアーキテクチャを設計する。
挑戦的なnuScenesデータセットでは、SparseADはエンドツーエンドメソッド間でSOTAフルタスクのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-10T10:34:34Z) - Planning as In-Painting: A Diffusion-Based Embodied Task Planning
Framework for Environments under Uncertainty [56.30846158280031]
具体的AIのためのタスクプランニングは、最も難しい問題の1つだ。
In-paintingとしての計画」というタスク非依存の手法を提案する。
提案するフレームワークは,様々な具体的AIタスクにおいて,有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-02T10:07:17Z) - PPAD: Iterative Interactions of Prediction and Planning for End-to-end Autonomous Driving [57.89801036693292]
PPAD(Iterative Interaction of Prediction and Planning Autonomous Driving)は、予測と計画のより良い統合を目的とした、タイムステップワイドなインタラクションである。
我々は,階層的動的キーオブジェクトに着目したego-to-agent,ego-to-map,ego-to-BEVインタラクション機構を設計し,インタラクションをモデル化する。
論文 参考訳(メタデータ) (2023-11-14T11:53:24Z) - Pixel State Value Network for Combined Prediction and Planning in
Interactive Environments [9.117828575880303]
本研究は,予測と計画を組み合わせた深層学習手法を提案する。
U-Netアーキテクチャを持つ条件付きGANは、2つの高解像度画像シーケンスを予測するために訓練される。
結果は、対立する目的の中で車線の変化のような複雑な状況において直感的な行動を示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:13Z) - VAD: Vectorized Scene Representation for Efficient Autonomous Driving [44.070636456960045]
VADは、自動運転のためのエンドツーエンドのベクトル化パラダイムである。
VADはベクトル化されたエージェントの動きを利用し、要素を明示的なインスタンスレベルの計画制約としてマップする。
VADは従来のエンドツーエンドの計画手法よりもはるかに高速に動作します。
論文 参考訳(メタデータ) (2023-03-21T17:59:22Z) - Planning-oriented Autonomous Driving [60.93767791255728]
我々は、最終目標、すなわち自動運転車の計画を追求するために、好ましいフレームワークを考案し、最適化すべきであると主張している。
フルスタック運転タスクをひとつのネットワークに組み込んだ総合的なフレームワークであるUnified Autonomous Driving (UniAD)を紹介した。
論文 参考訳(メタデータ) (2022-12-20T10:47:53Z) - PlanT: Explainable Planning Transformers via Object-Level
Representations [64.93938686101309]
PlanTは、自動運転のコンテキストにおける計画のための新しいアプローチである。
PlanTは、コンパクトなオブジェクトレベルの入力表現を持つ模倣学習に基づいている。
この結果から,PlanTは幾何学的に距離をおいても,現場で最も関連性の高い物体に焦点を合わせることが可能であることが示唆された。
論文 参考訳(メタデータ) (2022-10-25T17:59:46Z) - Multi-agent Soft Actor-Critic Based Hybrid Motion Planner for Mobile
Robots [16.402201426448002]
プランナーはモデルフリーであり、複数ロボットの状態と観測情報の終末の滑らかかつ連続的な軌跡へのエンドツーエンドのマッピングを実現することができる。
後方軌道最適化モジュールの設計は、安全ゾーン制約付き最小スナップ法に基づいている。
論文 参考訳(メタデータ) (2021-12-13T12:23:30Z) - Perceive, Predict, and Plan: Safe Motion Planning Through Interpretable
Semantic Representations [81.05412704590707]
本稿では,自動運転車の協調認識,予測,動作計画を行うエンド・ツー・エンドの学習可能なネットワークを提案する。
私たちのネットワークは、人間のデモからエンドツーエンドに学習されます。
論文 参考訳(メタデータ) (2020-08-13T14:40:46Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。