論文の概要: Planning-oriented Autonomous Driving
- arxiv url: http://arxiv.org/abs/2212.10156v2
- Date: Thu, 23 Mar 2023 16:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 17:42:40.200348
- Title: Planning-oriented Autonomous Driving
- Title(参考訳): 計画指向自律運転
- Authors: Yihan Hu, Jiazhi Yang, Li Chen, Keyu Li, Chonghao Sima, Xizhou Zhu,
Siqi Chai, Senyao Du, Tianwei Lin, Wenhai Wang, Lewei Lu, Xiaosong Jia, Qiang
Liu, Jifeng Dai, Yu Qiao, Hongyang Li
- Abstract要約: 我々は、最終目標、すなわち自動運転車の計画を追求するために、好ましいフレームワークを考案し、最適化すべきであると主張している。
フルスタック運転タスクをひとつのネットワークに組み込んだ総合的なフレームワークであるUnified Autonomous Driving (UniAD)を紹介した。
- 参考スコア(独自算出の注目度): 60.93767791255728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern autonomous driving system is characterized as modular tasks in
sequential order, i.e., perception, prediction, and planning. In order to
perform a wide diversity of tasks and achieve advanced-level intelligence,
contemporary approaches either deploy standalone models for individual tasks,
or design a multi-task paradigm with separate heads. However, they might suffer
from accumulative errors or deficient task coordination. Instead, we argue that
a favorable framework should be devised and optimized in pursuit of the
ultimate goal, i.e., planning of the self-driving car. Oriented at this, we
revisit the key components within perception and prediction, and prioritize the
tasks such that all these tasks contribute to planning. We introduce Unified
Autonomous Driving (UniAD), a comprehensive framework up-to-date that
incorporates full-stack driving tasks in one network. It is exquisitely devised
to leverage advantages of each module, and provide complementary feature
abstractions for agent interaction from a global perspective. Tasks are
communicated with unified query interfaces to facilitate each other toward
planning. We instantiate UniAD on the challenging nuScenes benchmark. With
extensive ablations, the effectiveness of using such a philosophy is proven by
substantially outperforming previous state-of-the-arts in all aspects. Code and
models are public.
- Abstract(参考訳): 現代の自動運転システムは、知覚、予測、計画といった逐次的な順序のモジュラータスクとして特徴づけられる。
幅広いタスクを実行し、高度なインテリジェンスを達成するために、現代のアプローチでは、個々のタスクのためのスタンドアロンモデルをデプロイするか、別々のヘッドを持つマルチタスクパラダイムを設計する。
しかし、累積的なエラーやタスクの調整不足に苦しむ可能性がある。
代わりに、望ましい枠組みは究極の目標、すなわち自動運転車の計画を追求するために考案され、最適化されるべきであると主張する。
これに合わせて、認識と予測の主要なコンポーネントを再検討し、これらのタスクが計画に寄与するようにタスクを優先順位付けします。
Unified Autonomous Driving (UniAD)は、1つのネットワークにフルスタックの運転タスクを組み込んだ包括的フレームワークである。
各モジュールの利点を活用するために特別に考案され、グローバルの観点からエージェントインタラクションのための補完的な特徴抽象化を提供する。
タスクは統合クエリインターフェースと通信され、互いの計画を支援する。
挑戦的なnuScenesベンチマークでUniADをインスタンス化する。
このような哲学を使うことの有効性は、あらゆる面で過去の最先端技術よりもかなり優れていることが証明されている。
コードとモデルはパブリックです。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation [11.011219709863875]
我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
論文 参考訳(メタデータ) (2024-05-30T02:13:56Z) - SparseAD: Sparse Query-Centric Paradigm for Efficient End-to-End Autonomous Driving [13.404790614427924]
エンドツーエンド自動運転のためのスパースクエリ中心のパラダイムを提案する。
我々は、検出、追跡、オンラインマッピングを含む知覚タスクのための統一されたスパースアーキテクチャを設計する。
挑戦的なnuScenesデータセットでは、SparseADはエンドツーエンドメソッド間でSOTAフルタスクのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-10T10:34:34Z) - Beyond One Model Fits All: Ensemble Deep Learning for Autonomous
Vehicles [16.398646583844286]
本研究では,Mediated Perception, Behavior Reflex, Direct Perceptionの3つの異なるニューラルネットワークモデルを紹介する。
我々のアーキテクチャは、グローバルなルーティングコマンドを使用して、ベース、将来の潜伏ベクトル予測、補助タスクネットワークからの情報を融合し、適切なアクションサブネットワークを選択する。
論文 参考訳(メタデータ) (2023-12-10T04:40:02Z) - Video Task Decathlon: Unifying Image and Video Tasks in Autonomous
Driving [85.62076860189116]
Video Task Decathlon (VTD)には、分類、セグメンテーション、ローカライゼーション、オブジェクトとピクセルの関連にまたがる10の代表的な画像とビデオタスクが含まれている。
我々は、単一の構造と10タスクすべてに一組の重みを持つ統合ネットワークVTDNetを開発した。
論文 参考訳(メタデータ) (2023-09-08T16:33:27Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - CERBERUS: Simple and Effective All-In-One Automotive Perception Model
with Multi Task Learning [4.622165486890318]
車両内組み込みコンピューティングプラットフォームは、個々のタスクに対して重いモデルを実行するのに必要な計算労力に対処できない。
CERBERUSは、マルチタスク学習アプローチを利用して、単一推論のコストで複数の知覚タスクの実行を可能にする軽量モデルである。
論文 参考訳(メタデータ) (2022-10-03T08:17:26Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。