論文の概要: Goal-oriented Autonomous Driving
- arxiv url: http://arxiv.org/abs/2212.10156v1
- Date: Tue, 20 Dec 2022 10:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:09:57.501616
- Title: Goal-oriented Autonomous Driving
- Title(参考訳): ゴール指向自律運転
- Authors: Yihan Hu, Jiazhi Yang, Li Chen, Keyu Li, Chonghao Sima, Xizhou Zhu,
Siqi Chai, Senyao Du, Tianwei Lin, Wenhai Wang, Lewei Lu, Xiaosong Jia, Qiang
Liu, Jifeng Dai, Yu Qiao, Hongyang Li
- Abstract要約: 我々は、最終目標、すなわち自動運転車の計画を追求するために、望ましいアルゴリズムフレームワークを考案し、最適化すべきであると主張している。
フルスタック運転タスクをひとつのネットワークに組み込んだ最初の総合的なフレームワークであるUnified Autonomous Driving (UniAD)を紹介した。
- 参考スコア(独自算出の注目度): 60.93767791255728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern autonomous driving system is characterized as modular tasks in
sequential order, i.e., perception, prediction and planning. As sensors and
hardware get improved, there is trending popularity to devise a system that can
perform a wide diversity of tasks to fulfill higher-level intelligence.
Contemporary approaches resort to either deploying standalone models for
individual tasks, or designing a multi-task paradigm with separate heads. These
might suffer from accumulative error or negative transfer effect. Instead, we
argue that a favorable algorithm framework should be devised and optimized in
pursuit of the ultimate goal, i.e. planning of the self-driving-car. Oriented
at this goal, we revisit the key components within perception and prediction.
We analyze each module and prioritize the tasks hierarchically, such that all
these tasks contribute to planning (the goal). To this end, we introduce
Unified Autonomous Driving (UniAD), the first comprehensive framework
up-to-date that incorporates full-stack driving tasks in one network. It is
exquisitely devised to leverage advantages of each module, and provide
complementary feature abstractions for agent interaction from a global
perspective. Tasks are communicated with unified query design to facilitate
each other toward planning. We instantiate UniAD on the challenging nuScenes
benchmark. With extensive ablations, the effectiveness of using such a
philosophy is proven to surpass previous state-of-the-arts by a large margin in
all aspects. The full suite of codebase and models would be available to
facilitate future research in the community.
- Abstract(参考訳): 現代の自動運転システムは、連続した順序、すなわち知覚、予測、計画におけるモジュラータスクとして特徴づけられる。
センサーとハードウェアが改良されるにつれて、より高度な知性を実現するために幅広いタスクをこなせるシステムを考案する傾向にある。
現代のアプローチでは、個々のタスクにスタンドアロンモデルをデプロイするか、別々のヘッドでマルチタスクパラダイムを設計するかのどちらかである。
これらは累積誤差や負の伝達効果に悩まされる。
代わりに、私たちは、最終目標、すなわち自動運転車の計画を追求するために、好ましいアルゴリズムフレームワークを考案し、最適化すべきだと論じる。
この目標に向けて、私たちは認識と予測の主要なコンポーネントを再考します。
これらのタスクが計画(目標)に寄与するように、各モジュールを分析し、階層的にタスクを優先順位付けします。
この目的のために,1つのネットワークにフルスタック運転タスクを組み込んだ,最新の包括的なフレームワークであるunified autonomous driving (uniad)を導入する。
各モジュールの利点を活用するために特別に考案され、グローバルの観点からエージェントインタラクションのための補完的な特徴抽象化を提供する。
タスクは統合クエリ設計と通信され、互いの計画を支援する。
挑戦的なnuScenesベンチマークでUniADをインスタンス化する。
このような哲学を使うことの有効性は、あらゆる面で、過去の最先端をはるかに上回っていることが証明されている。
コードベースとモデルの完全なスイートは、コミュニティの将来的な研究を促進するために利用できるだろう。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation [11.011219709863875]
我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
論文 参考訳(メタデータ) (2024-05-30T02:13:56Z) - SparseAD: Sparse Query-Centric Paradigm for Efficient End-to-End Autonomous Driving [13.404790614427924]
エンドツーエンド自動運転のためのスパースクエリ中心のパラダイムを提案する。
我々は、検出、追跡、オンラインマッピングを含む知覚タスクのための統一されたスパースアーキテクチャを設計する。
挑戦的なnuScenesデータセットでは、SparseADはエンドツーエンドメソッド間でSOTAフルタスクのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-10T10:34:34Z) - Beyond One Model Fits All: Ensemble Deep Learning for Autonomous
Vehicles [16.398646583844286]
本研究では,Mediated Perception, Behavior Reflex, Direct Perceptionの3つの異なるニューラルネットワークモデルを紹介する。
我々のアーキテクチャは、グローバルなルーティングコマンドを使用して、ベース、将来の潜伏ベクトル予測、補助タスクネットワークからの情報を融合し、適切なアクションサブネットワークを選択する。
論文 参考訳(メタデータ) (2023-12-10T04:40:02Z) - Video Task Decathlon: Unifying Image and Video Tasks in Autonomous
Driving [85.62076860189116]
Video Task Decathlon (VTD)には、分類、セグメンテーション、ローカライゼーション、オブジェクトとピクセルの関連にまたがる10の代表的な画像とビデオタスクが含まれている。
我々は、単一の構造と10タスクすべてに一組の重みを持つ統合ネットワークVTDNetを開発した。
論文 参考訳(メタデータ) (2023-09-08T16:33:27Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - CERBERUS: Simple and Effective All-In-One Automotive Perception Model
with Multi Task Learning [4.622165486890318]
車両内組み込みコンピューティングプラットフォームは、個々のタスクに対して重いモデルを実行するのに必要な計算労力に対処できない。
CERBERUSは、マルチタスク学習アプローチを利用して、単一推論のコストで複数の知覚タスクの実行を可能にする軽量モデルである。
論文 参考訳(メタデータ) (2022-10-03T08:17:26Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。