論文の概要: VAD: Vectorized Scene Representation for Efficient Autonomous Driving
- arxiv url: http://arxiv.org/abs/2303.12077v1
- Date: Tue, 21 Mar 2023 17:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 13:44:39.836190
- Title: VAD: Vectorized Scene Representation for Efficient Autonomous Driving
- Title(参考訳): VAD:効率的な自律運転のためのベクトル的シーン表現
- Authors: Bo Jiang, Shaoyu Chen, Qing Xu, Bencheng Liao, Jiajie Chen, Helong
Zhou, Qian Zhang, Wenyu Liu, Chang Huang, Xinggang Wang
- Abstract要約: VADは、自動運転のためのエンドツーエンドのベクトル化パラダイムである。
ベクトル化されたエージェントの動きと要素を明示的なインスタンス集約計画制約として利用します。
VADは従来のエンドツーエンドの計画手法よりもはるかに高速に動作します。
- 参考スコア(独自算出の注目度): 32.53915915023404
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous driving requires a comprehensive understanding of the surrounding
environment for reliable trajectory planning. Previous works rely on dense
rasterized scene representation (e.g., agent occupancy and semantic map) to
perform planning, which is computationally intensive and misses the
instance-level structure information. In this paper, we propose VAD, an
end-to-end vectorized paradigm for autonomous driving, which models the driving
scene as fully vectorized representation. The proposed vectorized paradigm has
two significant advantages. On one hand, VAD exploits the vectorized agent
motion and map elements as explicit instance-level planning constraints which
effectively improves planning safety. On the other hand, VAD runs much faster
than previous end-to-end planning methods by getting rid of
computation-intensive rasterized representation and hand-designed
post-processing steps. VAD achieves state-of-the-art end-to-end planning
performance on the nuScenes dataset, outperforming the previous best method by
a large margin (reducing the average collision rate by 48.4%). Besides, VAD
greatly improves the inference speed (up to 9.3x), which is critical for the
real-world deployment of an autonomous driving system. Code and models will be
released for facilitating future research.
- Abstract(参考訳): 自律運転は、信頼できる軌道計画のために周囲の環境を包括的に理解する必要がある。
以前の作品では、高密度ラスタ化シーン表現(エージェント占有率やセマンティックマップなど)を使用して計画を行い、計算集約的で、インスタンスレベルの構造情報を見逃している。
本稿では,運転シーンを完全ベクトル化表現としてモデル化した,エンドツーエンドの自律走行ベクトル化パラダイムであるvadを提案する。
提案するベクトル化パラダイムには2つの大きな利点がある。
一方、VADはベクトル化されたエージェントの動きとマップ要素を明示的なインスタンスレベルの計画制約として利用し、計画の安全性を効果的に改善する。
一方、VADは計算集約的なラスタ化表現と手作業で設計された後処理のステップを取り除き、従来のエンドツーエンドの計画手法よりもはるかに高速である。
VADは、nuScenesデータセットの最先端のエンドツーエンドプランニング性能を達成し、以前のベストメソッドを大きなマージンで上回り(平均衝突率を48.4%削減)。
さらに、VADは推論速度(最大9.3倍)を大幅に改善し、自動運転システムの現実的な展開に欠かせない。
コードとモデルは、将来の研究を促進するためにリリースされる。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - End-to-End Autonomous Driving without Costly Modularization and 3D Manual Annotation [34.070813293944944]
視覚に基づくエンドツーエンド自動運転(E2EAD)のためのUADを提案する。
私たちのモチベーションは、現在のE2EADモデルが依然として典型的な駆動スタックのモジュラーアーキテクチャを模倣していることに起因しています。
我々のUADは、NUScenesにおける平均衝突速度において、UniADに対して38.7%の相対的な改善を達成し、CARLAのCown05 Longベンチマークの駆動スコアにおいて、VADを41.32ポイント上回っている。
論文 参考訳(メタデータ) (2024-06-25T16:12:52Z) - SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation [11.011219709863875]
我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
論文 参考訳(メタデータ) (2024-05-30T02:13:56Z) - VADv2: End-to-End Vectorized Autonomous Driving via Probabilistic
Planning [42.681012361021224]
VADv2は確率計画に基づくエンドツーエンドの駆動モデルである。
ルールベースのラッパーなしでも、完全にエンドツーエンドで安定して実行される。
論文 参考訳(メタデータ) (2024-02-20T18:55:09Z) - Trajectory Prediction with Observations of Variable-Length for Motion
Planning in Highway Merging scenarios [5.193470362635256]
既存の手法では、2秒以上の一定期間の観測がなければ、車両の予測を開始することはできない。
本稿では,1フレーム以上の観測長を扱うために特別に訓練されたトランスフォーマーを用いた軌道予測手法を提案する。
2つの大規模高速道路軌道データセットを用いて提案手法の総合評価を行う。
論文 参考訳(メタデータ) (2023-06-08T18:03:48Z) - GoRela: Go Relative for Viewpoint-Invariant Motion Forecasting [121.42898228997538]
精度や一般化を犠牲にすることなく、全てのエージェントとマップに対して効率的な共有符号化を提案する。
不均一空間グラフにおけるエージェントとマップ要素間の幾何学的関係を表現するために、ペアワイズ相対的な位置符号化を利用する。
我々のデコーダは視点非依存であり、レーングラフ上でエージェント目標を予測し、多様かつコンテキスト対応のマルチモーダル予測を可能にする。
論文 参考訳(メタデータ) (2022-11-04T16:10:50Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。