論文の概要: Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving?
- arxiv url: http://arxiv.org/abs/2312.03031v2
- Date: Sun, 2 Jun 2024 09:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 20:11:43.064433
- Title: Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving?
- Title(参考訳): Egoの現状は、オープン・ループ・エンド・エンドの自動運転に必要か?
- Authors: Zhiqi Li, Zhiding Yu, Shiyi Lan, Jiahan Li, Jan Kautz, Tong Lu, Jose M. Alvarez,
- Abstract要約: エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
- 参考スコア(独自算出の注目度): 84.17711168595311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End-to-end autonomous driving recently emerged as a promising research direction to target autonomy from a full-stack perspective. Along this line, many of the latest works follow an open-loop evaluation setting on nuScenes to study the planning behavior. In this paper, we delve deeper into the problem by conducting thorough analyses and demystifying more devils in the details. We initially observed that the nuScenes dataset, characterized by relatively simple driving scenarios, leads to an under-utilization of perception information in end-to-end models incorporating ego status, such as the ego vehicle's velocity. These models tend to rely predominantly on the ego vehicle's status for future path planning. Beyond the limitations of the dataset, we also note that current metrics do not comprehensively assess the planning quality, leading to potentially biased conclusions drawn from existing benchmarks. To address this issue, we introduce a new metric to evaluate whether the predicted trajectories adhere to the road. We further propose a simple baseline able to achieve competitive results without relying on perception annotations. Given the current limitations on the benchmark and metrics, we suggest the community reassess relevant prevailing research and be cautious whether the continued pursuit of state-of-the-art would yield convincing and universal conclusions. Code and models are available at \url{https://github.com/NVlabs/BEV-Planner}
- Abstract(参考訳): エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究方向として最近登場した。
この線に沿って、最新の作品の多くは、計画行動を研究するためにnuScenesのオープンループ評価設定に従っている。
本稿では,より詳細な分析を行い,さらに詳細なデヴィルをデミスティフィケーションすることで問題を深く掘り下げる。
当初我々は、比較的単純な運転シナリオを特徴とするnuScenesデータセットが、エゴ車両の速度などのエゴ状態を組み込んだエンド・ツー・エンドモデルにおける知覚情報の低活用につながることを見出した。
これらのモデルは、将来の経路計画におけるエゴ車の地位に大きく依存する傾向にある。
データセットの制限を超えて、現在のメトリクスは計画品質を包括的に評価せず、既存のベンチマークから引き出された潜在的なバイアスのある結論につながっている点にも注意が必要だ。
この問題に対処するために,予測軌跡が道路に付着するかどうかを評価するための新しい指標を導入する。
さらに,認識アノテーションに頼らずに,競争的な結果が得られるシンプルなベースラインを提案する。
ベンチマークとメトリクスの現在の制限を考えると、コミュニティは関連研究を再評価し、最先端の追求が説得力と普遍的な結論をもたらすかどうかを慎重に検討することを提案する。
コードとモデルは \url{https://github.com/NVlabs/BEV-Planner} で公開されている。
関連論文リスト
- NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
コストのかかるラベルを必要とせずにエンドツーエンドの運転を改善するための,新しい自己管理手法を提案する。
フレームワーク textbfLAW は LAtent World モデルを用いて,予測エゴアクションと現在のフレームの潜在機能に基づいて,今後の潜在機能を予測する。
その結果,オープンループベンチマークとクローズループベンチマークの両方において,コストのかかるアノテーションを使わずに最先端のパフォーマンスを実現することができた。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Rethinking the Open-Loop Evaluation of End-to-End Autonomous Driving in
nuScenes [38.43491956142818]
計画課題は、内部意図と外部環境の両方からの入力に基づいて、エゴ車両の軌道を予測することである。
既存の研究の多くは、予測された軌道と地上の真実との衝突率とL2誤差を用いて、nuScenesデータセット上での性能を評価する。
本稿では,これらの既存の評価指標を再評価し,異なる手法の優越性を正確に測定するかどうかを検討する。
我々の単純な手法は、nuScenesデータセットと他の知覚に基づく手法と同じようなエンド・ツー・エンドの計画性能を実現し、平均L2誤差を約20%削減する。
論文 参考訳(メタデータ) (2023-05-17T17:59:11Z) - FollowMe: Vehicle Behaviour Prediction in Autonomous Vehicle Settings [2.294014185517203]
我々は、動きと振舞いの予測問題を提供する新しいデータセット、FollowMeデータセットを紹介した。
本稿では,FollowMe-STGCNNの設計上の利点について述べる。
論文 参考訳(メタデータ) (2023-04-12T19:05:56Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - LOKI: Long Term and Key Intentions for Trajectory Prediction [22.097307597204736]
軌道予測の最近の進歩は、エージェントの意図に関する明確な推論が、その動きを正確に予測することが重要であることを示している。
共同軌道と意図予測に対処するために設計された,新しい大規模データセットであるLOKI(Long term and Key Intentions)を提案する。
提案手法は,最先端の軌道予測手法を最大27%まで向上させ,フレームワイドな意図推定のためのベースラインを提供する。
論文 参考訳(メタデータ) (2021-08-18T16:57:03Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。