論文の概要: WOD-E2E: Waymo Open Dataset for End-to-End Driving in Challenging Long-tail Scenarios
- arxiv url: http://arxiv.org/abs/2510.26125v1
- Date: Thu, 30 Oct 2025 04:25:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.656904
- Title: WOD-E2E: Waymo Open Dataset for End-to-End Driving in Challenging Long-tail Scenarios
- Title(参考訳): WOD-E2E Waymo Open Dataset for End-to-End Driving in Challenging Long-tail Scenarios
- Authors: Runsheng Xu, Hubert Lin, Wonseok Jeon, Hao Feng, Yuliang Zou, Liting Sun, John Gorman, Kate Tolstaya, Sarah Tang, Brandyn White, Ben Sapp, Mingxing Tan, Jyh-Jing Hwang, Drago Anguelov,
- Abstract要約: ビジョンベースのエンドツーエンド(E2E)運転は、研究コミュニティにおいて大きな関心を集めている。
現在のE2E駆動ベンチマークは主に名目上のシナリオを特徴としている。
既存のオープンループ評価メトリクスは、運転のマルチモーダルな性質を捉えるのに不足することが多い。
- 参考スコア(独自算出の注目度): 19.508955833885448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based end-to-end (E2E) driving has garnered significant interest in the research community due to its scalability and synergy with multimodal large language models (MLLMs). However, current E2E driving benchmarks primarily feature nominal scenarios, failing to adequately test the true potential of these systems. Furthermore, existing open-loop evaluation metrics often fall short in capturing the multi-modal nature of driving or effectively evaluating performance in long-tail scenarios. To address these gaps, we introduce the Waymo Open Dataset for End-to-End Driving (WOD-E2E). WOD-E2E contains 4,021 driving segments (approximately 12 hours), specifically curated for challenging long-tail scenarios that that are rare in daily life with an occurring frequency of less than 0.03%. Concretely, each segment in WOD-E2E includes the high-level routing information, ego states, and 360-degree camera views from 8 surrounding cameras. To evaluate the E2E driving performance on these long-tail situations, we propose a novel open-loop evaluation metric: Rater Feedback Score (RFS). Unlike conventional metrics that measure the distance between predicted way points and the logs, RFS measures how closely the predicted trajectory matches rater-annotated trajectory preference labels. We have released rater preference labels for all WOD-E2E validation set segments, while the held out test set labels have been used for the 2025 WOD-E2E Challenge. Through our work, we aim to foster state of the art research into generalizable, robust, and safe end-to-end autonomous driving agents capable of handling complex real-world situations.
- Abstract(参考訳): ビジョンベースのエンドツーエンド駆動(E2E)は、マルチモーダルな大規模言語モデル(MLLM)とのスケーラビリティと相乗効果により、研究コミュニティにおいて大きな関心を集めている。
しかしながら、現在のE2E駆動ベンチマークは主に名目上のシナリオを特徴とし、これらのシステムの真の可能性を適切にテストすることができない。
さらに、既存のオープンループ評価指標は、運転のマルチモーダルな性質を捉えたり、ロングテールシナリオのパフォーマンスを効果的に評価するのに不足することが多い。
これらのギャップに対処するため、Waymo Open Dataset for End-to-End Driving (WOD-E2E)を紹介します。
WOD-E2Eは4,021個の運転セグメント(約12時間)を含み、特に0.03%未満の頻度で日常生活で稀な長い尾のシナリオに挑戦するために調整されている。
具体的には、WOD-E2Eの各セグメントは、周囲の8つのカメラから高レベルなルーティング情報、エゴ状態、360度カメラビューを含む。
そこで本稿では,これらの長距離状況におけるE2E駆動性能を評価するために,新しいオープンループ評価指標であるRater Feedback Score (RFS)を提案する。
予測された経路点とログの間の距離を測定する従来の指標とは異なり、RFSは予測された軌跡がレーダ付軌跡選好ラベルとどの程度近いかを測定する。
We have released rater preference labels for all WOD-E2E validation set segments, and the held out test set labels been been used for the 2025 WOD-E2E Challenge。
我々の研究は、複雑な現実の状況に対処できる、一般化可能で堅牢で安全なエンドツーエンドの自動運転エージェントに関する最先端の研究を促進することを目的としている。
関連論文リスト
- ORION: A Holistic End-to-End Autonomous Driving Framework by Vision-Language Instructed Action Generation [44.16465715911478]
視覚言語による行動生成による総合的E2E自律運転フレームワークORIONを提案する。
本手法は,Bench2Driveデータセットの課題に対して,77.74 Driving Score (DS) と54.62%の成功率 (SR) の顕著なクローズループ性能を実現する。
論文 参考訳(メタデータ) (2025-03-25T15:18:43Z) - DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving [59.705635382104454]
本稿では,E2E-ADシステムのマルチ能力をクローズドループで評価するための最初のベンチマークであるBench2Driveを紹介する。
我々は最先端のE2E-ADモデルを実装し、Bench2Driveで評価し、現状と今後の方向性について洞察を提供する。
論文 参考訳(メタデータ) (2024-06-06T09:12:30Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。