論文の概要: PAVE: An End-to-End Dataset for Production Autonomous Vehicle Evaluation
- arxiv url: http://arxiv.org/abs/2511.14185v1
- Date: Tue, 18 Nov 2025 06:41:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.975487
- Title: PAVE: An End-to-End Dataset for Production Autonomous Vehicle Evaluation
- Title(参考訳): PAVE: 自動走行車評価のためのエンドツーエンドデータセット
- Authors: Xiangyu Li, Chen Wang, Yumao Liu, Dengbo He, Jiahao Zhang, Ke Ma,
- Abstract要約: このデータセットには、市場で生産される自動運転車モデルから100時間以上の自然科学的なデータが含まれている。
各キーフレームには、過去6秒と将来の5秒にまたがる20Hzの車両軌跡と、周辺車両、歩行者、信号機、交通標識の詳細な2Dアノテーションが提供されている。
AVの安全性を評価するために、自動運転車のフレーム上で平均変位誤差(ADE)1.4mの車両軌道を予測できるエンドツーエンドの運動計画モデルを用いる。
- 参考スコア(独自算出の注目度): 11.024538259188347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing autonomous-driving datasets (e.g., KITTI, nuScenes, and the Waymo Perception Dataset), collected by human-driving mode or unidentified driving mode, can only serve as early training for the perception and prediction of autonomous vehicles (AVs). To evaluate the real behavioral safety of AVs controlled in the black box, we present the first end-to-end benchmark dataset collected entirely by autonomous-driving mode in the real world. This dataset contains over 100 hours of naturalistic data from multiple production autonomous-driving vehicle models in the market. We segment the original data into 32,727 key frames, each consisting of four synchronized camera images and high-precision GNSS/IMU data (0.8 cm localization accuracy). For each key frame, 20 Hz vehicle trajectories spanning the past 6 s and future 5 s are provided, along with detailed 2D annotations of surrounding vehicles, pedestrians, traffic lights, and traffic signs. These key frames have rich scenario-level attributes, including driver intent, area type (covering highways, urban roads, and residential areas), lighting (day, night, or dusk), weather (clear or rain), road surface (paved or unpaved), traffic and vulnerable road users (VRU) density, traffic lights, and traffic signs (warning, prohibition, and indication). To evaluate the safety of AVs, we employ an end-to-end motion planning model that predicts vehicle trajectories with an Average Displacement Error (ADE) of 1.4 m on autonomous-driving frames. The dataset continues to expand by over 10 hours of new data weekly, thereby providing a sustainable foundation for research on AV driving behavior analysis and safety evaluation.
- Abstract(参考訳): ほとんどの既存の自動運転データセット(例えば、KITTI、nuScenes、Waymo Perception Dataset)は、人間の運転モードまたは未確認運転モードによって収集され、自動運転車(AV)の認識と予測の早期トレーニングとしてしか機能しない。
ブラックボックス内で制御されたAVの実際の行動安全性を評価するため,実世界の自律走行モードで収集された最初のエンドツーエンドのベンチマークデータセットを提示する。
このデータセットは、市場にある複数のプロダクション自動運転車モデルから、100時間以上の博物学的なデータを含んでいる。
元のデータを32,727個のキーフレームに分割し、4つの同期カメラ画像と高精度GNSS/IMUデータ(0.8cmのローカライゼーション精度)からなる。
各キーフレームには、過去6秒と将来の5秒にまたがる20Hzの車両軌跡と、周辺車両、歩行者、信号機、交通標識の詳細な2Dアノテーションが提供されている。
これらのキーフレームには、ドライバーの意図、エリアタイプ(ハイウェイ、都市道、住宅地)、照明(昼、夜、夕暮れ)、天気(晴れまたは雨)、道路表面(舗装または未舗装)、交通および脆弱な道路利用者(VRU)密度、信号、交通標識(警告、禁止、表示)など、シナリオレベルの特性が豊富である。
AVの安全性を評価するために、自動運転車のフレーム上で平均変位誤差(ADE)1.4mの車両軌道を予測できるエンドツーエンドの運動計画モデルを用いる。
データセットは毎週10時間以上の新たなデータを追加し続けており、AV運転行動分析と安全性評価に関する研究のための持続可能な基盤を提供する。
関連論文リスト
- DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。