論文の概要: PAVE: An End-to-End Dataset for Production Autonomous Vehicle Evaluation
- arxiv url: http://arxiv.org/abs/2511.14185v2
- Date: Wed, 19 Nov 2025 03:21:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 13:41:21.129888
- Title: PAVE: An End-to-End Dataset for Production Autonomous Vehicle Evaluation
- Title(参考訳): PAVE: 自動走行車評価のためのエンドツーエンドデータセット
- Authors: Xiangyu Li, Chen Wang, Yumao Liu, Dengbo He, Jiahao Zhang, Ke Ma,
- Abstract要約: このデータセットには、市場で生産される自動運転車モデルから100時間以上の自然科学的なデータが含まれている。
各キーフレームには、過去6秒と将来の5秒にまたがる20Hzの車両軌跡と、周辺車両、歩行者、信号機、交通標識の詳細な2Dアノテーションが提供されている。
AVの安全性を評価するために、自動運転車のフレーム上で平均変位誤差(ADE)1.4mの車両軌道を予測できるエンドツーエンドの運動計画モデルを用いる。
- 参考スコア(独自算出の注目度): 11.024538259188347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing autonomous-driving datasets (e.g., KITTI, nuScenes, and the Waymo Perception Dataset), collected by human-driving mode or unidentified driving mode, can only serve as early training for the perception and prediction of autonomous vehicles (AVs). To evaluate the real behavioral safety of AVs controlled in the black box, we present the first end-to-end benchmark dataset collected entirely by autonomous-driving mode in the real world. This dataset contains over 100 hours of naturalistic data from multiple production autonomous-driving vehicle models in the market. We segment the original data into 32,727 key frames, each consisting of four synchronized camera images and high-precision GNSS/IMU data (0.8 cm localization accuracy). For each key frame, 20 Hz vehicle trajectories spanning the past 6 s and future 5 s are provided, along with detailed 2D annotations of surrounding vehicles, pedestrians, traffic lights, and traffic signs. These key frames have rich scenario-level attributes, including driver intent, area type (covering highways, urban roads, and residential areas), lighting (day, night, or dusk), weather (clear or rain), road surface (paved or unpaved), traffic and vulnerable road users (VRU) density, traffic lights, and traffic signs (warning, prohibition, and indication). To evaluate the safety of AVs, we employ an end-to-end motion planning model that predicts vehicle trajectories with an Average Displacement Error (ADE) of 1.4 m on autonomous-driving frames. The dataset continues to expand by over 10 hours of new data weekly, thereby providing a sustainable foundation for research on AV driving behavior analysis and safety evaluation. The PAVE dataset is publicly available at https://hkustgz-my.sharepoint.com/:f:/g/personal/kema_hkust-gz_edu_cn/IgDXyoHKfdGnSZ3JbbidjduMAXxs-Z 3NXzm005A_Ix9tr0Q?e=9HReCu.
- Abstract(参考訳): ほとんどの既存の自動運転データセット(例えば、KITTI、nuScenes、Waymo Perception Dataset)は、人間の運転モードまたは未確認運転モードによって収集され、自動運転車(AV)の認識と予測の早期トレーニングとしてしか機能しない。
ブラックボックス内で制御されたAVの実際の行動安全性を評価するため,実世界の自律走行モードで収集された最初のエンドツーエンドのベンチマークデータセットを提示する。
このデータセットは、市場にある複数のプロダクション自動運転車モデルから、100時間以上の博物学的なデータを含んでいる。
元のデータを32,727個のキーフレームに分割し、4つの同期カメラ画像と高精度GNSS/IMUデータ(0.8cmのローカライゼーション精度)からなる。
各キーフレームには、過去6秒と将来の5秒にまたがる20Hzの車両軌跡と、周辺車両、歩行者、信号機、交通標識の詳細な2Dアノテーションが提供されている。
これらのキーフレームには、ドライバーの意図、エリアタイプ(ハイウェイ、都市道、住宅地)、照明(昼、夜、夕暮れ)、天気(晴れまたは雨)、道路表面(舗装または未舗装)、交通および脆弱な道路利用者(VRU)密度、信号、交通標識(警告、禁止、表示)など、シナリオレベルの特性が豊富である。
AVの安全性を評価するために、自動運転車のフレーム上で平均変位誤差(ADE)1.4mの車両軌道を予測できるエンドツーエンドの運動計画モデルを用いる。
データセットは毎週10時間以上の新たなデータを追加し続けており、AV運転行動分析と安全性評価に関する研究のための持続可能な基盤を提供する。
PAVEデータセットはhttps://hkustgz-my.sharepoint.com/:f:/g/personal/kema_hkust-gz_edu_cn/IgDXyoHKfdGnSZ3JbbidjduMAXxs-Z 3NXzm005A_Ix9tr0Qで公開されている。
e=9HReCu。
関連論文リスト
- DriveWorld: 4D Pre-trained Scene Understanding via World Models for Autonomous Driving [67.46481099962088]
現在の視覚中心の事前訓練は、通常、2Dまたは3Dのプリテキストタスクに依存し、自律運転の時間的特性を4Dシーン理解タスクとして見落としている。
我々は,マルチカメラ駆動ビデオからテンポラリな方法で事前学習が可能なEmphcentricDriveWorldを紹介した。
DriveWorldは、さまざまな自動運転タスクに関する有望な結果を提供する。
論文 参考訳(メタデータ) (2024-05-07T15:14:20Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - One Thousand and One Hours: Self-driving Motion Prediction Dataset [8.675886928486335]
これまでに1000時間以上のデータを含む、動き予測のための最大の自動運転データセットを提示する。
これはカリフォルニア州パロアルトの固定ルートに沿って、20台の自動運転車が4ヶ月にわたって収集したものだ。
これは170,000のシーンで構成され、各シーンの長さは25秒で、自動運転システムの知覚出力をキャプチャする。
論文 参考訳(メタデータ) (2020-06-25T15:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。