論文の概要: DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2304.01168v1
- Date: Mon, 3 Apr 2023 17:37:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:14:45.983054
- Title: DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving
- Title(参考訳): DeepAccident: V2X自動運転の動作と事故予測ベンチマーク
- Authors: Tianqi Wang, Sukmin Kim, Wenxuan Ji, Enze Xie, Chongjian Ge, Junsong
Chen, Zhenguo Li, Ping Luo
- Abstract要約: 本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
- 参考スコア(独自算出の注目度): 53.15701823527017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety is the primary priority of autonomous driving. Nevertheless, no
published dataset currently supports the direct and explainable safety
evaluation for autonomous driving. In this work, we propose DeepAccident, a
large-scale dataset generated via a realistic simulator containing diverse
accident scenarios that frequently occur in real-world driving. The proposed
DeepAccident dataset contains 57K annotated frames and 285K annotated samples,
approximately 7 times more than the large-scale nuScenes dataset with 40k
annotated samples. In addition, we propose a new task, end-to-end motion and
accident prediction, based on the proposed dataset, which can be used to
directly evaluate the accident prediction ability for different autonomous
driving algorithms. Furthermore, for each scenario, we set four vehicles along
with one infrastructure to record data, thus providing diverse viewpoints for
accident scenarios and enabling V2X (vehicle-to-everything) research on
perception and prediction tasks. Finally, we present a baseline V2X model named
V2XFormer that demonstrates superior performance for motion and accident
prediction and 3D object detection compared to the single-vehicle model.
- Abstract(参考訳): 安全は自動運転の優先事項である。
それでも、現在公表されているデータセットは、自律運転の直接的かつ説明可能な安全性評価をサポートしていない。
本研究では,実世界の運転時に頻繁に発生する多様な事故シナリオを含む現実的なシミュレータを用いて生成された大規模データセットであるdeepaccidentを提案する。
提案するdeepaccidentデータセットは57kの注釈付きフレームと285kの注釈付きサンプルを含み、40kの注釈付きサンプルを持つ大規模nuscenesデータセットの約7倍である。
さらに,提案したデータセットに基づいて,新たなタスク,エンドツーエンド動作と事故予測を提案し,異なる自律運転アルゴリズムの事故予測能力を直接評価することができる。
さらに,各シナリオに対して,データ記録のための4台の車両と1台のインフラを設定し,事故シナリオの多様な視点を提供し,V2X(車間通信)による知覚と予測タスクの実現を可能にした。
最後に,V2XFormerと呼ばれるベースラインV2Xモデルを提案する。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Trajectory Prediction with Observations of Variable-Length for Motion
Planning in Highway Merging scenarios [5.193470362635256]
既存の手法では、2秒以上の一定期間の観測がなければ、車両の予測を開始することはできない。
本稿では,1フレーム以上の観測長を扱うために特別に訓練されたトランスフォーマーを用いた軌道予測手法を提案する。
2つの大規模高速道路軌道データセットを用いて提案手法の総合評価を行う。
論文 参考訳(メタデータ) (2023-06-08T18:03:48Z) - Deep Virtual-to-Real Distillation for Pedestrian Crossing Prediction [18.17737928566106]
我々は, 簡便に生成可能な合成データを導入して, 仮想・実蒸留の枠組みを定式化する。
我々は,歩行者移動の豊富な情報を合成ビデオに借用し,単純かつ軽量な実装により,歩行者横断予測を実データで実現した。
このフレームワークの最先端性能は、徹底的な実験分析によって実証される。
論文 参考訳(メタデータ) (2022-11-02T03:53:55Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。