論文の概要: CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2203.07724v1
- Date: Tue, 15 Mar 2022 08:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 03:49:28.906803
- Title: CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving
- Title(参考訳): CODA: 自律走行における物体検出のための実世界道路コーナーケースデータセット
- Authors: Kaican Li, Kai Chen, Haoyu Wang, Lanqing Hong, Chaoqiang Ye, Jianhua
Han, Yukuai Chen, Wei Zhang, Chunjing Xu, Dit-Yan Yeung, Xiaodan Liang,
Zhenguo Li, Hang Xu
- Abstract要約: 我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
- 参考スコア(独自算出の注目度): 117.87070488537334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary deep-learning object detection methods for autonomous driving
usually assume prefixed categories of common traffic participants, such as
pedestrians and cars. Most existing detectors are unable to detect uncommon
objects and corner cases (e.g., a dog crossing a street), which may lead to
severe accidents in some situations, making the timeline for the real-world
application of reliable autonomous driving uncertain. One main reason that
impedes the development of truly reliably self-driving systems is the lack of
public datasets for evaluating the performance of object detectors on corner
cases. Hence, we introduce a challenging dataset named CODA that exposes this
critical problem of vision-based detectors. The dataset consists of 1500
carefully selected real-world driving scenes, each containing four object-level
corner cases (on average), spanning 30+ object categories. On CODA, the
performance of standard object detectors trained on large-scale autonomous
driving datasets significantly drops to no more than 12.8% in mAR. Moreover, we
experiment with the state-of-the-art open-world object detector and find that
it also fails to reliably identify the novel objects in CODA, suggesting that a
robust perception system for autonomous driving is probably still far from
reach. We expect our CODA dataset to facilitate further research in reliable
detection for real-world autonomous driving. Our dataset will be released at
https://coda-dataset.github.io.
- Abstract(参考訳): 現代の自動運転のためのディープラーニングオブジェクト検出手法は、通常、歩行者や車といった一般的な交通参加者の序列カテゴリーを仮定する。
ほとんどの既存の検出器は、異常な物体やコーナーケース(例えば、通りを横断する犬など)を検出できないため、いくつかの状況では深刻な事故を引き起こし、信頼性の高い自律運転の現実の応用のタイムラインが不確実である。
真に確実な自動運転システムの開発を妨げる主な理由は、コーナーケースにおける物体検知器の性能を評価するための公開データセットがないことである。
したがって、我々は、この視覚ベースの検出器の重大な問題を露呈する、CODAという挑戦的なデータセットを導入する。
データセットは1500の慎重に選択された現実世界の運転シーンで構成され、それぞれが4つの対象レベルのコーナーケース(平均30以上の対象カテゴリ)を含んでいる。
CODAでは、大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
さらに,最先端のオープンワールド物体検出器を用いて実験を行い,codaの新規物体の同定に失敗したことを発見した。
当社のCODAデータセットは、現実の自律運転の信頼性検出におけるさらなる研究を促進するものと期待している。
データセットはhttps://coda-dataset.github.ioで公開されます。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Multimodal Detection of Unknown Objects on Roads for Autonomous Driving [4.3310896118860445]
未知の物体を検出する新しいパイプラインを提案する。
我々は,最先端の美術品検出モデルを逐次的に組み合わせることで,ライダーとカメラのデータを利用する。
論文 参考訳(メタデータ) (2022-05-03T10:58:41Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - How to Build a Curb Dataset with LiDAR Data for Autonomous Driving [11.632427050596728]
ビデオカメラと3D LiDARは、検出を抑えるために自動運転車に搭載されている。
カメラベースストレッチ検出手法は、難解な照明条件に悩まされる。
テンプレートアノテーションや効率的なテンプレートラベリングアプローチを備えたデータセットは、要求が高い。
論文 参考訳(メタデータ) (2021-10-08T08:32:37Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。