論文の概要: SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2106.11118v2
- Date: Tue, 22 Jun 2021 01:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 11:19:15.455603
- Title: SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving
- Title(参考訳): SODA10M: 自律運転のための大規模物体検出ベンチマークを目指して
- Authors: Jianhua Han, Xiwen Liang, Hang Xu, Kai Chen, Lanqing Hong, Chaoqiang
Ye, Wei Zhang, Zhenguo Li, Xiaodan Liang, Chunjing Xu
- Abstract要約: 我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
- 参考スコア(独自算出の注目度): 94.11868795445798
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Aiming at facilitating a real-world, ever-evolving and scalable autonomous
driving system, we present a large-scale benchmark for standardizing the
evaluation of different self-supervised and semi-supervised approaches by
learning from raw data, which is the first and largest benchmark to date.
Existing autonomous driving systems heavily rely on `perfect' visual perception
models (e.g., detection) trained using extensive annotated data to ensure the
safety. However, it is unrealistic to elaborately label instances of all
scenarios and circumstances (e.g., night, extreme weather, cities) when
deploying a robust autonomous driving system. Motivated by recent powerful
advances of self-supervised and semi-supervised learning, a promising direction
is to learn a robust detection model by collaboratively exploiting large-scale
unlabeled data and few labeled data. Existing dataset (e.g., KITTI, Waymo)
either provides only a small amount of data or covers limited domains with full
annotation, hindering the exploration of large-scale pre-trained models. Here,
we release a Large-Scale Object Detection benchmark for Autonomous driving,
named as SODA10M, containing 10 million unlabeled images and 20K images labeled
with 6 representative object categories. To improve diversity, the images are
collected every ten seconds per frame within 32 different cities under
different weather conditions, periods and location scenes. We provide extensive
experiments and deep analyses of existing supervised state-of-the-art detection
models, popular self-supervised and semi-supervised approaches, and some
insights about how to develop future models. The data and more up-to-date
information have been released at https://soda-2d.github.io.
- Abstract(参考訳): 本稿では,実世界で進化し,進化し,スケーラブルな自動運転システムを実現することを目指して,これまでで1番目かつ最大のベンチマークである生データから学習することにより,異なる自己教師あり・半教師ありアプローチの評価を標準化する大規模ベンチマークを提案する。
既存の自動運転システムは、安全を確保するために広範囲の注釈データを使用して訓練された「完璧な」視覚知覚モデル(例えば、検出)に大きく依存している。
しかしながら、堅牢な自動運転システムを展開する場合、すべてのシナリオや状況(例えば、夜間、極端な天候、都市)のインスタンスを精巧にラベルするのは現実的ではない。
近年の自己教師型・半教師型学習の強力な進歩により,大規模未ラベルデータとラベル付きデータの少ないデータを協調的に活用することにより,堅牢な検出モデルを学ぶことが期待できる。
既存のデータセット(例えば、KITTI、Waymo)は、少量のデータしか提供しないか、あるいは完全なアノテーションで限られたドメインをカバーするため、大規模な事前訓練モデルの探索を妨げている。
そこで我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークを公開し,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を改善するため、画像は天候、期間、場所の異なる32都市で、フレームごとに10秒ごとに収集される。
我々は,既存の監視状態検出モデル,一般的な自己監視型および半監督型アプローチの広範な実験と深い分析を行い,今後のモデルの開発方法についての知見を提供する。
データと最新情報はhttps://soda-2d.github.ioで公開されている。
関連論文リスト
- Self-Updating Vehicle Monitoring Framework Employing Distributed Acoustic Sensing towards Real-World Settings [5.306938463648908]
本稿では,都市環境に合わせて,リアルタイムな半教師付き車両監視フレームワークを提案する。
初期トレーニングにはわずかな手動ラベルしか必要とせず、モデル改善のためにラベル付けされていないデータを活用する。
車両の走行速度の異なる1台の車両を追尾するために、車両の軌跡形状を取り入れた新しい先行損失を提案する。
論文 参考訳(メタデータ) (2024-09-16T13:10:58Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - Traffic Context Aware Data Augmentation for Rare Object Detection in
Autonomous Driving [5.037913689432052]
本稿では,自律運転におけるまれな物体検出のための簡易なコピー・ペーストデータ拡張に関する体系的研究を提案する。
具体的には、リアルなレアなオブジェクトマスクを生成するために、局所適応型インスタンスレベルの画像変換を導入する。
我々は10kのトレーニング画像と4kの検証画像と対応するラベルからなるNM10kという新しいデータセットを構築した。
論文 参考訳(メタデータ) (2022-05-01T01:45:00Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。