論文の概要: Dual-Curriculum Teacher for Domain-Inconsistent Object Detection in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2210.08748v1
- Date: Mon, 17 Oct 2022 05:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:27:30.163459
- Title: Dual-Curriculum Teacher for Domain-Inconsistent Object Detection in
Autonomous Driving
- Title(参考訳): 自律運転における非一貫性物体検出のための双曲教師
- Authors: Longhui Yu, Yifan Zhang, Lanqing Hong, Fei Chen, Zhenguo Li
- Abstract要約: 自律運転では、データは通常、異なる天候条件や1日の異なる時間など、異なるシナリオから収集される。
1)データ分散の相違、(2)クラス分散の相違などである。
本稿では,この問題に対処するため,Dual-Curriculum Teacher (DucTeacher)を提案する。
- 参考スコア(独自算出の注目度): 43.573192013344055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection for autonomous vehicles has received increasing attention in
recent years, where labeled data are often expensive while unlabeled data can
be collected readily, calling for research on semi-supervised learning for this
area. Existing semi-supervised object detection (SSOD) methods usually assume
that the labeled and unlabeled data come from the same data distribution. In
autonomous driving, however, data are usually collected from different
scenarios, such as different weather conditions or different times in a day.
Motivated by this, we study a novel but challenging domain inconsistent SSOD
problem. It involves two kinds of distribution shifts among different domains,
including (1) data distribution discrepancy, and (2) class distribution shifts,
making existing SSOD methods suffer from inaccurate pseudo-labels and hurting
model performance. To address this problem, we propose a novel method, namely
Dual-Curriculum Teacher (DucTeacher). Specifically, DucTeacher consists of two
curriculums, i.e., (1) domain evolving curriculum seeks to learn from the data
progressively to handle data distribution discrepancy by estimating the
similarity between domains, and (2) distribution matching curriculum seeks to
estimate the class distribution for each unlabeled domain to handle class
distribution shifts. In this way, DucTeacher can calibrate biased pseudo-labels
and handle the domain-inconsistent SSOD problem effectively. DucTeacher shows
its advantages on SODA10M, the largest public semi-supervised autonomous
driving dataset, and COCO, a widely used SSOD benchmark. Experiments show that
DucTeacher achieves new state-of-the-art performance on SODA10M with 2.2 mAP
improvement and on COCO with 0.8 mAP improvement.
- Abstract(参考訳): 自動運転車の物体検出は近年注目を集めており、ラベル付きデータは高価であることが多いが、ラベル付きデータは簡単に収集できるため、この分野の半教師付き学習の研究が求められている。
既存の半教師付きオブジェクト検出(SSOD)法は通常、ラベル付きおよびラベルなしのデータは同じデータ分布から来ていると仮定する。
しかし、自動運転では、通常、データは異なる気象条件や1日の異なる時間など、異なるシナリオから収集される。
そこで本研究では,新しい領域不整合性SSOD問題について検討する。
それは、(1)データ分散の不一致、(2)クラス分散シフト、(2)既存のssodメソッドが不正確な擬似ラベルに苦しむこと、およびモデル性能を損なうこと、の2つの異なるドメイン間の分散シフトを含む。
この問題に対処するため,Dual-Curriculum Teacher (DucTeacher) という新しい手法を提案する。
具体的には、2つのカリキュラム、すなわち、(1)ドメイン進化カリキュラムは、ドメイン間の類似度を推定することにより、データから徐々に学習し、データ分散の不一致を処理し、(2)分散マッチングカリキュラムは、各ラベルなしドメインのクラス分布を推定し、クラス分散シフトを処理しようとする。
このようにして、DucTeacherはバイアス付き擬似ラベルを校正し、ドメイン一貫性のないSSOD問題を効果的に処理できる。
DucTeacherは、最大規模の公用半教師付き自動運転データセットであるSODA10Mと、広く使用されているSSODベンチマークであるCOCOに対して、その利点を示している。
実験により、DucTeacherは2.2mAP改善のSODA10Mと0.8mAP改善のCOCOで新しい最先端性能を実現することが示された。
関連論文リスト
- Dynamic Retraining-Updating Mean Teacher for Source-Free Object Detection [8.334498654271371]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本研究では、ラベル付きソースデータを用いることなく、ソース学習された検出器をラベル付きターゲットドメインに適応させる、ソースフリーなオブジェクト検出(SFOD)に焦点を当てる。
論文 参考訳(メタデータ) (2024-07-23T14:12:57Z) - Tackling Long-Tailed Category Distribution Under Domain Shifts [50.21255304847395]
既存のアプローチでは、両方の問題が存在するシナリオに対処できません。
本研究では,分散校正型分類損失,視覚意味マッピング,セマンティック類似性誘導拡張の3つの新しい機能ブロックを設計した。
AWA2-LTSとImageNet-LTSという2つの新しいデータセットが提案された。
論文 参考訳(メタデータ) (2022-07-20T19:07:46Z) - Extending the WILDS Benchmark for Unsupervised Adaptation [186.90399201508953]
We present the WILDS 2.0 update, which extends 8 of the 10 datasets in the WILDS benchmark of distribution shifts to include curated unlabeled data。
これらのデータセットは、組織学から野生生物保護まで幅広い応用、タスク(分類、回帰、検出)、モダリティにまたがる。
ドメイン不変量や自己学習,自己管理など,ラベルのないデータを活用する最先端の手法を体系的にベンチマークする。
論文 参考訳(メタデータ) (2021-12-09T18:32:38Z) - Cross-Region Domain Adaptation for Class-level Alignment [32.586107376036075]
本稿では,2つの特徴分布を対象領域に整列させる手法を提案する。
自己学習フレームワークを使用して、イメージを2つのリージョンに分割し、特徴空間を整列させるために2つのディストリビューションを形成する。
このアプローチを、異なる領域分布を整合させる従来の方法と区別するために、クロスリージョン適応(CRA)と呼ぶ。
論文 参考訳(メタデータ) (2021-09-14T04:13:35Z) - Unsupervised domain adaptation via double classifiers based on high
confidence pseudo label [8.132250810529873]
Unsupervised Domain Adapt (UDA)は,ラベル付きソースドメインからラベル付きターゲットドメインへのナレッジ転送という問題を解決することを目的とする。
多くのドメイン適応(DA)メソッドは、Centroidを使って異なるドメインの局所分布を整列させ、異なるクラスを整列させる。
この研究は、異なるドメイン間のアライメントを再考し、異なるドメイン間の真のアライメントを達成する方法を研究する。
論文 参考訳(メタデータ) (2021-05-11T00:51:31Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。