論文の概要: Contrastive Mean Teacher for Domain Adaptive Object Detectors
- arxiv url: http://arxiv.org/abs/2305.03034v1
- Date: Thu, 4 May 2023 17:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 14:27:46.713666
- Title: Contrastive Mean Teacher for Domain Adaptive Object Detectors
- Title(参考訳): ドメイン適応物体検出のためのコントラスト平均教師
- Authors: Shengcao Cao, Dhiraj Joshi, Liang-Yan Gui, Yu-Xiong Wang
- Abstract要約: 平均教師の自己学習は、オブジェクト検出のための教師なしドメイン適応において強力なパラダイムであるが、低品質の擬似ラベルに苦しむ。
提案するContrastive Mean Teacher (CMT)は、2つのパラダイムが自然に統合され、有益な学習信号が最大化される統一的汎用フレームワークである。
CMTは、Fogdy Cityscapesで51.9%のmAPを達成し、これまでで最高の2.1%のmAPを達成している。
- 参考スコア(独自算出の注目度): 20.06919799819326
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detectors often suffer from the domain gap between training (source
domain) and real-world applications (target domain). Mean-teacher self-training
is a powerful paradigm in unsupervised domain adaptation for object detection,
but it struggles with low-quality pseudo-labels. In this work, we identify the
intriguing alignment and synergy between mean-teacher self-training and
contrastive learning. Motivated by this, we propose Contrastive Mean Teacher
(CMT) -- a unified, general-purpose framework with the two paradigms naturally
integrated to maximize beneficial learning signals. Instead of using
pseudo-labels solely for final predictions, our strategy extracts object-level
features using pseudo-labels and optimizes them via contrastive learning,
without requiring labels in the target domain. When combined with recent
mean-teacher self-training methods, CMT leads to new state-of-the-art
target-domain performance: 51.9% mAP on Foggy Cityscapes, outperforming the
previously best by 2.1% mAP. Notably, CMT can stabilize performance and provide
more significant gains as pseudo-label noise increases.
- Abstract(参考訳): オブジェクト検出器は、しばしばトレーニング(ソースドメイン)と現実世界のアプリケーション(ターゲットドメイン)の間のドメイン間ギャップに苦しむ。
平均教師の自己学習は、オブジェクト検出のための教師なしドメイン適応の強力なパラダイムであるが、低品質の擬似ラベルに苦しむ。
本研究では,平均教師の自己学習とコントラスト学習の相互作用と相乗効果を考察する。
そこで我々は,2つのパラダイムが自然に統合され,有益な学習信号の最大化に寄与する,統一的汎用フレームワークであるContrastive Mean Teacher (CMT)を提案する。
最終予測のみに擬似ラベルを使用する代わりに,擬似ラベルを用いてオブジェクトレベルの特徴を抽出し,対象領域のラベルを必要とせずにコントラスト学習により最適化する。
最近の平均教師の自己訓練手法と組み合わせると、CMTは新たな最先端の目標ドメインのパフォーマンスを導く: 51.9% mAP on Foggy Cityscapes で、これまでで最高の2.1% mAPを上回った。
特にCMTは、擬似ラベルノイズの増加に伴い、性能を安定させ、より顕著な利得を得ることができる。
関連論文リスト
- PiPa++: Towards Unification of Domain Adaptive Semantic Segmentation via Self-supervised Learning [34.786268652516355]
教師なしドメイン適応セグメンテーションは、それらのドメインのラベル付きデータに頼ることなく、ターゲットドメイン上のモデルのセグメンテーション精度を向上させることを目的としている。
ソースドメイン(ラベル付きデータが利用可能な場所)とターゲットドメイン(ラベルなしデータのみが存在する場所)の特徴表現の整合を図る。
論文 参考訳(メタデータ) (2024-07-24T08:53:29Z) - Cross Domain Object Detection via Multi-Granularity Confidence Alignment based Mean Teacher [14.715398100791559]
クロスドメインオブジェクト検出は、注釈付きソースドメインから知識を転送することで、ラベルなしターゲットドメインのオブジェクト検出器を学習する。
本研究では,カテゴリレベルの過信,インスタンスレベルのタスクの信頼性の不整合,イメージレベルの信頼の誤認など,予測の信頼性の誤調整が,対象領域における準最適性能をもたらすことを見出した。
論文 参考訳(メタデータ) (2024-07-10T15:56:24Z) - Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation [210.46684938698485]
意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
対象領域からのトレーニングサンプルの割合を減少・増加させることで,「学習能力」が強化・弱まることがわかった。
本稿では,DTS(Double teacher-student)フレームワークを提案し,双方向学習戦略を取り入れた。
論文 参考訳(メタデータ) (2023-03-16T05:04:10Z) - Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Constraining Pseudo-label in Self-training Unsupervised Domain
Adaptation with Energy-based Model [26.074500538428364]
ラベル付きソースドメインの知識をラベル付きターゲットドメインに導入するために、unsupervised domain adaptation (UDA) が開発されている。
近年、深層自己学習は、ターゲットドメインを予測する反復的なプロセスを含む、UDAにとって強力な手段となる。
我々はエネルギーベースモデルを採用し,エネルギー関数最小化の目標とする未ラベル対象試料の訓練を制約する。
論文 参考訳(メタデータ) (2022-08-26T22:50:23Z) - Boosting Cross-Domain Speech Recognition with Self-Supervision [35.01508881708751]
自動音声認識(ASR)のクロスドメイン性能は,トレーニングとテストのミスマッチにより著しく損なわれる可能性がある。
従来, 自己監督学習 (SSL) や擬似ラベル学習 (PL) は, 未ラベルデータの自己監督を利用してUDAに有効であることが示された。
この研究は、事前学習および微調整のパラダイムにおいて、ラベルなしデータを完全に活用する体系的なUDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-20T14:02:53Z) - UDA-COPE: Unsupervised Domain Adaptation for Category-level Object Pose
Estimation [84.16372642822495]
我々は、textbfUDA-COPEと呼ばれるカテゴリレベルのオブジェクトポーズ推定のための教師なしドメイン適応(UDA)を提案する。
近年のマルチモーダルなUDA手法に触発された提案手法は,教師が指導する自己教師型学習手法を利用して,ターゲットドメインラベルを使わずにポーズ推定ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-11-24T16:00:48Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。