論文の概要: Dual Moving Average Pseudo-Labeling for Source-Free Inductive Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2212.08187v1
- Date: Thu, 15 Dec 2022 23:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:46:53.699162
- Title: Dual Moving Average Pseudo-Labeling for Source-Free Inductive Domain
Adaptation
- Title(参考訳): ソースフリーインダクティブドメイン適応のためのdual moving average pseudo-labeling
- Authors: Hao Yan, Yuhong Guo
- Abstract要約: 教師なしドメイン適応は、ソースからターゲットドメインに知識を適用することによって、ディープラーニングにおけるデータアノテーションへの依存を減らす。
プライバシと効率上の懸念に対して、ソースフリーなドメイン適応は、トレーニング済みのソースモデルをラベルなしのターゲットドメインに適応することにより、教師なしのドメイン適応を拡張します。
本稿では,DMAPL (Dual moving Average Pseudo-Labeling) という半教師付きファインチューニング手法を提案する。
- 参考スコア(独自算出の注目度): 45.024029784248825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation reduces the reliance on data annotation in
deep learning by adapting knowledge from a source to a target domain. For
privacy and efficiency concerns, source-free domain adaptation extends
unsupervised domain adaptation by adapting a pre-trained source model to an
unlabeled target domain without accessing the source data. However, most
existing source-free domain adaptation methods to date focus on the
transductive setting, where the target training set is also the testing set. In
this paper, we address source-free domain adaptation in the more realistic
inductive setting, where the target training and testing sets are mutually
exclusive. We propose a new semi-supervised fine-tuning method named Dual
Moving Average Pseudo-Labeling (DMAPL) for source-free inductive domain
adaptation. We first split the unlabeled training set in the target domain into
a pseudo-labeled confident subset and an unlabeled less-confident subset
according to the prediction confidence scores from the pre-trained source
model. Then we propose a soft-label moving-average updating strategy for the
unlabeled subset based on a moving-average prototypical classifier, which
gradually adapts the source model towards the target domain. Experiments show
that our proposed method achieves state-of-the-art performance and outperforms
previous methods by large margins.
- Abstract(参考訳): 教師なしドメイン適応は、ソースからターゲットドメインに知識を適用することによって、ディープラーニングにおけるデータアノテーションへの依存を減らす。
プライバシと効率の面では、ソースデータにアクセスすることなく、トレーニング済みのソースモデルをラベルなしのターゲットドメインに適応することで、ソースフリードメイン適応は教師なしドメイン適応を拡張します。
しかしながら、既存のソースフリーなドメイン適応手法のほとんどは、ターゲットトレーニングセットがテストセットであるトランスダクティブ設定に焦点を当てている。
本稿では、ターゲットトレーニングとテストセットが相互に排他的である、より現実的な帰納的設定におけるソースフリードメイン適応について述べる。
本稿では,DMAPL (Dual moving Average Pseudo-Labeling) という半教師付き微調整手法を提案する。
まず、対象領域の未ラベルのトレーニングセットを、事前学習したソースモデルからの予測信頼度スコアに基づいて、擬ラベルの信頼度サブセットと未ラベルの信頼度サブセットに分割する。
そこで本研究では,対象領域に対して徐々にソースモデルを適応させる移動平均型分類器に基づいて,無ラベル部分集合に対するソフトラベル移動平均更新戦略を提案する。
実験により,提案手法が最先端性能を達成し,従来の手法を大きなマージンで上回ることを示した。
関連論文リスト
- Towards Source-free Domain Adaptive Semantic Segmentation via Importance-aware and Prototype-contrast Learning [26.544837987747766]
本稿では、Importance-Aware と Prototype-Contrast Learning を用いた、エンドツーエンドのソースフリードメイン適応セマンティックセマンティックセマンティクス手法を提案する。
提案したIAPCフレームワークは、訓練済みソースモデルからドメイン不変知識を効果的に抽出し、ラベルなしターゲットドメインからドメイン固有知識を学習する。
論文 参考訳(メタデータ) (2023-06-02T15:09:19Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Boosting Unsupervised Domain Adaptation with Soft Pseudo-label and
Curriculum Learning [19.903568227077763]
教師なしドメイン適応(UDA)は、完全にラベル付けされたソースドメインからのデータを活用することにより、ラベル付けされていないターゲットドメインの分類性能を向上させる。
ソフトな擬似ラベル戦略を用いてモデル予測の欠陥を大幅に低減するモデルに依存しない2段階学習フレームワークを提案する。
第2段階では,2つのドメインの損失間の重み付けを適応的に制御するカリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2021-12-03T14:47:32Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。