論文の概要: Learning from Different Samples: A Source-free Framework for Semi-supervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2411.06665v1
- Date: Mon, 11 Nov 2024 02:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:16.198539
- Title: Learning from Different Samples: A Source-free Framework for Semi-supervised Domain Adaptation
- Title(参考訳): 異なるサンプルから学ぶ: 半教師付きドメイン適応のためのソースフリーフレームワーク
- Authors: Xinyang Huang, Chuang Zhu, Bowen Zhang, Shanghang Zhang,
- Abstract要約: 本稿では,異なる対象サンプルを包括的にマイニングするための異なる戦略を利用するフレームワークの設計に焦点をあてる。
そこで本研究では,対象領域における事前学習モデルの半教師付き微調整を実現するための,新しいソースフリーフレームワーク(SOUF)を提案する。
- 参考スコア(独自算出の注目度): 20.172605920901777
- License:
- Abstract: Semi-supervised domain adaptation (SSDA) has been widely studied due to its ability to utilize a few labeled target data to improve the generalization ability of the model. However, existing methods only consider designing certain strategies for target samples to adapt, ignoring the exploration of customized learning for different target samples. When the model encounters complex target distribution, existing methods will perform limited due to the inability to clearly and comprehensively learn the knowledge of multiple types of target samples. To fill this gap, this paper focuses on designing a framework to use different strategies for comprehensively mining different target samples. We propose a novel source-free framework (SOUF) to achieve semi-supervised fine-tuning of the source pre-trained model on the target domain. Different from existing SSDA methods, SOUF decouples SSDA from the perspectives of different target samples, specifically designing robust learning techniques for unlabeled, reliably labeled, and noisy pseudo-labeled target samples. For unlabeled target samples, probability-based weighted contrastive learning (PWC) helps the model learn more discriminative feature representations. To mine the latent knowledge of labeled target samples, reliability-based mixup contrastive learning (RMC) learns complex knowledge from the constructed reliable sample set. Finally, predictive regularization learning (PR) further mitigates the misleading effect of noisy pseudo-labeled samples on the model. Extensive experiments on benchmark datasets demonstrate the superiority of our framework over state-of-the-art methods.
- Abstract(参考訳): 半教師付きドメイン適応(SSDA)は、いくつかのラベル付きターゲットデータを利用してモデルの一般化能力を向上させる能力により、広く研究されている。
しかし、既存の手法では、ターゲットサンプルを適応させるための特定の戦略を考えるのみであり、異なるターゲットサンプルに対するカスタマイズ学習の探索を無視している。
モデルが複雑なターゲット分布に遭遇した場合、既存の手法は、複数のターゲットサンプルの知識を明確にかつ包括的に学習できないため、限定的に実行される。
このギャップを埋めるために、本論文では、異なるターゲットサンプルを包括的にマイニングするための異なる戦略を使用するフレームワークの設計に焦点を当てる。
そこで本研究では,対象領域における事前学習モデルの半教師付き微調整を実現するための,新しいソースフリーフレームワーク(SOUF)を提案する。
既存のSSDA法とは異なり、SOUFはSSDAを異なるターゲットサンプルの観点から分離し、特にラベルなし、確実にラベル付けされ、ノイズの多い擬似ラベル付きターゲットサンプルのための堅牢な学習テクニックを設計する。
ラベル付けされていない対象サンプルに対して、確率ベース重み付きコントラスト学習(PWC)はモデルがより識別的な特徴表現を学習するのに役立つ。
ラベル付き対象サンプルの潜在知識を掘り下げるために,信頼性に基づくミックスアップコントラスト学習(RMC)は,構築された信頼性のあるサンプルセットから複雑な知識を学習する。
最後に、予測正規化学習(PR)により、ノイズのある擬似ラベルサンプルがモデルに与える影響をさらに軽減する。
ベンチマークデータセットに関する大規模な実験は、最先端の手法よりもフレームワークの方が優れていることを示している。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Towards Realizing the Value of Labeled Target Samples: a Two-Stage
Approach for Semi-Supervised Domain Adaptation [21.004477294264998]
Semi-Supervised Domain Adaptation (SSDA)は、広く研究されているUnsupervised Domain Adaptation (UDA)から拡張された最近の研究トピックである。
ラベル付きソースとラベルなしターゲットサンプルを用いて、まずUDAモデルを学習する、UDA問題と半教師付き学習問題としてSSDAを分離することを提案する。
ラベル付きソースサンプルとターゲットサンプルを別々に利用することにより、バイアス問題を緩和することができる。
論文 参考訳(メタデータ) (2023-04-21T06:13:23Z) - A Global Model Approach to Robust Few-Shot SAR Automatic Target
Recognition [6.260916845720537]
ディープラーニングベースのSAR自動ターゲット認識(ATR)モデルをトレーニングするために、クラス毎に数百のラベル付きサンプルを収集できるとは限らない。
この研究は特に数発のSAR ATR問題に対処しており、興味のあるタスクをサポートするためにラベル付きサンプルがわずかである。
論文 参考訳(メタデータ) (2023-03-20T00:24:05Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Robust Federated Learning: The Case of Affine Distribution Shifts [41.27887358989414]
我々は,ユーザのサンプルの分布変化に対して良好な性能を実現するための,堅牢なフェデレーション学習アルゴリズムを開発した。
新しいテストユーザにおいて,アフィン分布シフトは学習者分類器の性能を著しく低下させるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-06-16T03:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。