論文の概要: Low-confidence Samples Matter for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2202.02802v1
- Date: Sun, 6 Feb 2022 15:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:13:28.318858
- Title: Low-confidence Samples Matter for Domain Adaptation
- Title(参考訳): ドメイン適応のための低信頼サンプル
- Authors: Yixin Zhang, Junjie Li, Zilei Wang
- Abstract要約: ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
- 参考スコア(独自算出の注目度): 47.552605279925736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) aims to transfer knowledge from a label-rich source
domain to a related but label-scarce target domain. The conventional DA
strategy is to align the feature distributions of the two domains. Recently,
increasing researches have focused on self-training or other semi-supervised
algorithms to explore the data structure of the target domain. However, the
bulk of them depend largely on confident samples in order to build reliable
pseudo labels, prototypes or cluster centers. Representing the target data
structure in such a way would overlook the huge low-confidence samples,
resulting in sub-optimal transferability that is biased towards the samples
similar to the source domain. To overcome this issue, we propose a novel
contrastive learning method by processing low-confidence samples, which
encourages the model to make use of the target data structure through the
instance discrimination process. To be specific, we create positive and
negative pairs only using low-confidence samples, and then re-represent the
original features with the classifier weights rather than directly utilizing
them, which can better encode the task-specific semantic information.
Furthermore, we combine cross-domain mixup to augment the proposed contrastive
loss. Consequently, the domain gap can be well bridged through contrastive
learning of intermediate representations across domains. We evaluate the
proposed method in both unsupervised and semi-supervised DA settings, and
extensive experimental results on benchmarks reveal that our method is
effective and achieves state-of-the-art performance. The code can be found in
https://github.com/zhyx12/MixLRCo.
- Abstract(参考訳): ドメイン適応(DA)は、知識をラベル豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
従来のDA戦略は2つのドメインの特徴分布を調整することである。
近年,対象領域のデータ構造を探索する自己学習や他の半教師付きアルゴリズムの研究が増えている。
しかし、その大部分は信頼できる擬似ラベルやプロトタイプ、クラスタセンターを構築するために、信頼性の高いサンプルに依存している。
このような方法で対象のデータ構造を表現すれば、巨大な低信頼のサンプルを見落とし、ソースドメインと同様のサンプルに対してバイアスを受けるような準最適転送性が得られる。
そこで本研究では,低信頼度サンプルを処理し,対象データ構造をインスタンス識別プロセスを通じて活用することを奨励する,新しいコントラスト学習手法を提案する。
具体的には、信頼度が低いサンプルのみを用いて正と負のペアを作成し、それを直接利用するのではなく、分類器重みで元の特徴を再表現し、タスク固有の意味情報をよりよくエンコードする。
さらに,提案するコントラスト損失を補うために,クロスドメインミックスアップを組み合わせる。
したがって、ドメイン間のギャップは、ドメイン間の中間表現の対比学習を通じてうまく橋渡しすることができる。
提案手法を教師なしと半教師付きの両方のDA設定で評価し,ベンチマークの結果から,提案手法が有効であり,最先端の性能を達成できることが判明した。
コードはhttps://github.com/zhyx12/mixlrcoにある。
関連論文リスト
- High-order Neighborhoods Know More: HyperGraph Learning Meets Source-free Unsupervised Domain Adaptation [34.08681468394247]
Source-free Unsupervised Domain Adaptationは、未学習のソースモデルと未学習のターゲットモデルにのみアクセスすることで、ターゲットサンプルを分類することを目的としている。
既存の手法は、通常、対象サンプル間のペアワイズ関係を利用して、これらのサンプルを意味的特徴に基づいてクラスタリングすることで、それらの相関関係を見つけようとする。
本研究では、高次近傍関係を利用して、ドメインシフト効果を明示的に考慮した新しいSFDA法を提案する。
論文 参考訳(メタデータ) (2024-05-11T05:07:43Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Domain Adaptation by Class Centroid Matching and Local Manifold
Self-Learning [8.316259570013813]
本稿では,対象領域のデータ分散構造を徹底的に探索できる新しい領域適応手法を提案する。
対象領域内の同一クラスタ内のサンプルを個人ではなく全体とみなし、クラスセントロイドマッチングにより擬似ラベルを対象クラスタに割り当てる。
提案手法の目的関数を理論的収束保証を用いて解くために,効率的な反復最適化アルゴリズムを設計した。
論文 参考訳(メタデータ) (2020-03-20T16:59:27Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。