論文の概要: Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2106.04151v1
- Date: Tue, 8 Jun 2021 07:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 05:48:06.169933
- Title: Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation
- Title(参考訳): 非教師なし領域適応のためのクロスドメイン勾配偏差最小化
- Authors: Zhekai Du, Jingjing Li, Hongzu Su, Lei Zhu, Ke Lu
- Abstract要約: Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
- 参考スコア(独自算出の注目度): 22.852237073492894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to generalize the knowledge learned
from a well-labeled source domain to an unlabeled target domain. Recently,
adversarial domain adaptation with two distinct classifiers (bi-classifier) has
been introduced into UDA which is effective to align distributions between
different domains. Previous bi-classifier adversarial learning methods only
focus on the similarity between the outputs of two distinct classifiers.
However, the similarity of the outputs cannot guarantee the accuracy of target
samples, i.e., target samples may match to wrong categories even if the
discrepancy between two classifiers is small. To challenge this issue, in this
paper, we propose a cross-domain gradient discrepancy minimization (CGDM)
method which explicitly minimizes the discrepancy of gradients generated by
source samples and target samples. Specifically, the gradient gives a cue for
the semantic information of target samples so it can be used as a good
supervision to improve the accuracy of target samples. In order to compute the
gradient signal of target samples, we further obtain target pseudo labels
through a clustering-based self-supervised learning. Extensive experiments on
three widely used UDA datasets show that our method surpasses many previous
state-of-the-arts. Codes are available at https://github.com/lijin118/CGDM.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
近年,2つの異なる分類器(bi分類器)による逆領域適応がudaに導入され,異なる領域間の分布の調整に有効である。
従来は2つの異なる分類器の出力間の類似性にのみ焦点をあてていた。
しかし、出力の類似性は、ターゲットサンプルの精度を保証できない。すなわち、2つの分類器間の差が小さい場合でも、ターゲットサンプルは間違ったカテゴリに一致する可能性がある。
この問題に対処するため,本論文では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン勾配離散化(CGDM)手法を提案する。
具体的には、この勾配は、ターゲットサンプルのセマンティック情報に対する手がかりを与え、ターゲットサンプルの精度を向上させるための優れた監視手段として使用できる。
対象サンプルの勾配信号を計算するため,クラスタリングに基づく自己教師付き学習により,ターゲット擬似ラベルを得る。
広範に使用されている3つのUDAデータセットに対する大規模な実験により、我々の手法は過去の多くの最先端技術を上回ることが示された。
コードはhttps://github.com/lijin118/cgdmで入手できる。
関連論文リスト
- Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation [3.0134158269410207]
混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
論文 参考訳(メタデータ) (2024-08-14T13:02:20Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - MiniMax Entropy Network: Learning Category-Invariant Features for Domain Adaptation [29.43532067090422]
逆学習に基づくMMEN(MiniMax Entropy Networks)と呼ばれる実装が容易な手法を提案する。
ドメイン差に対処するためにジェネレータを使用する既存のアプローチとは異なり、MMENはラベルのないターゲットサンプルからカテゴリ情報を学習することに重点を置いている。
論文 参考訳(メタデータ) (2019-04-21T13:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。