論文の概要: Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation
- arxiv url: http://arxiv.org/abs/2408.07527v1
- Date: Wed, 14 Aug 2024 13:02:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 13:14:29.214449
- Title: Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation
- Title(参考訳): ソースフリーブレンディングターゲットドメイン適応のための証拠グラフコントラストアライメント
- Authors: Juepeng Zheng, Yibin Wen, Jinxiao Zhang, Runmin Dong, Haohuan Fu,
- Abstract要約: 混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
- 参考スコア(独自算出の注目度): 3.0134158269410207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we firstly tackle a more realistic Domain Adaptation (DA) setting: Source-Free Blending-Target Domain Adaptation (SF-BTDA), where we can not access to source domain data while facing mixed multiple target domains without any domain labels in prior. Compared to existing DA scenarios, SF-BTDA generally faces the co-existence of different label shifts in different targets, along with noisy target pseudo labels generated from the source model. In this paper, we propose a new method called Evidential Contrastive Alignment (ECA) to decouple the blending target domain and alleviate the effect from noisy target pseudo labels. First, to improve the quality of pseudo target labels, we propose a calibrated evidential learning module to iteratively improve both the accuracy and certainty of the resulting model and adaptively generate high-quality pseudo target labels. Second, we design a graph contrastive learning with the domain distance matrix and confidence-uncertainty criterion, to minimize the distribution gap of samples of a same class in the blended target domains, which alleviates the co-existence of different label shifts in blended targets. We conduct a new benchmark based on three standard DA datasets and ECA outperforms other methods with considerable gains and achieves comparable results compared with those that have domain labels or source data in prior.
- Abstract(参考訳): 本稿では、まず、より現実的なドメイン適応(DA: Source-Free Blending-Target Domain Adaptation)に取り組みます。
既存のDAシナリオと比較して、SF-BTDAは一般的に、ソースモデルから生成されるノイズの多いターゲットの擬似ラベルとともに、異なるターゲットにおける異なるラベルシフトの共存に直面します。
本稿では、混合対象ドメインを分離し、ノイズのあるターゲットの擬似ラベルから効果を緩和する、ECA(Evidential Contrastive Alignment)と呼ばれる新しい手法を提案する。
まず,擬似目標ラベルの品質向上のために,得られたモデルの精度と確実性の両方を反復的に改善し,高品質な擬似目標ラベルを適応的に生成するキャリブレーションされた明らかな学習モジュールを提案する。
第2に、混合対象領域における同一クラスのサンプルの分布ギャップを最小限に抑え、混合対象領域における異なるラベルシフトの共存を軽減するために、領域距離行列と信頼不確かさ基準との対比学習を設計する。
3つの標準DAデータセットに基づく新しいベンチマークを実施し、ECAは他のメソッドよりもかなり優れた性能を示し、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Semi-Supervised Domain Adaptation by Similarity based Pseudo-label
Injection [0.735996217853436]
半教師付きドメイン適応(SSDA)の主な課題の1つは、ラベル付きソースの数とターゲットサンプルのスキュード比である。
SSDAの最近の研究は、ラベル付き対象サンプルとソースサンプルのみを整列させることで、ターゲットドメインとソースドメインの整列が不完全な可能性があることを示している。
提案手法では,2つのドメインを整合させるために,コントラスト的損失を利用して意味論的かつドメインに依存しない特徴空間を学習する。
論文 参考訳(メタデータ) (2022-09-05T10:28:08Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。