論文の概要: GeT: Generative Target Structure Debiasing for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2308.10205v1
- Date: Sun, 20 Aug 2023 08:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 16:58:35.712419
- Title: GeT: Generative Target Structure Debiasing for Domain Adaptation
- Title(参考訳): GeT: ドメイン適応のための生成ターゲット構造デバイアス
- Authors: Can Zhang and Gim Hee Lee
- Abstract要約: ドメイン適応(DA)は、ドメインシフトの下で、完全にラベル付けされたソースからほとんどラベル付けされていない、または完全にラベル付けされていないターゲットに知識を転送することを目的としています。
近年,擬似ラベリングを利用した半教師付き学習(SSL)技術がDAでますます普及している。
本稿では,高品質な擬似ラベルを用いた非バイアス対象埋め込み分布を学習するGeTを提案する。
- 参考スコア(独自算出の注目度): 67.17025068995835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) aims to transfer knowledge from a fully labeled source
to a scarcely labeled or totally unlabeled target under domain shift. Recently,
semi-supervised learning-based (SSL) techniques that leverage pseudo labeling
have been increasingly used in DA. Despite the competitive performance, these
pseudo labeling methods rely heavily on the source domain to generate pseudo
labels for the target domain and therefore still suffer considerably from
source data bias. Moreover, class distribution bias in the target domain is
also often ignored in the pseudo label generation and thus leading to further
deterioration of performance. In this paper, we propose GeT that learns a
non-bias target embedding distribution with high quality pseudo labels.
Specifically, we formulate an online target generative classifier to induce the
target distribution into distinctive Gaussian components weighted by their
class priors to mitigate source data bias and enhance target class
discriminability. We further propose a structure similarity regularization
framework to alleviate target class distribution bias and further improve
target class discriminability. Experimental results show that our proposed GeT
is effective and achieves consistent improvements under various DA settings
with and without class distribution bias. Our code is available at:
https://lulusindazc.github.io/getproject/.
- Abstract(参考訳): ドメイン適応(DA)は、ドメインシフトの下で、完全にラベル付けされたソースからほとんどラベル付けされていない、または完全にラベル付けされていないターゲットに知識を転送することを目的としています。
近年,擬似ラベリングを利用した半教師付き学習(SSL)技術がDAでますます普及している。
競合する性能にもかかわらず、これらの擬似ラベリング手法は、ターゲットドメインの擬似ラベリングを生成するためにソースドメインに大きく依存しているため、依然としてソースデータのバイアスに悩まされている。
さらに、ターゲットドメイン内のクラス分布バイアスも擬似ラベル生成では無視されることが多いため、パフォーマンスがさらに低下する。
本稿では,高品質な擬似ラベルを用いた非バイアス対象埋め込み分布を学習するGeTを提案する。
具体的には、オンラインターゲット生成分類器を定式化し、クラスが重み付けする独自のガウス成分にターゲット分布を誘導し、ソースデータのバイアスを緩和し、ターゲットクラス識別性を高める。
さらに,対象クラス分布バイアスを緩和し,対象クラス識別性を改善する構造類似性正規化フレームワークを提案する。
実験の結果,提案したGeTは,クラス分布バイアスを伴わず,様々なDA設定下で一貫した改善を実現していることがわかった。
私たちのコードは以下の通りです。
関連論文リスト
- Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation [3.0134158269410207]
混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
論文 参考訳(メタデータ) (2024-08-14T13:02:20Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Class-Balanced Pixel-Level Self-Labeling for Domain Adaptive Semantic
Segmentation [31.50802009879241]
ドメイン適応セマンティックセグメンテーション(Domain Adaptive semantic segmentation)は、ソースドメインデータの監視によってモデルを学習し、ラベルなしのターゲットドメイン上で密度の高い予測を生成することを目的としている。
この課題に対する一般的な解決策の1つは自己学習であり、ターゲットサンプルのハイスコア予測をトレーニング用の擬似ラベルとして選択する。
本稿では,ソース領域に強く依存するのではなく,対象領域データの固有画素分布を直接探索することを提案する。
論文 参考訳(メタデータ) (2022-03-18T04:56:20Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。