論文の概要: Preserving Domain Private Representation via Mutual Information
Maximization
- arxiv url: http://arxiv.org/abs/2201.03102v1
- Date: Sun, 9 Jan 2022 22:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 15:02:47.490936
- Title: Preserving Domain Private Representation via Mutual Information
Maximization
- Title(参考訳): 相互情報最大化によるドメインプライベート表現の保存
- Authors: Jiahong Chen, Jing Wang, Weipeng Lin, Kuangen Zhang, Clarence W. de
Silva
- Abstract要約: 本稿では,ラベルを欠く領域にプライベートな表現を保存するためのアプローチを提案する。
我々の手法は、いくつかの公開データセット上で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 3.2597336130674317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in unsupervised domain adaptation have shown that mitigating
the domain divergence by extracting the domain-invariant representation could
significantly improve the generalization of a model to an unlabeled data
domain. Nevertheless, the existing methods fail to effectively preserve the
representation that is private to the label-missing domain, which could
adversely affect the generalization. In this paper, we propose an approach to
preserve such representation so that the latent distribution of the unlabeled
domain could represent both the domain-invariant features and the individual
characteristics that are private to the unlabeled domain. In particular, we
demonstrate that maximizing the mutual information between the unlabeled domain
and its latent space while mitigating the domain divergence can achieve such
preservation. We also theoretically and empirically validate that preserving
the representation that is private to the unlabeled domain is important and of
necessity for the cross-domain generalization. Our approach outperforms
state-of-the-art methods on several public datasets.
- Abstract(参考訳): 教師なしドメイン適応の最近の進歩は、ドメイン不変表現を抽出することでドメインの分岐を緩和することで、ラベルなしデータドメインへのモデルの一般化を大幅に改善できることを示している。
しかしながら、既存のメソッドはラベル許容ドメインにプライベートな表現を効果的に保存できないため、一般化に悪影響を及ぼす可能性がある。
本稿では、ラベルなし領域の潜在分布が、ラベルなし領域にプライベートなドメイン不変特徴と個々の特徴の両方を表現することができるように、そのような表現を保存する手法を提案する。
特に,ラベルなし領域とその潜在空間間の相互情報を最大化し,領域の分岐を緩和することで,保存が可能となることを示す。
我々はまた、未ラベル領域にプライベートな表現を保存することが重要であり、クロスドメインの一般化の必要性を理論的かつ実証的に検証する。
我々の手法は、いくつかの公開データセット上で最先端の手法より優れている。
関連論文リスト
- Partial Identifiability for Domain Adaptation [17.347755928718872]
iMSDAと呼ばれる実用的なドメイン適応フレームワークを提案する。
iMSDAは、ベンチマークデータセット上で最先端のドメイン適応アルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-10T19:04:03Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - A Style and Semantic Memory Mechanism for Domain Generalization [108.98041306507372]
ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
論文 参考訳(メタデータ) (2021-12-14T16:23:24Z) - Self-Adversarial Disentangling for Specific Domain Adaptation [52.1935168534351]
ドメイン適応は、ソースとターゲットドメイン間のドメインシフトをブリッジすることを目的としています。
最近の手法では、特定の次元について明示的な事前知識を考慮しないのが一般的である。
論文 参考訳(メタデータ) (2021-08-08T02:36:45Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - Interventional Domain Adaptation [81.0692660794765]
ドメイン適応(DA)は、ソースドメインからターゲットドメインに学習した差別的特徴を転送することを目的としている。
標準的なドメイン不変学習は、素早い相関に悩まされ、ソース固有性を誤って転送する。
ドメイン固有部分とドメイン共有部分とを区別する反ファクト機能を作成します。
論文 参考訳(メタデータ) (2020-11-07T09:53:13Z) - Respecting Domain Relations: Hypothesis Invariance for Domain
Generalization [30.14312814723027]
ドメインの一般化では、トレーニング中に複数のラベル付き非独立および非独立に分散されたソースドメインが利用可能である。
現在、いわゆるドメイン不変表現(DIR)を学ぶことは、ドメインの一般化に対する一般的なアプローチである。
論文 参考訳(メタデータ) (2020-10-15T08:26:08Z) - Learning to Balance Specificity and Invariance for In and Out of Domain
Generalization [27.338573739304604]
ドメイン内および外部の一般化性能を改善するモデルである一般化のためのドメイン固有マスクを紹介する。
ドメインの一般化のために、ゴールはソースドメインの集合から学び、見えないターゲットドメインに最もよく一般化する単一のモデルを作成することである。
本研究では,PACSとDomainNetの両面において,単純なベースラインと最先端の手法と比較して,競争力のある性能を示す。
論文 参考訳(メタデータ) (2020-08-28T20:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。