論文の概要: INSURE: An Information Theory Inspired Disentanglement and Purification
Model for Domain Generalization
- arxiv url: http://arxiv.org/abs/2309.04063v1
- Date: Fri, 8 Sep 2023 01:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 16:24:46.831160
- Title: INSURE: An Information Theory Inspired Disentanglement and Purification
Model for Domain Generalization
- Title(参考訳): INSURE:ドメイン一般化のための絡み合いと浄化モデルに基づく情報理論
- Authors: Xi Yu, Huan-Hsin Tseng, Shinjae Yoo, Haibin Ling, Yuewei Lin
- Abstract要約: ドメイン一般化 (Domain Generalization, DG) は、観測された複数のソースドメインのトレーニングのみにより、目に見えないターゲットドメイン上の一般化可能なモデルを学習することを目的としている。
本稿では,情報理論iNspired diSentanglement and purification modEl (INSURE)を提案する。
PACS,OfficeHome,TerraIncognita,DomainNetなど,広く使用されている4つのDGベンチマークデータセットについて実験を行った。
- 参考スコア(独自算出の注目度): 55.86299081580768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain Generalization (DG) aims to learn a generalizable model on the unseen
target domain by only training on the multiple observed source domains.
Although a variety of DG methods have focused on extracting domain-invariant
features, the domain-specific class-relevant features have attracted attention
and been argued to benefit generalization to the unseen target domain. To take
into account the class-relevant domain-specific information, in this paper we
propose an Information theory iNspired diSentanglement and pURification modEl
(INSURE) to explicitly disentangle the latent features to obtain sufficient and
compact (necessary) class-relevant feature for generalization to the unseen
domain. Specifically, we first propose an information theory inspired loss
function to ensure the disentangled class-relevant features contain sufficient
class label information and the other disentangled auxiliary feature has
sufficient domain information. We further propose a paired purification loss
function to let the auxiliary feature discard all the class-relevant
information and thus the class-relevant feature will contain sufficient and
compact (necessary) class-relevant information. Moreover, instead of using
multiple encoders, we propose to use a learnable binary mask as our
disentangler to make the disentanglement more efficient and make the
disentangled features complementary to each other. We conduct extensive
experiments on four widely used DG benchmark datasets including PACS,
OfficeHome, TerraIncognita, and DomainNet. The proposed INSURE outperforms the
state-of-art methods. We also empirically show that domain-specific
class-relevant features are beneficial for domain generalization.
- Abstract(参考訳): ドメイン一般化 (Domain Generalization, DG) は、観測された複数のソースドメインのトレーニングのみにより、目に見えないターゲットドメイン上の一般化可能なモデルを学習することを目的としている。
ドメイン不変な特徴の抽出に焦点をあてた様々なDG法があるが、ドメイン固有のクラス関連特徴は注目され、目に見えない対象領域への一般化の恩恵があると議論されている。
本稿では,クラス固有情報を考慮した情報理論を提案する。本論文では,潜在特徴を明示的に絡み合う情報理論を考案し,unseen領域に一般化するための十分かつコンパクトな(必要)クラス関連特徴を得る。
具体的には,まず,絡み合ったクラス関連特徴が十分なクラスラベル情報を含むことを保証するために,情報理論にインスパイアされた損失関数を提案する。
さらに, 補助的特徴が全てのクラス関連情報を破棄し, クラス関連特徴が十分かつコンパクト(必要)なクラス関連情報を含むペア化浄化損失関数を提案する。
さらに、複数のエンコーダを使用する代わりに、学習可能なバイナリマスクをディエンタングルとして使用して、ディエンタングルメントをより効率的にし、ディエンタングルされた特徴を相互に補完することを提案する。
PACS,OfficeHome,TerraIncognita,DomainNetなど,広く使用されている4つのDGベンチマークデータセットについて広範な実験を行った。
提案手法は最先端手法よりも優れている。
また、ドメイン固有のクラス関連機能は、ドメインの一般化に有用であることを示す。
関連論文リスト
- Learning to Discover Knowledge: A Weakly-Supervised Partial Domain Adaptation Approach [20.899013563493202]
ドメイン適応は、リッチアノテーションでソースドメインからの知識を活用することで、魅力的なパフォーマンスを示している。
特定の目標タスクに対して、関連するおよび高品質なソースドメインを収集するのは煩雑である。
本稿では、自己ペースト転送分類器学習(SP-TCL)と呼ばれる、単純で効果的なドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T12:54:07Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - COLUMBUS: Automated Discovery of New Multi-Level Features for Domain
Generalization via Knowledge Corruption [12.555885317622131]
ここでは、ソースドメインの集合で訓練されたモデルが、データに触れることなく、目に見えないドメインでうまく一般化されることを期待する領域一般化問題に対処する。
コロンバス(Columbus)は、最も関連性の高い入力とマルチレベルのデータ表現を対象とする汚職によって、新機能の発見を強制する手法である。
論文 参考訳(メタデータ) (2021-09-09T14:52:05Z) - Open Set Domain Recognition via Attention-Based GCN and Semantic
Matching Optimization [8.831857715361624]
本研究では,注意に基づくGCNとセマンティックマッチング最適化に基づくエンドツーエンドモデルを提案する。
実験結果から,提案モデルが未知のクラスの画像認識に優れるだけでなく,対象領域の様々な開放性にも適応できることが確認された。
論文 参考訳(メタデータ) (2021-05-11T12:05:36Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。