論文の概要: Domain-invariant Feature Exploration for Domain Generalization
- arxiv url: http://arxiv.org/abs/2207.12020v1
- Date: Mon, 25 Jul 2022 09:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:41:13.935797
- Title: Domain-invariant Feature Exploration for Domain Generalization
- Title(参考訳): ドメイン一般化のためのドメイン不変特徴探索
- Authors: Wang Lu, Jindong Wang, Haoliang Li, Yiqiang Chen, Xing Xie
- Abstract要約: ドメイン不変の機能は、内部と相互の双方から派生すべきである、と我々は主張する。
ドメイン不変な特徴展開のためのDIFEXを提案する。
時系列とビジュアルベンチマークの両方の実験は、提案したDIFEXが最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 35.99082628524934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has achieved great success in the past few years. However, the
performance of deep learning is likely to impede in face of non-IID situations.
Domain generalization (DG) enables a model to generalize to an unseen test
distribution, i.e., to learn domain-invariant representations. In this paper,
we argue that domain-invariant features should be originating from both
internal and mutual sides. Internal invariance means that the features can be
learned with a single domain and the features capture intrinsic semantics of
data, i.e., the property within a domain, which is agnostic to other domains.
Mutual invariance means that the features can be learned with multiple domains
(cross-domain) and the features contain common information, i.e., the
transferable features w.r.t. other domains. We then propose DIFEX for
Domain-Invariant Feature EXploration. DIFEX employs a knowledge distillation
framework to capture the high-level Fourier phase as the internally-invariant
features and learn cross-domain correlation alignment as the mutually-invariant
features. We further design an exploration loss to increase the feature
diversity for better generalization. Extensive experiments on both time-series
and visual benchmarks demonstrate that the proposed DIFEX achieves
state-of-the-art performance.
- Abstract(参考訳): ディープラーニングはここ数年で大きな成功を収めています。
しかし、ディープラーニングの性能は、非IIDの状況に直面している可能性がある。
ドメイン一般化(Domain Generalization、DG)は、モデルが見えないテスト分布、すなわちドメイン不変表現を学習することを可能にする。
本稿では、ドメイン不変性は、内部および相互の双方から生じるべきであると論じる。
内部不変性は、特徴が単一のドメインで学習でき、その特徴がデータ固有の意味論、すなわち他のドメインに依存しないドメイン内のプロパティをキャプチャすることを意味する。
相互不変性(mutual invariance)とは、複数のドメイン(クロスドメイン)で特徴を学習でき、その特徴には共通の情報、すなわち転送可能な他のドメインを含むことを意味する。
次に、ドメイン不変の特徴展開のためのDIFEXを提案する。
difexは知識蒸留フレームワークを用いて、高レベルフーリエ位相を内部不変特徴として捉え、相互不変特徴としてクロスドメイン相関アライメントを学ぶ。
我々はさらに、よりよい一般化のために特徴量を増やすために探索損失を設計する。
時系列とビジュアルベンチマークの両方で大規模な実験を行い、提案したDIFEXが最先端の性能を達成することを示した。
関連論文リスト
- Cross-Domain Feature Augmentation for Domain Generalization [16.174824932970004]
本稿では,XDomainMix というクロスドメイン機能拡張手法を提案する。
広範に使用されているベンチマークデータセットの実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-05-14T13:24:19Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Frequency Decomposition to Tap the Potential of Single Domain for
Generalization [10.555462823983122]
ドメインの一般化は、汎用人工知能の必須の特徴である。
本稿では、単一ソースドメイントレーニングサンプルにドメイン不変性を含めることができると判定した。
複数のドメインから学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:47Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Learning Transferable Parameters for Unsupervised Domain Adaptation [29.962241958947306]
非自明なドメイン適応(UDA)は、学習機械が分散シフトの下でラベル付きソースドメインからラベルなしドメインに適応できるようにする。
本稿では,学習過程におけるドメイン固有情報による副作用を軽減するためにTransferable Learning(TransPar)を提案する。
論文 参考訳(メタデータ) (2021-08-13T09:09:15Z) - Quantifying and Improving Transferability in Domain Generalization [53.16289325326505]
アウト・オブ・ディストリビューションの一般化は、実験室から現実世界にモデルを移す際の重要な課題の1つである。
我々は、領域一般化において量子化と計算が可能な転送可能性を正式に定義する。
転送可能な特徴を学習し、様々なベンチマークデータセット上でテストするための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T14:04:32Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Interventional Domain Adaptation [81.0692660794765]
ドメイン適応(DA)は、ソースドメインからターゲットドメインに学習した差別的特徴を転送することを目的としている。
標準的なドメイン不変学習は、素早い相関に悩まされ、ソース固有性を誤って転送する。
ドメイン固有部分とドメイン共有部分とを区別する反ファクト機能を作成します。
論文 参考訳(メタデータ) (2020-11-07T09:53:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。