論文の概要: Quantifying and Exploring Heterogeneity in Domain Generalization through
Contrastive Analysis
- arxiv url: http://arxiv.org/abs/2305.15889v2
- Date: Sat, 1 Jul 2023 08:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 13:13:30.498703
- Title: Quantifying and Exploring Heterogeneity in Domain Generalization through
Contrastive Analysis
- Title(参考訳): 対照的解析による領域一般化における不均一性の定量と探索
- Authors: Yunze Tong, Junkun Yuan, Min Zhang, Didi Zhu, Keli Zhang, Fei Wu, Kun
Kuang
- Abstract要約: ドメイン一般化(DG)は、現実世界のアプリケーションで一般的に発生する問題である。
多くのDGアルゴリズムでは、各データポイントがサンプリングされたドメインを示すドメインラベルが、監督の一形態として扱われる。
しかし、ドメイン間の多様性の欠如により、元のドメインラベルを監視信号として使用するのは最適ではないかもしれない。
- 参考スコア(独自算出の注目度): 27.697193359244935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) is a commonly encountered issue in real-world
applications. Its objective is to train models that can generalize well to
unseen target domains by utilizing multiple source domains. In most DG
algorithms, domain labels, which indicate the domain from which each data point
is sampled, are treated as a form of supervision to enhance generalization
performance. However, using the original domain labels as the supervision
signal may not be optimal due to a lack of diversity among domains, known as
heterogeneity. This lack of heterogeneity can lead to the original labels being
noisy and disrupting the generalization learning process. Some methods attempt
to address this by re-dividing the domains and applying a new dividing pattern.
However, the chosen pattern may not capture the maximum heterogeneity since
there is no metric available to quantify it accurately. In this paper, we
propose that domain heterogeneity primarily lies in variant features within the
invariant learning framework. We introduce a novel approach which utilizes
contrastive learning to guide the metric for domain heterogeneity. By promoting
the learning of variant features, we develop a metric that captures models'
learning potential for data heterogeneity. We also emphasize the distinction
between seeking variance-based heterogeneity and training an invariance-based
generalizable model. In the first stage, we generate the most heterogeneous
dividing pattern using our contrastive metric. In the second stage, we employ
contrastive learning focused on invariance by constructing pairs based on the
stable relationships indicated by domains and classes. This approach
effectively utilizes the generated domain labels for generalization. Extensive
experiments demonstrate that our method successfully uncovers heterogeneity and
achieves remarkable generalization performance.
- Abstract(参考訳): ドメイン一般化(DG)は、現実世界のアプリケーションで一般的に発生する問題である。
その目的は、複数のソースドメインを利用することで、見えないターゲットドメインに適切に一般化できるモデルをトレーニングすることである。
多くのDGアルゴリズムでは、各データポイントがサンプリングされる領域を示すドメインラベルは、一般化性能を高めるための監督の形式として扱われる。
しかし、元のドメインラベルを監視信号として使用するのは、異種性として知られるドメイン間の多様性の欠如のために最適ではないかもしれない。
この不均一性の欠如は、元のラベルが騒がしく、一般化学習プロセスを混乱させる可能性がある。
ドメインを再分割し、新しい分割パターンを適用することで、この問題に対処しようとする方法もある。
しかし、選択されたパターンは、正確に定量化できるメトリクスがないため、最大不均質性を捉えることができない。
本稿では、ドメインの不均質性は不変学習フレームワークにおける変種的特徴に主在することを提案する。
我々は、対照的な学習を利用して、領域の不均一性の計量を導出する新しいアプローチを導入する。
異種特徴の学習を促進することにより,データの多様性に対するモデルの学習ポテンシャルを捉えるメトリクスを開発した。
また,分散に基づく不均一性を求めることと,不変性に基づく一般化モデルの訓練との違いを強調した。
最初の段階では、コントラストメトリックを用いて最も異質な分割パターンを生成する。
第2段階では、ドメインとクラスが示す安定した関係に基づいてペアを構築することで、不変性に焦点を当てた対照学習を行う。
このアプローチは、生成したドメインラベルを効果的に一般化する。
広範な実験により,本手法は不均一性を明らかにすることに成功し,顕著な一般化性能を達成した。
関連論文リスト
- Frequency Decomposition to Tap the Potential of Single Domain for
Generalization [10.555462823983122]
ドメインの一般化は、汎用人工知能の必須の特徴である。
本稿では、単一ソースドメイントレーニングサンプルにドメイン不変性を含めることができると判定した。
複数のドメインから学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:47Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Heterogeneous Domain Generalization via Domain Mixup [0.0]
深層畳み込みニューラルネットワーク(DCNN)の主な欠点の1つは、一般化能力の欠如である。
本稿では,複数のソース領域にサンプルを混在させることにより,新しいヘテロジニアス領域の一般化手法を提案する。
The Visual Decathlon benchmark on the experimental results showed the effective of our method。
論文 参考訳(メタデータ) (2020-09-11T13:53:56Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。