論文の概要: Quantitatively Measuring and Contrastively Exploring Heterogeneity for
Domain Generalization
- arxiv url: http://arxiv.org/abs/2305.15889v3
- Date: Sat, 11 Nov 2023 14:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 21:37:54.982385
- Title: Quantitatively Measuring and Contrastively Exploring Heterogeneity for
Domain Generalization
- Title(参考訳): 領域一般化における不均一性の定量的測定と対比
- Authors: Yunze Tong, Junkun Yuan, Min Zhang, Didi Zhu, Keli Zhang, Fei Wu, Kun
Kuang
- Abstract要約: ドメイン一般化タスクのための異種性に基づく二段階コントラスト学習(HTCL)を提案する。
第一段階では、最も異質な分割パターンをコントラストメトリックで生成する。
第2段階では、ドメインやクラスによって示唆される安定した関係を持つペアを再構築することで、実践的なコントラスト学習を採用する。
- 参考スコア(独自算出の注目度): 38.50749918578154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) is a prevalent problem in real-world applications,
which aims to train well-generalized models for unseen target domains by
utilizing several source domains. Since domain labels, i.e., which domain each
data point is sampled from, naturally exist, most DG algorithms treat them as a
kind of supervision information to improve the generalization performance.
However, the original domain labels may not be the optimal supervision signal
due to the lack of domain heterogeneity, i.e., the diversity among domains. For
example, a sample in one domain may be closer to another domain, its original
label thus can be the noise to disturb the generalization learning. Although
some methods try to solve it by re-dividing domains and applying the newly
generated dividing pattern, the pattern they choose may not be the most
heterogeneous due to the lack of the metric for heterogeneity. In this paper,
we point out that domain heterogeneity mainly lies in variant features under
the invariant learning framework. With contrastive learning, we propose a
learning potential-guided metric for domain heterogeneity by promoting learning
variant features. Then we notice the differences between seeking variance-based
heterogeneity and training invariance-based generalizable model. We thus
propose a novel method called Heterogeneity-based Two-stage Contrastive
Learning (HTCL) for the DG task. In the first stage, we generate the most
heterogeneous dividing pattern with our contrastive metric. In the second
stage, we employ an invariance-aimed contrastive learning by re-building pairs
with the stable relation hinted by domains and classes, which better utilizes
generated domain labels for generalization learning. Extensive experiments show
HTCL better digs heterogeneity and yields great generalization performance.
- Abstract(参考訳): ドメイン一般化(dg、domain generalization)は、実世界のアプリケーションでよく見られる問題であり、複数のソースドメインを利用することで、対象とするドメインの well-generalized モデルを訓練することを目的としている。
ドメインラベル、すなわち、各データポイントがサンプリングされたドメインが自然に存在するため、ほとんどのdgアルゴリズムは、それらを一般化性能を改善するための監督情報の一種として扱う。
しかし、元のドメインラベルはドメインの不均一性の欠如、すなわちドメイン間の多様性のため、最適な監視信号ではないかもしれない。
例えば、あるドメインのサンプルは別のドメインに近い場合があり、その元のラベルは一般化学習を妨げるノイズとなる可能性がある。
ドメインを再分割し、新たに生成された分割パターンを適用することでそれを解こうとする手法もあるが、不均一性の計量が欠如しているため、それらが選択するパターンは最も異種でないかもしれない。
本稿では、ドメインの不均一性は主に不変学習フレームワークの下での変分特徴にあることを指摘する。
対照的な学習法により,学習の変分的特徴を促進させることにより,ドメインの不均一性を学習可能な指標を提案する。
次に, 分散に基づく不均一性を求めることと, 学習不変性に基づく一般化モデルの違いに着目する。
そこで本研究では,DGタスクのための異種性に基づく二段階コントラスト学習(HTCL)を提案する。
第一段階では、最も異質な分割パターンを対照的な計量で生成する。
第2段階では、ドメインやクラスが示唆する安定した関係とペアを再構築し、生成したドメインラベルを一般化学習に有効活用することで、不変性を考慮したコントラスト学習を行う。
広範囲な実験により、htclは異質性をよりよく掘り出し、大きな一般化性能をもたらすことが示されている。
関連論文リスト
- Frequency Decomposition to Tap the Potential of Single Domain for
Generalization [10.555462823983122]
ドメインの一般化は、汎用人工知能の必須の特徴である。
本稿では、単一ソースドメイントレーニングサンプルにドメイン不変性を含めることができると判定した。
複数のドメインから学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:47Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Heterogeneous Domain Generalization via Domain Mixup [0.0]
深層畳み込みニューラルネットワーク(DCNN)の主な欠点の1つは、一般化能力の欠如である。
本稿では,複数のソース領域にサンプルを混在させることにより,新しいヘテロジニアス領域の一般化手法を提案する。
The Visual Decathlon benchmark on the experimental results showed the effective of our method。
論文 参考訳(メタデータ) (2020-09-11T13:53:56Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。