論文の概要: Constrained Maximum Cross-Domain Likelihood for Domain Generalization
- arxiv url: http://arxiv.org/abs/2210.04155v1
- Date: Sun, 9 Oct 2022 03:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:29:55.634674
- Title: Constrained Maximum Cross-Domain Likelihood for Domain Generalization
- Title(参考訳): 領域一般化のための制約付き最大クロスドメイン可能性
- Authors: Jianxin Lin, Yongqiang Tang, Junping Wang and Wensheng Zhang
- Abstract要約: ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
- 参考スコア(独自算出の注目度): 14.91361835243516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a recent noticeable topic, domain generalization aims to learn a
generalizable model on multiple source domains, which is expected to perform
well on unseen test domains. Great efforts have been made to learn
domain-invariant features by aligning distributions across domains. However,
existing works are often designed based on some relaxed conditions which are
generally hard to satisfy and fail to realize the desired joint distribution
alignment. In this paper, we propose a novel domain generalization method,
which originates from an intuitive idea that a domain-invariant classifier can
be learned by minimizing the KL-divergence between posterior distributions from
different domains. To enhance the generalizability of the learned classifier,
we formalize the optimization objective as an expectation computed on the
ground-truth marginal distribution. Nevertheless, it also presents two obvious
deficiencies, one of which is the side-effect of entropy increase in
KL-divergence and the other is the unavailability of ground-truth marginal
distributions. For the former, we introduce a term named maximum in-domain
likelihood to maintain the discrimination of the learned domain-invariant
representation space. For the latter, we approximate the ground-truth marginal
distribution with source domains under a reasonable convex hull assumption.
Finally, a Constrained Maximum Cross-domain Likelihood (CMCL) optimization
problem is deduced, by solving which the joint distributions are naturally
aligned. An alternating optimization strategy is carefully designed to
approximately solve this optimization problem. Extensive experiments on four
standard benchmark datasets, i.e., Digits-DG, PACS, Office-Home and
miniDomainNet, highlight the superior performance of our method.
- Abstract(参考訳): 最近の注目に値するトピックとして、ドメインの一般化は複数のソースドメインで一般化可能なモデルを学ぶことを目的としている。
ドメイン間の分布を整合させることで、ドメイン不変な特徴を学ぶことには大きな努力が払われている。
しかし、既存の作品は一般に満足し難い緩和条件に基づいて設計され、望まれる共同分布アライメントの実現に失敗することが多い。
本稿では,異なる領域の後方分布間のKL偏差を最小化することにより,ドメイン不変な分類器を学習できるという直感的な考え方から,新しい領域一般化法を提案する。
学習した分類器の一般化性を高めるために, 接地縁分布に計算された期待値として最適化目標を定式化する。
それにもかかわらず、これは2つの明らかな欠陥を示しており、一方はkl-divergenceのエントロピー増加の副作用であり、もう一方は地対外縁分布の不使用性である。
前者に対しては、学習した領域不変表現空間の識別を維持するために、最大ドメイン内確率という用語を導入する。
後者については,基本領域の接地-接地境界分布を合理的な凸包仮定の下で近似する。
最後に、結合分布が自然に整列している問題を解くことにより、制約付き最大クロスドメイン最適化問題(CMCL)を導出する。
この最適化問題を概ね解くために、交代最適化戦略を慎重に設計する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットに対する大規模な実験は、我々の方法の優れたパフォーマンスを強調している。
関連論文リスト
- Guidance Not Obstruction: A Conjugate Consistent Enhanced Strategy for Domain Generalization [50.04665252665413]
ドメイン内のクラス間での差別的一般化の獲得が不可欠である。
分布の整合性を求めるのとは対照的に、ドメイン関係の階級間差別を保護しようと努力する。
我々は,新たな分布レベルのUniversum戦略を用いて,追加的なドメイン関係のクラス条件分布を生成する。
論文 参考訳(メタデータ) (2024-12-13T12:25:16Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Class-conditioned Domain Generalization via Wasserstein Distributional
Robust Optimization [12.10885662305154]
複数のソースドメインが与えられた場合、ドメインの一般化は、目に見えないが関連するターゲットドメインでよく機能する普遍的なモデルを学ぶことを目的としている。
同じクラスが与えられた条件分布の変動が大きい場合、既存のアプローチは十分に堅牢ではない。
我々は、クラス条件領域の一般化問題を解決するために、分散ロバスト最適化の概念を拡張した。
論文 参考訳(メタデータ) (2021-09-08T14:23:03Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。