論文の概要: Moderately Distributional Exploration for Domain Generalization
- arxiv url: http://arxiv.org/abs/2304.13976v2
- Date: Tue, 16 May 2023 04:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 18:19:39.228671
- Title: Moderately Distributional Exploration for Domain Generalization
- Title(参考訳): 領域一般化のための適度な分布探索
- Authors: Rui Dai, Yonggang Zhang, Zhen Fang, Bo Han, Xinmei Tian
- Abstract要約: MODEは、未知のターゲット領域上で、証明可能な一般化性能を持つモデルを提供することができることを示す。
実験結果から,MODEは最先端のベースラインに比べて競争性能が高いことがわかった。
- 参考スコア(独自算出の注目度): 32.57429594854056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to tackle the distribution shift between
training domains and unknown target domains. Generating new domains is one of
the most effective approaches, yet its performance gain depends on the
distribution discrepancy between the generated and target domains.
Distributionally robust optimization is promising to tackle distribution
discrepancy by exploring domains in an uncertainty set. However, the
uncertainty set may be overwhelmingly large, leading to low-confidence
prediction in DG. It is because a large uncertainty set could introduce domains
containing semantically different factors from training domains. To address
this issue, we propose to perform a $\textbf{mo}$derately
$\textbf{d}$istributional $\textbf{e}$xploration (MODE) for domain
generalization. Specifically, MODE performs distribution exploration in an
uncertainty $\textit{subset}$ that shares the same semantic factors with the
training domains. We show that MODE can endow models with provable
generalization performance on unknown target domains. The experimental results
show that MODE achieves competitive performance compared to state-of-the-art
baselines.
- Abstract(参考訳): ドメイン一般化(DG)は、トレーニングドメインと未知のターゲットドメイン間の分散シフトに取り組むことを目的としている。
新しいドメインの生成は最も効果的なアプローチの1つであるが、その性能向上は生成されたドメインと対象ドメインの分布差に依存する。
分布的ロバストな最適化は、不確実性集合内の領域を探索することで分布の不一致に取り組むことを約束する。
しかし、不確実性集合は圧倒的に大きくなり、DGの低信頼予測につながる。
これは、大きな不確実性セットが、トレーニングドメインと意味的に異なる要素を含むドメインを導入する可能性があるためである。
この問題に対処するために、ドメインの一般化のために$\textbf{mo}$derately $\textbf{d}$istributional $\textbf{e}$xploration (mode)を実行することを提案する。
具体的には、MODEはトレーニングドメインと同じ意味的要素を共有する不確実性$\textit{subset}$で分散探索を行う。
MODEは、未知のターゲット領域上で、証明可能な一般化性能を持つモデルを提供することができることを示す。
実験結果から,MODEは最先端のベースラインに比べて競争性能が高いことがわかった。
関連論文リスト
- Domain Generalisation via Risk Distribution Matching [17.334794920092577]
本稿では,リスク分布を利用した領域一般化(DG)手法を提案する。
テストでは、同様の、あるいは潜在的に大きな、リスク分布のばらつきを観察することができる。
リスク分散マッチング(RDM)は最先端DG法よりも優れた一般化能力を示す。
論文 参考訳(メタデータ) (2023-10-28T05:23:55Z) - Constrained Maximum Cross-Domain Likelihood for Domain Generalization [14.91361835243516]
ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
論文 参考訳(メタデータ) (2022-10-09T03:41:02Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。