論文の概要: Enlarging Feature Support Overlap for Domain Generalization
- arxiv url: http://arxiv.org/abs/2407.05765v1
- Date: Mon, 8 Jul 2024 09:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 16:20:46.809870
- Title: Enlarging Feature Support Overlap for Domain Generalization
- Title(参考訳): ドメイン・ジェネリゼーションのための機能拡張オーバーラップ
- Authors: Yaoyao Zhu, Xiuding Cai, Dong Miao, Yu Yao, Zhongliang Fu,
- Abstract要約: 不変リスク最小化(IRM)は、不変機能を学び、異なるドメインにわたるリスクを最小限にすることでこの問題に対処する。
本稿では,ドメイン一般化のための機能サポートオーバーラップを拡大する新しい手法を提案する。
具体的には、サンプルの多様性を高め、IRMの欠如を克服するためにベイズランダムデータ拡張を導入する。
- 参考スコア(独自算出の注目度): 9.227839292188346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models often struggle with out-of-distribution (OOD) generalization, limiting their real-world applicability beyond controlled laboratory settings. Invariant risk minimization (IRM) addresses this issue by learning invariant features and minimizing the risk across different domains. Thus, it avoids the pitfalls of pseudo-invariant features and spurious causality associated with empirical risk minimization (ERM). However, according to the support overlap theorem, ERM and IRM may fail to address the OOD problem when pseudo-invariant features have insufficient support overlap. To this end, we propose a novel method to enlarge feature support overlap for domain generalization. Specifically, we introduce Bayesian random semantic data augmentation to increase sample diversity and overcome the deficiency of IRM. Experiments on several challenging OOD generalization benchmarks demonstrate that our approach surpasses existing models, delivering superior performance and robustness. The code is available at \url{https://github.com/YaoyaoZhu19/BSDG}.
- Abstract(参考訳): ディープモデルは、しばしばアウト・オブ・ディストリビューション(OOD)の一般化に苦しむ。
不変リスク最小化(IRM)は、不変機能を学び、異なるドメインにわたるリスクを最小限にすることでこの問題に対処する。
したがって、経験的リスク最小化(ERM)に伴う擬似不変特徴の落とし穴や、急激な因果関係を回避できる。
しかし, 支持重なり定理によれば, 擬似不変特性が不十分な場合, ERM と IRM は OOD の問題に対処できない可能性がある。
そこで本研究では,ドメイン一般化のための機能サポートオーバーラップを拡大するための新しい手法を提案する。
具体的には、サンプルの多様性を高め、IRMの欠如を克服するために、ベイズ的ランダムなセマンティックデータ拡張を導入する。
いくつかの挑戦的なOOD一般化ベンチマークの実験は、我々のアプローチが既存のモデルを超え、優れた性能と堅牢性を提供することを示した。
コードは \url{https://github.com/YaoyaoZhu19/BSDG} で公開されている。
関連論文リスト
- Weight Averaging for Out-of-Distribution Generalization and Few-Shot Domain Adaptation [0.0]
コンピュータビジョンにおけるアウト・オブ・ディストリビューションの一般化に対処する2つの手法が開発されている。
本稿では、損失正則化器として勾配類似性によってWAのモデル多様性を高めることを提案する。
また、WAとSAMを組み合わせることで、少数ショット領域適応の問題を解決することを提案する。
論文 参考訳(メタデータ) (2025-01-14T10:04:05Z) - Towards Robust Multimodal Sentiment Analysis with Incomplete Data [20.75292807497547]
頑健なマルチモーダル感性分析(MSA)を実現するための言語支配型耐雑音学習ネットワーク(LNLN)を提案する。
LNLNは、支配的モダリティ補正(DMC)モジュールと支配的モダリティベースマルチモーダル学習(DMML)モジュールを備え、様々なノイズシナリオにおけるモデルの堅牢性を高める。
論文 参考訳(メタデータ) (2024-09-30T07:14:31Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - ERM++: An Improved Baseline for Domain Generalization [69.80606575323691]
経験的リスク最小化(ERM)は、適切に調整された場合、最も複雑なドメイン一般化(DG)手法より優れている。
ERM++は以前のEMMベースラインと比較してDGのパフォーマンスを5%以上改善している。
論文 参考訳(メタデータ) (2023-04-04T17:31:15Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Learning Invariant Representation with Consistency and Diversity for
Semi-supervised Source Hypothesis Transfer [46.68586555288172]
本稿では,SSHT(Semi-supervised Source hypothesis Transfer)という新たなタスクを提案する。
本研究では、ランダムに拡張された2つの未ラベルデータ間の予測整合性を容易にし、SSHTの簡易かつ効果的なフレームワークである一貫性と多様性の学習(CDL)を提案する。
実験の結果,本手法は,DomainNet,Office-Home,Office-31データセット上で,既存のSSDA手法や教師なしモデル適応手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-07T04:14:24Z) - Heterogeneous Risk Minimization [25.5458915855661]
分散一般化のための不変学習法は、複数の学習環境を利用して不変関係を見つけることによって提案されている。
現代のデータセットは、明示的なソースラベルなしで複数のソースからのデータをマージすることで組み立てられる。
不均一リスク最小化(HRM: Heterogeneous Risk Minimization)フレームワークを提案し、データと不変関係間の潜在不均質性の共同学習を実現する。
論文 参考訳(メタデータ) (2021-05-09T02:51:36Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。