論文の概要: Improving Generalization with Domain Convex Game
- arxiv url: http://arxiv.org/abs/2303.13297v1
- Date: Thu, 23 Mar 2023 14:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:58:04.300160
- Title: Improving Generalization with Domain Convex Game
- Title(参考訳): ドメイン凸ゲームによる一般化の改善
- Authors: Fangrui Lv, Jian Liang, Shuang Li, Jinming Zhang, Di Liu
- Abstract要約: ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
- 参考スコア(独自算出の注目度): 32.07275105040802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) tends to alleviate the poor generalization
capability of deep neural networks by learning model with multiple source
domains. A classical solution to DG is domain augmentation, the common belief
of which is that diversifying source domains will be conducive to the
out-of-distribution generalization. However, these claims are understood
intuitively, rather than mathematically. Our explorations empirically reveal
that the correlation between model generalization and the diversity of domains
may be not strictly positive, which limits the effectiveness of domain
augmentation. This work therefore aim to guarantee and further enhance the
validity of this strand. To this end, we propose a new perspective on DG that
recasts it as a convex game between domains. We first encourage each
diversified domain to enhance model generalization by elaborately designing a
regularization term based on supermodularity. Meanwhile, a sample filter is
constructed to eliminate low-quality samples, thereby avoiding the impact of
potentially harmful information. Our framework presents a new avenue for the
formal analysis of DG, heuristic analysis and extensive experiments demonstrate
the rationality and effectiveness.
- Abstract(参考訳): ドメイン一般化(DG)は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの低次一般化能力を緩和する傾向がある。
dgに対する古典的な解決策はドメイン拡張であり、ソースドメインの多様化は分散の一般化に繋がるという考えが一般的である。
しかし、これらの主張は数学的ではなく直感的に理解されている。
実験により,モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性が制限されることが実証的に明らかになった。
この研究は、このストランドの有効性を保証し、さらに高めることを目的としている。
そこで本稿では,ドメイン間の凸ゲームとして再キャストするDGの新しい視点を提案する。
まず,超モジュラリティに基づく正規化項を精巧に設計することにより,各多角化領域にモデル一般化を奨励する。
一方、低品質なサンプルを除去するためにサンプルフィルタを構築し、潜在的に有害な情報の影響を避ける。
本フレームワークは,DGの形式解析,ヒューリスティック解析,および有理性と有効性を示す広範な実験の新たな道筋を示す。
関連論文リスト
- Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Domain Generalization through the Lens of Angular Invariance [44.76809026901016]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインで訓練された分類器を、ドメインシフトを伴う見えないターゲットドメインに一般化することを目的としている。
我々は、Angular Invariance Domain Generalization Network (AIDGN) と呼ばれる新しいディープDG手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T02:05:38Z) - Constrained Maximum Cross-Domain Likelihood for Domain Generalization [14.91361835243516]
ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
論文 参考訳(メタデータ) (2022-10-09T03:41:02Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Improving Diversity with Adversarially Learned Transformations for
Domain Generalization [81.26960899663601]
本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-06-15T18:05:24Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Domain Generalization Needs Stochastic Weight Averaging for Robustness
on Domain Shifts [19.55308715031151]
ドメイン一般化は、複数のソースドメインからターゲットドメインを非表示にするための一般化モデルを学ぶことを目的としている。
最近のベンチマークは、ほとんどのアプローチが単純な経験的リスク最小化と比較して大幅な改善を提供していないことを示している。
本稿では,ermがドメイン不変特徴学習やドメイン固有正規化においてどのように機能するかを分析する。
論文 参考訳(メタデータ) (2021-02-17T06:42:09Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。