論文の概要: Finding lost DG: Explaining domain generalization via model complexity
- arxiv url: http://arxiv.org/abs/2202.00563v1
- Date: Tue, 1 Feb 2022 17:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:56:30.225182
- Title: Finding lost DG: Explaining domain generalization via model complexity
- Title(参考訳): 失われたDGを見つける:モデル複雑性による領域一般化の説明
- Authors: Da Li, Henry Gouk, Timothy Hospedales
- Abstract要約: 本稿では,ドメインの一般化性能に制約のないDGに限定した,学習理論の新たな一般化を提案する。
我々は、既存の方法の有効性や欠如は、経験的リスク予測器と複雑性トレードオフによって決定されていると推測する。
- 参考スコア(独自算出の注目度): 14.989945319823999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The domain generalization (DG) problem setting challenges a model trained on
multiple known data distributions to generalise well on unseen data
distributions. Due to its practical importance, a large number of methods have
been proposed to address this challenge. However much of the work in general
purpose DG is heuristically motivated, as the DG problem is hard to model
formally; and recent evaluations have cast doubt on existing methods' practical
efficacy -- in particular compared to a well tuned empirical risk minimisation
baseline. We present a novel learning-theoretic generalisation bound for DG
that bounds unseen domain generalisation performance in terms of the model's
Rademacher complexity. Based on this, we conjecture that existing methods'
efficacy or lack thereof is largely determined by an empirical risk vs
predictor complexity trade-off, and demonstrate that their performance
variability can be explained in these terms. Algorithmically, this analysis
suggests that domain generalisation should be achieved by simply performing
regularised ERM with a leave-one-domain-out cross-validation objective.
Empirical results on the DomainBed benchmark corroborate this.
- Abstract(参考訳): ドメイン一般化(DG)問題設定では、複数の既知のデータ分布で訓練されたモデルが、見えないデータ分布をうまく一般化する。
その実用的重要性から、この問題に対処するために多くの方法が提案されている。
しかし、DG問題の公式なモデル化が困難であるため、汎用的なDGの作業の多くはヒューリスティックに動機付けられており、最近の評価は、特に十分に調整された経験的リスク最小化ベースラインと比較して、既存の手法の実用性に疑問を投げかけている。
本稿では,モデルのラデマッハ複雑性の観点から,未認識領域の一般化性能を制限したdgの学習理論上の新しい一般化について述べる。
これに基づいて,既存の手法の有効性や欠如は,経験的リスク対予測的複雑性トレードオフによって大部分的に決定され,これらの用語でその性能変動が説明できることを示す。
アルゴリズムにより,領域の一般化は,領域間相互検証を目的とし,規則化されたERMを実行するだけで達成できることを示す。
DomainBedベンチマークの実証結果は、これを裏付けている。
関連論文リスト
- Domain Agnostic Conditional Invariant Predictions for Domain Generalization [20.964740750976667]
本稿では,識別リスク最小化(DRM)理論とそれに対応するアルゴリズムを提案する。
DRM理論では、ソース領域全体とそのサブセット間の予測分布の相違が、不変な特徴の獲得に寄与することを証明する。
我々は,複数の実世界のデータセット上での領域一般化手法に対するアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-06-09T02:38:52Z) - Rethinking Multi-domain Generalization with A General Learning Objective [19.28143363034362]
マルチドメイン一般化(mDG)は、トレーニングとテストディストリビューションの相違を最小限にすることを目的としている。
既存のmDG文献には、一般的な学習目標パラダイムが欠けている。
制約緩和に$Y$-mappingを活用することを提案する。
論文 参考訳(メタデータ) (2024-02-29T05:00:30Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Sharpness-Aware Gradient Matching for Domain Generalization [84.14789746460197]
ドメイン一般化(DG)の目標は、ソースドメインから他の見えないドメインに学習したモデルの一般化能力を強化することである。
最近開発されたシャープネス・アウェア最小化(SAM)法は、損失景観のシャープネス測定を最小化することで、この目標を達成することを目的としている。
モデルが小さな損失を伴って平らな最小値に収束することを保証するための2つの条件と,シャープネス・アウェア・グラディエントマッチング(SAGM)というアルゴリズムを提案する。
提案手法は5つのDGベンチマークにおける最先端の手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2023-03-18T07:25:12Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Domain Generalization Needs Stochastic Weight Averaging for Robustness
on Domain Shifts [19.55308715031151]
ドメイン一般化は、複数のソースドメインからターゲットドメインを非表示にするための一般化モデルを学ぶことを目的としている。
最近のベンチマークは、ほとんどのアプローチが単純な経験的リスク最小化と比較して大幅な改善を提供していないことを示している。
本稿では,ermがドメイン不変特徴学習やドメイン固有正規化においてどのように機能するかを分析する。
論文 参考訳(メタデータ) (2021-02-17T06:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。