論文の概要: Why Domain Generalization Fail? A View of Necessity and Sufficiency
- arxiv url: http://arxiv.org/abs/2502.10716v1
- Date: Sat, 15 Feb 2025 08:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:38.508411
- Title: Why Domain Generalization Fail? A View of Necessity and Sufficiency
- Title(参考訳): ドメインの一般化はなぜ失敗するのか?
- Authors: Long-Tung Vuong, Vy Vo, Hien Dang, Van-Anh Nguyen, Thanh-Toan Do, Mehrtash Harandi, Trung Le, Dinh Phung,
- Abstract要約: 我々は、ほとんどのDG研究が非現実的な仮定の下での一般化の理論的保証を確立することに焦点をあてていると論じる。
本稿では,その存在と学習性に必要となる条件のレンズを通して一般化を調べることにより,このギャップに対処することを目的とする。
- 参考スコア(独自算出の注目度): 42.24198904062326
- License:
- Abstract: Despite a strong theoretical foundation, empirical experiments reveal that existing domain generalization (DG) algorithms often fail to consistently outperform the ERM baseline. We argue that this issue arises because most DG studies focus on establishing theoretical guarantees for generalization under unrealistic assumptions, such as the availability of sufficient, diverse (or even infinite) domains or access to target domain knowledge. As a result, the extent to which domain generalization is achievable in scenarios with limited domains remains largely unexplored. This paper seeks to address this gap by examining generalization through the lens of the conditions necessary for its existence and learnability. Specifically, we systematically establish a set of necessary and sufficient conditions for generalization. Our analysis highlights that existing DG methods primarily act as regularization mechanisms focused on satisfying sufficient conditions, while often neglecting necessary ones. However, sufficient conditions cannot be verified in settings with limited training domains. In such cases, regularization targeting sufficient conditions aims to maximize the likelihood of generalization, whereas regularization targeting necessary conditions ensures its existence. Using this analysis, we reveal the shortcomings of existing DG algorithms by showing that, while they promote sufficient conditions, they inadvertently violate necessary conditions. To validate our theoretical insights, we propose a practical method that promotes the sufficient condition while maintaining the necessary conditions through a novel subspace representation alignment strategy. This approach highlights the advantages of preserving the necessary conditions on well-established DG benchmarks.
- Abstract(参考訳): 強い理論的基礎にもかかわらず、実証実験により、既存の領域一般化(DG)アルゴリズムはERMベースラインを一貫して上回らないことがしばしば明らかになった。
この問題は、多くのDG研究が、十分で多様な(あるいは無限の)ドメインの可用性や対象とするドメイン知識へのアクセスなど、非現実的な仮定の下での一般化の理論的保証を確立することに焦点を当てているためである。
結果として、限られた領域を持つシナリオにおいて、ドメインの一般化が達成できる範囲は、ほとんど探索されていないままである。
本稿では,その存在と学習性に必要となる条件のレンズを通して一般化を調べることにより,このギャップに対処することを目的とする。
具体的には、一般化に必要な、かつ十分な条件の集合を体系的に確立する。
分析の結果,既存のDG法は,必要な条件を無視しながら,十分な条件を満たすことに焦点を当てた正規化機構として機能することが示唆された。
しかし、訓練領域が限られている環境では、十分な条件を検証できない。
そのような場合、十分な条件を対象とする正規化は一般化の可能性の最大化を目標とし、必要な条件を対象とする正規化はその存在を保証する。
この分析を用いて,既存のDGアルゴリズムの欠点を明らかにする。
理論的な知見を検証するために,新しい部分空間表現アライメント戦略により,必要な条件を維持しつつ,十分な条件を推し進める実践的手法を提案する。
このアプローチは、十分に確立されたDGベンチマークで必要な条件を保存するという利点を強調している。
関連論文リスト
- QT-DoG: Quantization-aware Training for Domain Generalization [58.439816306817306]
領域一般化のための量子化アウェアトレーニング(QT-DoG)を提案する。
QT-DoGは、モデル重みのノイズを誘導することで暗黙の正則化器として量子化を利用する。
我々は、QT-DoGが様々なデータセット、アーキテクチャ、量子化アルゴリズムにまたがって一般化することを実証する。
論文 参考訳(メタデータ) (2024-10-08T13:21:48Z) - Derivation of Standard Quantum Theory via State Discrimination [53.64687146666141]
一般確率理論(英: General Probabilistic Theories, GPTs)は、標準量子論を解くための新しい情報理論のアプローチである。
一般モデルにおける状態判別と呼ばれる情報処理における性能のバウンダリに着目する。
我々は,GPTの一般モデルから標準量子論を,状態判別のための性能の境界によって特徴づける。
論文 参考訳(メタデータ) (2023-07-21T00:02:11Z) - Practicality of generalization guarantees for unsupervised domain
adaptation with neural networks [7.951847862547378]
ドメイン適応画像分類タスクにおけるデシラタを満足させる可能性のある文献から既存の境界を評価する。
すべての境界は空で、そのサンプル一般化項は観測されたゆるさの大部分を占める。
ドメインオーバーラップを仮定すると、以前の作業の重み付け拡張が最も厳密な推定可能なバウンダリを提供する。
論文 参考訳(メタデータ) (2023-03-15T16:05:05Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - On the Limitations of General Purpose Domain Generalisation Methods [20.197912748895494]
本稿では,いくつかのドメイン一般化(DG)設定における学習アルゴリズムの基本的な性能制限について検討する。
従来提案手法が経験的リスク最小化(ERM)を確実に上回っている難しさから,ERMの過大なリスクと最小限の過大なリスクの上限を導出する。
論文 参考訳(メタデータ) (2022-02-01T17:08:29Z) - Unsupervised Domain Generalization for Person Re-identification: A
Domain-specific Adaptive Framework [50.88463458896428]
ドメイン一般化(DG)は近年,人物再同定(ReID)において注目されている。
既存のメソッドは通常、ソースドメインにラベルを付ける必要があります。
本稿では、単純で効率的なドメイン固有適応化フレームワークを提案し、適応正規化モジュールで実現する。
論文 参考訳(メタデータ) (2021-11-30T02:35:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。