論文の概要: Adversarial Data Augmentation for Single Domain Generalization via Lyapunov Exponent-Guided Optimization
- arxiv url: http://arxiv.org/abs/2507.04302v1
- Date: Sun, 06 Jul 2025 09:03:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.110126
- Title: Adversarial Data Augmentation for Single Domain Generalization via Lyapunov Exponent-Guided Optimization
- Title(参考訳): Lyapunov Exponent-Guided Optimizationによる単一領域一般化のための逆データ拡張
- Authors: Zuyu Zhang, Ning Chen, Yongshan Liu, Qinghua Zhang, Xu Zhang,
- Abstract要約: 単一ドメインの一般化は、単一のソースドメインのみを使用して、対象ドメインを見えないように一般化できるモデルを開発することを目的としている。
Lyapunov Exponent (LE) を用いた動的システム理論に基づく新しい最適化手法であるLEAwareSGDを提案する。
PACS、OfficeHome、DomainNetの実験は、LEAwareSGDがかなりの一般化の利益をもたらすことを示した。
- 参考スコア(独自算出の注目度): 6.619253289031494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single Domain Generalization (SDG) aims to develop models capable of generalizing to unseen target domains using only one source domain, a task complicated by substantial domain shifts and limited data diversity. Existing SDG approaches primarily rely on data augmentation techniques, which struggle to effectively adapt training dynamics to accommodate large domain shifts. To address this, we propose LEAwareSGD, a novel Lyapunov Exponent (LE)-guided optimization approach inspired by dynamical systems theory. By leveraging LE measurements to modulate the learning rate, LEAwareSGD encourages model training near the edge of chaos, a critical state that optimally balances stability and adaptability. This dynamic adjustment allows the model to explore a wider parameter space and capture more generalizable features, ultimately enhancing the model's generalization capability. Extensive experiments on PACS, OfficeHome, and DomainNet demonstrate that LEAwareSGD yields substantial generalization gains, achieving up to 9.47\% improvement on PACS in low-data regimes. These results underscore the effectiveness of training near the edge of chaos for enhancing model generalization capability in SDG tasks.
- Abstract(参考訳): 単一ドメイン一般化(SDG)は、1つのソースドメインのみを使用して、特定されていないターゲットドメインに一般化可能なモデルを開発することを目的としている。
既存のSDGアプローチは主にデータ拡張技術に依存しており、大きなドメインシフトに対応するためにトレーニングダイナミクスを効果的に適応するのに苦労している。
そこで本研究では,Lyapunov Exponent (LE) を用いた動的システム理論に基づく最適化手法であるLEAwareSGDを提案する。
LE測定を利用して学習率を変調することにより、LEwareSGDは、安定性と適応性を最適にバランスする重要な状態であるカオスの端付近でのモデルトレーニングを促進する。
この動的調整により、モデルはより広いパラメータ空間を探索し、より一般化可能な特徴を捉え、最終的にモデルの一般化能力を高めることができる。
PACS、OfficeHome、DomainNetの大規模な実験により、LEAwareSGDは、低データ体制におけるPACSの最大9.47倍の改善を達成し、相当な一般化率を得ることが示された。
これらの結果は,SDGタスクにおけるモデル一般化能力を高めるために,カオスの端付近でのトレーニングの有効性を裏付けるものである。
関連論文リスト
- Learning Time-Aware Causal Representation for Model Generalization in Evolving Domains [50.66049136093248]
動的因果要因と因果機構のドリフトを組み込んだ時間認識型構造因果モデル(SCM)を開発した。
本研究では,時間領域毎に最適な因果予測値が得られることを示す。
合成と実世界の両方のデータセットの結果から,SynCは時間的一般化性能に優れることが示された。
論文 参考訳(メタデータ) (2025-06-21T14:05:37Z) - DISCO Balances the Scales: Adaptive Domain- and Difficulty-Aware Reinforcement Learning on Imbalanced Data [29.06340707914799]
本稿では,グループ間不均衡と2つの重要なイノベーションに対処するGRPOの原理的拡張を提案する。
ドメイン対応報酬スケーリングは、ドメインの頻度に基づいて最適化を再重み付けすることで周波数バイアスに対処する。
難解な報酬のスケーリングは、学習価値を提供する不確実なプロンプトを特定し、優先順位付けするために、プロンプトレベルの自己整合性を活用する。
論文 参考訳(メタデータ) (2025-05-21T03:43:29Z) - PEER pressure: Model-to-Model Regularization for Single Source Domain Generalization [12.15086255236961]
対象領域におけるこのような拡張に基づく手法の性能は、訓練中に普遍的に変動することを示す。
本稿では,新しい一般化法を提案する。
Space Ensemble with Entropy Regularization (PEER) – プロキシモデルを使用して、拡張データを学ぶ。
論文 参考訳(メタデータ) (2025-05-19T06:01:11Z) - CLIP-Powered Domain Generalization and Domain Adaptation: A Comprehensive Survey [38.281260447611395]
この調査は、ドメイン一般化(DG)とドメイン適応(DA)におけるコントラスト言語-画像事前学習(CLIP)の適用を体系的に検討する。
CLIPは、モデルが見えないドメインで効果的に実行できる強力なゼロショット機能を提供する。
オーバーフィッティング、ドメインの多様性、計算効率といった主な課題に対処する。
論文 参考訳(メタデータ) (2025-04-19T12:27:24Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Amortized Prompt: Lightweight Fine-Tuning for CLIP in Domain
Generalization [25.367775241988618]
ドメインの一般化は、一般化可能なモデルを目に見えない領域に学習することを目的とした、難しい移行学習問題である。
最近のCLIPやGPT-3のような大規模事前学習モデルは、多くの分散シフトに対して堅牢であることが示されている。
本稿では,ドメイン推論の新しい手法としてAP(Amortized Prompt)を提案する。
論文 参考訳(メタデータ) (2021-11-25T00:25:54Z) - Contrastive Syn-to-Real Generalization [125.54991489017854]
我々は,学習した特徴埋め込みの多様性が一般化性能に重要な役割を果たすことを重要視する。
本研究では,イメージネットの知識を生かして合成領域への過剰適合を防ぐ新しい枠組みであるコントラスト合成から実への一般化(csg)を提案する。
CSGの各種合成訓練における効果を実証し、ゼロショット領域の一般化に対する最先端性能を示す。
論文 参考訳(メタデータ) (2021-04-06T05:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。