論文の概要: Gradient-Guided Annealing for Domain Generalization
- arxiv url: http://arxiv.org/abs/2502.20162v1
- Date: Thu, 27 Feb 2025 15:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:56:31.355463
- Title: Gradient-Guided Annealing for Domain Generalization
- Title(参考訳): ドメイン一般化のためのグラディエントガイドアニーリング
- Authors: Aristotelis Ballas, Christos Diou,
- Abstract要約: ドメインの一般化効率を向上させるため,GGAアルゴリズムを提案する。
GGAの有効性は、広く受け入れられ、困難な画像分類領域の一般化ベンチマークで評価される。
- 参考スコア(独自算出の注目度): 5.124256074746721
- License:
- Abstract: Domain Generalization (DG) research has gained considerable traction as of late, since the ability to generalize to unseen data distributions is a requirement that eludes even state-of-the-art training algorithms. In this paper we observe that the initial iterations of model training play a key role in domain generalization effectiveness, since the loss landscape may be significantly different across the training and test distributions, contrary to the case of i.i.d. data. Conflicts between gradients of the loss components of each domain lead the optimization procedure to undesirable local minima that do not capture the domain-invariant features of the target classes. We propose alleviating domain conflicts in model optimization, by iteratively annealing the parameters of a model in the early stages of training and searching for points where gradients align between domains. By discovering a set of parameter values where gradients are updated towards the same direction for each data distribution present in the training set, the proposed Gradient-Guided Annealing (GGA) algorithm encourages models to seek out minima that exhibit improved robustness against domain shifts. The efficacy of GGA is evaluated on five widely accepted and challenging image classification domain generalization benchmarks, where its use alone is able to establish highly competitive or even state-of-the-art performance. Moreover, when combined with previously proposed domain-generalization algorithms it is able to consistently improve their effectiveness by significant margins.
- Abstract(参考訳): ドメイン一般化 (Domain Generalization, DG) 研究は、現在最先端のトレーニングアルゴリズムでさえも不要なデータ分散を一般化する能力が要求されるため、近年、かなりの注目を集めている。
本稿では,モデル学習の初期イテレーションが領域一般化の有効性において重要な役割を担っていることを観察する。
各ドメインの損失成分の勾配間の衝突は、最適化手順を目的クラスのドメイン不変の特徴を捉えない望ましくない局所最小化へと導く。
モデル最適化において、モデルのパラメータをトレーニングの初期段階で繰り返しアニールし、勾配がドメイン間で整合する点を探索することにより、ドメインの衝突を軽減することを提案する。
トレーニングセットに存在する各データ分布に対して、勾配が同じ方向に更新されるパラメータ値のセットを発見することで、提案したグラディエントガイドアニーリング(GGA)アルゴリズムは、ドメインシフトに対する堅牢性の向上を示すミニマを探すようモデルに促す。
GGAの有効性は5つの画像分類領域一般化ベンチマークで評価され、その使用だけで高い競争力や最先端の性能を確立できる。
さらに、これまで提案されていた領域一般化アルゴリズムと組み合わせることで、有効性をかなりのマージンで継続的に改善することができる。
関連論文リスト
- PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - Label Alignment Regularization for Distribution Shift [63.228879525056904]
最近の研究は、教師あり学習におけるラベルアライメント特性(LAP)を強調している。
対象領域の予測と最上位特異ベクトルとのアライメントを促進する非教師なし領域適応の正規化法を提案する。
MNIST-USPSドメイン適応や言語間感情分析などのよく知られたタスクにおいて、ドメイン適応ベースラインよりもパフォーマンスが向上したことを報告した。
論文 参考訳(メタデータ) (2022-11-27T22:54:48Z) - Unsupervised Domain Adaptive Fundus Image Segmentation with
Category-level Regularization [25.58501677242639]
本稿では、カテゴリーレベルの正規化に基づく教師なしドメイン適応フレームワークを提案する。
2つの公開ファンドデータセットの実験により、提案手法は他の最先端比較アルゴリズムよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-07-08T04:34:39Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation [42.16718847243166]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-05T20:16:38Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。