論文の概要: Sharpness-Aware Gradient Matching for Domain Generalization
- arxiv url: http://arxiv.org/abs/2303.10353v1
- Date: Sat, 18 Mar 2023 07:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:55:30.555944
- Title: Sharpness-Aware Gradient Matching for Domain Generalization
- Title(参考訳): 領域一般化のためのシャープネス認識勾配マッチング
- Authors: Pengfei Wang, Zhaoxiang Zhang, Zhen Lei, Lei Zhang
- Abstract要約: ドメイン一般化(DG)の目標は、ソースドメインから他の見えないドメインに学習したモデルの一般化能力を強化することである。
最近開発されたシャープネス・アウェア最小化(SAM)法は、損失景観のシャープネス測定を最小化することで、この目標を達成することを目的としている。
モデルが小さな損失を伴って平らな最小値に収束することを保証するための2つの条件と,シャープネス・アウェア・グラディエントマッチング(SAGM)というアルゴリズムを提案する。
提案手法は5つのDGベンチマークにおける最先端の手法よりも一貫して優れている。
- 参考スコア(独自算出の注目度): 84.14789746460197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of domain generalization (DG) is to enhance the generalization
capability of the model learned from a source domain to other unseen domains.
The recently developed Sharpness-Aware Minimization (SAM) method aims to
achieve this goal by minimizing the sharpness measure of the loss landscape.
Though SAM and its variants have demonstrated impressive DG performance, they
may not always converge to the desired flat region with a small loss value. In
this paper, we present two conditions to ensure that the model could converge
to a flat minimum with a small loss, and present an algorithm, named
Sharpness-Aware Gradient Matching (SAGM), to meet the two conditions for
improving model generalization capability. Specifically, the optimization
objective of SAGM will simultaneously minimize the empirical risk, the
perturbed loss (i.e., the maximum loss within a neighborhood in the parameter
space), and the gap between them. By implicitly aligning the gradient
directions between the empirical risk and the perturbed loss, SAGM improves the
generalization capability over SAM and its variants without increasing the
computational cost. Extensive experimental results show that our proposed SAGM
method consistently outperforms the state-of-the-art methods on five DG
benchmarks, including PACS, VLCS, OfficeHome, TerraIncognita, and DomainNet.
Codes are available at https://github.com/Wang-pengfei/SAGM.
- Abstract(参考訳): ドメイン一般化(DG)の目標は、ソースドメインから他の見えないドメインに学習したモデルの一般化能力を強化することである。
最近開発されたSAM法は、損失景観のシャープネスを最小化することで、この目標を達成することを目的としている。
SAMとその変種は印象的なDG性能を示したが、必ずしも損失値が小さい所望の平坦領域に収束するとは限らない。
本稿では,モデル一般化能力を改善するための2つの条件を満たすために,モデルが小さい損失で平坦な最小値に収束することを保証する2つの条件と,spikeness-aware gradient matching (sagm) と呼ばれるアルゴリズムを提案する。
具体的には、SAGMの最適化目標は、経験的リスク、摂動損失(パラメータ空間内の近傍における最大損失)、およびそれらのギャップを同時に最小化する。
経験的リスクと摂動損失の間の勾配方向を暗黙的に整列することにより、SAGMは計算コストを増大させることなくSAMとその変種に対する一般化能力を向上させる。
実験結果から,提案手法はPACS, VLCS, OfficeHome, TerraIncognita, DomainNetの5つのDGベンチマークにおいて,最先端の手法よりも一貫して優れていることがわかった。
コードはhttps://github.com/Wang-pengfei/SAGMで入手できる。
関連論文リスト
- Adaptive Adversarial Cross-Entropy Loss for Sharpness-Aware Minimization [2.8775022881551666]
シャープネス・アウェアの最小化 (SAM) はモデル一般化を強化するために提案された。
SAMは2つの主要なステップ、重みの摂動ステップと重みの更新ステップから構成される。
本稿では、SAMの摂動に対する標準的なクロスエントロピー損失を置き換えるために、適応逆クロスエントロピー(AACE)損失関数を提案する。
論文 参考訳(メタデータ) (2024-06-20T14:00:01Z) - Gradient Alignment for Cross-Domain Face Anti-Spoofing [26.517887637150594]
本稿では,新たな学習目標であるGAC-FASを紹介する。
従来のシャープネス対応最小化器とは異なり、GAC-FASは各領域の上昇点を特定し、一般化勾配の更新を制御する。
ドメイン間FASデータセットの厳密な検証によりGAC-FASの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T02:57:44Z) - Enhancing Sharpness-Aware Optimization Through Variance Suppression [48.908966673827734]
この研究は損失関数の幾何学を取り入れ、そこでは「平坦なミニマ」の近傍が一般化能力を高める。
地区内の敵対的な摂動パラメータによる最大損失を最小化することで「平坦な谷」を求める。
損失関数のシャープさを考慮に入れることが重要であるが、そのような「過剰にフレンドリーな敵」は極端に一般化のレベルを縮めることができる。
論文 参考訳(メタデータ) (2023-09-27T13:18:23Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - Sharpness-Aware Training for Free [163.1248341911413]
シャープネスを意識した最小化(SAM)は、損失ランドスケープの幾何学を反映したシャープネス尺度の最小化が一般化誤差を著しく減少させることを示した。
シャープネス・アウェア・トレーニング・フリー(SAF)は、シャープランドスケープをベース上でほぼゼロの計算コストで軽減する。
SAFは、改善された能力で最小限の平らな収束を保証する。
論文 参考訳(メタデータ) (2022-05-27T16:32:43Z) - Improving Generalization in Federated Learning by Seeking Flat Minima [23.937135834522145]
フェデレートされた設定で訓練されたモデルは、しばしば劣化したパフォーマンスに悩まされ、一般化に失敗する。
本研究では,損失の幾何レンズとヘッセン固有スペクトルを用いて,そのような挙動を考察する。
損失面のシャープさと一般化ギャップを接続する先行研究により,サーバ側のシャープネス・アウェア・最小化 (SAM) や適応バージョン (ASAM) をローカルにトレーニングすることで,一般化を大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2022-03-22T16:01:04Z) - Surrogate Gap Minimization Improves Sharpness-Aware Training [52.58252223573646]
Surrogate textbfGap Guided textbfSharpness-textbfAware textbfMinimization (GSAM)は、Sharpness-Aware Minimization (SAM)に対する新しい改善であり、計算オーバーヘッドが無視できる。
GSAMは小さい損失(ステップ1)と低いシャープネス(ステップ2)の両方の領域を求め、高い一般化能力を持つモデルを生み出す。
論文 参考訳(メタデータ) (2022-03-15T16:57:59Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Sharpness-Aware Minimization for Efficiently Improving Generalization [36.87818971067698]
本稿では,損失値と損失シャープネスを同時に最小化する新しい効果的な手法を提案する。
シャープネス・アウェアの最小化(SAM)は、一様損失の少ない地区にあるパラメータを求める。
SAMは様々なベンチマークデータセットのモデル一般化を改善することを示す実験結果を示す。
論文 参考訳(メタデータ) (2020-10-03T19:02:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。