論文の概要: FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
- arxiv url: http://arxiv.org/abs/2506.08518v1
- Date: Tue, 10 Jun 2025 07:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.766089
- Title: FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
- Title(参考訳): FEDTAIL: シャープネス誘導勾配マッチングによる長期ドメイン一般化
- Authors: Sunny Gupta, Nikita Jangid, Shounak Das, Amit Sethi,
- Abstract要約: ドメイン一般化(DG)は、トレーニング中にターゲットデータにアクセスせずに、目に見えないターゲットドメインで確実に機能するモデルをトレーニングすることを目指している。
我々はフェデレートされたドメインの一般化フレームワークであるFedTAILを紹介する。
本手法は勾配コヒーレンス正規化器を組み込んで, 分類と対向目的の対立を軽減する。
- 参考スコア(独自算出の注目度): 2.4472081831862655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Generalization (DG) seeks to train models that perform reliably on unseen target domains without access to target data during training. While recent progress in smoothing the loss landscape has improved generalization, existing methods often falter under long-tailed class distributions and conflicting optimization objectives. We introduce FedTAIL, a federated domain generalization framework that explicitly addresses these challenges through sharpness-guided, gradient-aligned optimization. Our method incorporates a gradient coherence regularizer to mitigate conflicts between classification and adversarial objectives, leading to more stable convergence. To combat class imbalance, we perform class-wise sharpness minimization and propose a curvature-aware dynamic weighting scheme that adaptively emphasizes underrepresented tail classes. Furthermore, we enhance conditional distribution alignment by integrating sharpness-aware perturbations into entropy regularization, improving robustness under domain shift. FedTAIL unifies optimization harmonization, class-aware regularization, and conditional alignment into a scalable, federated-compatible framework. Extensive evaluations across standard domain generalization benchmarks demonstrate that FedTAIL achieves state-of-the-art performance, particularly in the presence of domain shifts and label imbalance, validating its effectiveness in both centralized and federated settings. Code: https://github.com/sunnyinAI/FedTail
- Abstract(参考訳): ドメイン一般化(DG)は、トレーニング中にターゲットデータにアクセスせずに、目に見えないターゲットドメインで確実に機能するモデルをトレーニングすることを目指している。
ロスランドスケープのスムース化の最近の進歩は一般化を改善したが、既存の手法は長い尾のクラス分布と矛盾する最適化の目的の下でしばしば失敗する。
我々は、シャープネス誘導、勾配整合最適化によりこれらの課題に明示的に対処するフェデレーションドメイン一般化フレームワークであるFedTAILを紹介した。
本手法は, 勾配コヒーレンス正規化器を組み込んで, 分類目標と対向目標との対立を緩和し, より安定した収束をもたらす。
クラス不均衡に対処するため、クラスワイドシャープネスの最小化を行い、未表現のテールクラスを適応的に強調する曲率を考慮した動的重み付け方式を提案する。
さらに,鋭さを考慮した摂動をエントロピー正規化に統合することにより条件分布の整合性を高め,ドメインシフト下での堅牢性を向上させる。
FedTAILは最適化の調和、クラス対応の正規化、条件付きアライメントをスケーラブルでフェデレーション互換のフレームワークに統合する。
標準領域一般化ベンチマークによる広範囲な評価は、FedTAILが最先端のパフォーマンス、特にドメインシフトやラベルの不均衡の存在下で達成し、集中的および連合的両方の環境での有効性を検証していることを示している。
コード:https://github.com/sunnyinAI/FedTail
関連論文リスト
- Gradient-Guided Annealing for Domain Generalization [5.124256074746721]
ドメインの一般化効率を向上させるため,GGAアルゴリズムを提案する。
GGAの有効性は、広く受け入れられ、困難な画像分類領域の一般化ベンチマークで評価される。
論文 参考訳(メタデータ) (2025-02-27T15:01:55Z) - Label Alignment Regularization for Distribution Shift [63.228879525056904]
最近の研究は、教師あり学習におけるラベルアライメント特性(LAP)を強調している。
対象領域の予測と最上位特異ベクトルとのアライメントを促進する非教師なし領域適応の正規化法を提案する。
MNIST-USPSドメイン適応や言語間感情分析などのよく知られたタスクにおいて、ドメイン適応ベースラインよりもパフォーマンスが向上したことを報告した。
論文 参考訳(メタデータ) (2022-11-27T22:54:48Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - SENTRY: Selective Entropy Optimization via Committee Consistency for
Unsupervised Domain Adaptation [14.086066389856173]
ランダムな画像変換の委員会の下で,予測整合性に基づいて対象インスタンスの信頼性を判定するUDAアルゴリズムを提案する。
提案アルゴリズムは,予測エントロピーを選択的に最小化し,高い一貫性のあるターゲットインスタンスに対する信頼度を高めるとともに,予測エントロピーを最大化し,高い一貫性の低いインスタンスに対する信頼度を低減する。
擬似ラベルに基づく近似的クラスバランスと組み合わせることで,標準的なUDAベンチマークや,ラベル分布シフト下でのストレス-テスト適応を目的としたベンチマークから,27/31ドメインシフトの最先端よりも大幅に向上した。
論文 参考訳(メタデータ) (2020-12-21T16:24:50Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。