論文の概要: FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
- arxiv url: http://arxiv.org/abs/2506.08518v1
- Date: Tue, 10 Jun 2025 07:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.766089
- Title: FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
- Title(参考訳): FEDTAIL: シャープネス誘導勾配マッチングによる長期ドメイン一般化
- Authors: Sunny Gupta, Nikita Jangid, Shounak Das, Amit Sethi,
- Abstract要約: ドメイン一般化(DG)は、トレーニング中にターゲットデータにアクセスせずに、目に見えないターゲットドメインで確実に機能するモデルをトレーニングすることを目指している。
我々はフェデレートされたドメインの一般化フレームワークであるFedTAILを紹介する。
本手法は勾配コヒーレンス正規化器を組み込んで, 分類と対向目的の対立を軽減する。
- 参考スコア(独自算出の注目度): 2.4472081831862655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Generalization (DG) seeks to train models that perform reliably on unseen target domains without access to target data during training. While recent progress in smoothing the loss landscape has improved generalization, existing methods often falter under long-tailed class distributions and conflicting optimization objectives. We introduce FedTAIL, a federated domain generalization framework that explicitly addresses these challenges through sharpness-guided, gradient-aligned optimization. Our method incorporates a gradient coherence regularizer to mitigate conflicts between classification and adversarial objectives, leading to more stable convergence. To combat class imbalance, we perform class-wise sharpness minimization and propose a curvature-aware dynamic weighting scheme that adaptively emphasizes underrepresented tail classes. Furthermore, we enhance conditional distribution alignment by integrating sharpness-aware perturbations into entropy regularization, improving robustness under domain shift. FedTAIL unifies optimization harmonization, class-aware regularization, and conditional alignment into a scalable, federated-compatible framework. Extensive evaluations across standard domain generalization benchmarks demonstrate that FedTAIL achieves state-of-the-art performance, particularly in the presence of domain shifts and label imbalance, validating its effectiveness in both centralized and federated settings. Code: https://github.com/sunnyinAI/FedTail
- Abstract(参考訳): ドメイン一般化(DG)は、トレーニング中にターゲットデータにアクセスせずに、目に見えないターゲットドメインで確実に機能するモデルをトレーニングすることを目指している。
ロスランドスケープのスムース化の最近の進歩は一般化を改善したが、既存の手法は長い尾のクラス分布と矛盾する最適化の目的の下でしばしば失敗する。
我々は、シャープネス誘導、勾配整合最適化によりこれらの課題に明示的に対処するフェデレーションドメイン一般化フレームワークであるFedTAILを紹介した。
本手法は, 勾配コヒーレンス正規化器を組み込んで, 分類目標と対向目標との対立を緩和し, より安定した収束をもたらす。
クラス不均衡に対処するため、クラスワイドシャープネスの最小化を行い、未表現のテールクラスを適応的に強調する曲率を考慮した動的重み付け方式を提案する。
さらに,鋭さを考慮した摂動をエントロピー正規化に統合することにより条件分布の整合性を高め,ドメインシフト下での堅牢性を向上させる。
FedTAILは最適化の調和、クラス対応の正規化、条件付きアライメントをスケーラブルでフェデレーション互換のフレームワークに統合する。
標準領域一般化ベンチマークによる広範囲な評価は、FedTAILが最先端のパフォーマンス、特にドメインシフトやラベルの不均衡の存在下で達成し、集中的および連合的両方の環境での有効性を検証していることを示している。
コード:https://github.com/sunnyinAI/FedTail
関連論文リスト
- HFedATM: Hierarchical Federated Domain Generalization via Optimal Transport and Regularized Mean Aggregation [12.655334562608314]
Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有グローバルモデルをトレーニングする分散アプローチである。
本稿では階層型フェデレーションドメイン一般化(HFedDG)を紹介する。
論文 参考訳(メタデータ) (2025-08-07T08:14:52Z) - Global Variational Inference Enhanced Robust Domain Adaptation [7.414646586981638]
本稿では,構造を意識したクロスドメインアライメントを実現するために,変分推論による連続的,クラス条件のグローバルな事前学習フレームワークを提案する。
GVI-DAは、潜在特徴再構成によるドメインギャップを最小化し、ランダムサンプリングによるグローバルコードブック学習を用いて後部崩壊を緩和する。
低信頼の擬似ラベルを捨て、信頼性の高いターゲットドメインサンプルを生成することにより、ロバスト性をさらに向上する。
論文 参考訳(メタデータ) (2025-07-04T04:43:23Z) - Gradient-Guided Annealing for Domain Generalization [5.124256074746721]
ドメインの一般化効率を向上させるため,GGAアルゴリズムを提案する。
GGAの有効性は、広く受け入れられ、困難な画像分類領域の一般化ベンチマークで評価される。
論文 参考訳(メタデータ) (2025-02-27T15:01:55Z) - Hypernetwork-Driven Model Fusion for Federated Domain Generalization [26.492360039272942]
フェデレートラーニング(FL)は、異種データのドメインシフトにおいて大きな課題に直面します。
非線形アグリゲーションにハイパーネットワークを用いた、ハイパーネットワークベースのフェデレート・フュージョン(hFedF)と呼ばれるロバストなフレームワークを提案する。
本手法では,ドメインの一般化を効果的に管理するために,クライアント固有の埋め込みと勾配アライメント手法を用いる。
論文 参考訳(メタデータ) (2024-02-10T15:42:03Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Label Alignment Regularization for Distribution Shift [63.228879525056904]
最近の研究は、教師あり学習におけるラベルアライメント特性(LAP)を強調している。
対象領域の予測と最上位特異ベクトルとのアライメントを促進する非教師なし領域適応の正規化法を提案する。
MNIST-USPSドメイン適応や言語間感情分析などのよく知られたタスクにおいて、ドメイン適応ベースラインよりもパフォーマンスが向上したことを報告した。
論文 参考訳(メタデータ) (2022-11-27T22:54:48Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - SENTRY: Selective Entropy Optimization via Committee Consistency for
Unsupervised Domain Adaptation [14.086066389856173]
ランダムな画像変換の委員会の下で,予測整合性に基づいて対象インスタンスの信頼性を判定するUDAアルゴリズムを提案する。
提案アルゴリズムは,予測エントロピーを選択的に最小化し,高い一貫性のあるターゲットインスタンスに対する信頼度を高めるとともに,予測エントロピーを最大化し,高い一貫性の低いインスタンスに対する信頼度を低減する。
擬似ラベルに基づく近似的クラスバランスと組み合わせることで,標準的なUDAベンチマークや,ラベル分布シフト下でのストレス-テスト適応を目的としたベンチマークから,27/31ドメインシフトの最先端よりも大幅に向上した。
論文 参考訳(メタデータ) (2020-12-21T16:24:50Z) - Contradictory Structure Learning for Semi-supervised Domain Adaptation [67.89665267469053]
現在の逆順応法は、クロスドメインの特徴を整列させようとする。
1)条件分布ミスマッチ、2)決定境界のソース領域へのバイアス。
本稿では,対向構造の学習を統一することで,半教師付きドメイン適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T22:58:20Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。