論文の概要: FedSM: Robust Semantics-Guided Feature Mixup for Bias Reduction in Federated Learning with Long-Tail Data
- arxiv url: http://arxiv.org/abs/2510.27240v1
- Date: Fri, 31 Oct 2025 07:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.015916
- Title: FedSM: Robust Semantics-Guided Feature Mixup for Bias Reduction in Federated Learning with Long-Tail Data
- Title(参考訳): FedSM: 長期学習におけるバイアス低減のためのロバストなセマンティックスによる特徴混合
- Authors: Jingrui Zhang, Yimeng Xu, Shujie Li, Feng Liang, Haihan Duan, Yanjie Dong, Victor C. M. Leung, Xiping Hu,
- Abstract要約: フェデレートラーニング(FL)は、プライベートデータを共有することなく、分散クライアント間で協調的なモデルトレーニングを可能にする。
FLは、非IIDおよびロングテールデータ分布による偏りのあるグローバルモデルに悩まされている。
textbfFedSMは、セマンティクスに基づく機能ミックスアップによって、このバイアスを軽減する新しいクライアント中心のフレームワークである。
- 参考スコア(独自算出の注目度): 44.91570926822939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across decentralized clients without sharing private data. However, FL suffers from biased global models due to non-IID and long-tail data distributions. We propose \textbf{FedSM}, a novel client-centric framework that mitigates this bias through semantics-guided feature mixup and lightweight classifier retraining. FedSM uses a pretrained image-text-aligned model to compute category-level semantic relevance, guiding the category selection of local features to mix-up with global prototypes to generate class-consistent pseudo-features. These features correct classifier bias, especially when data are heavily skewed. To address the concern of potential domain shift between the pretrained model and the data, we propose probabilistic category selection, enhancing feature diversity to effectively mitigate biases. All computations are performed locally, requiring minimal server overhead. Extensive experiments on long-tail datasets with various imbalanced levels demonstrate that FedSM consistently outperforms state-of-the-art methods in accuracy, with high robustness to domain shift and computational efficiency.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライベートデータを共有することなく、分散クライアント間で協調的なモデルトレーニングを可能にする。
しかし、FLは非IIDおよびロングテールデータ分布のため、偏りのあるグローバルモデルに悩まされている。
これは、セマンティクスによる特徴混在と軽量な分類器の再学習を通じて、このバイアスを軽減する新しいクライアント中心のフレームワークである。
FedSMは、訓練済みの画像テキスト整列モデルを使用してカテゴリレベルのセマンティック関連を計算し、局所的な特徴のカテゴリ選択をグローバルプロトタイプと組み合わせてクラス一貫性の擬似特徴を生成する。
これらの特徴は、特にデータが歪んだ場合に、正しい分類器バイアスを特徴とする。
事前訓練されたモデルとデータ間の潜在的な領域シフトの懸念に対処するため、確率的カテゴリー選択を提案し、バイアスを効果的に軽減するために特徴の多様性を向上する。
すべての計算はローカルで行われ、サーバのオーバーヘッドは最小限である。
様々な不均衡レベルのロングテールデータセットに対する大規模な実験は、FedSMがドメインシフトと計算効率に高いロバスト性を持って、常に最先端の手法よりも精度が高いことを示した。
関連論文リスト
- Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - FedLF: Adaptive Logit Adjustment and Feature Optimization in Federated Long-Tailed Learning [5.23984567704876]
フェデレーション学習は、分散機械学習におけるプライバシの保護という課題にパラダイムを提供する。
伝統的なアプローチは、グローバルな長期データにおけるクラスワイドバイアスの現象に対処できない。
新しい手法であるFedLFは、適応ロジット調整、連続クラス中心最適化、特徴デコリレーションという、局所的なトレーニングフェーズに3つの修正を導入している。
論文 参考訳(メタデータ) (2024-09-18T16:25:29Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。