論文の概要: FedeCouple: Fine-Grained Balancing of Global-Generalization and Local-Adaptability in Federated Learning
- arxiv url: http://arxiv.org/abs/2511.09599v1
- Date: Fri, 14 Nov 2025 01:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.363552
- Title: FedeCouple: Fine-Grained Balancing of Global-Generalization and Local-Adaptability in Federated Learning
- Title(参考訳): FedeCouple: フェデレーション学習におけるグローバルな一般化と局所的適応性の微粒化バランス
- Authors: Ming Yang, Dongrun Li, Xin Wang, Feng Li, Lisheng Fan, Chunxiao Wang, Xiaoming Wu, Peng Cheng,
- Abstract要約: プライバシ保護型モバイルネットワーク伝送シナリオでは、パーソナライズされた学習手法が学習において顕著な優位性を示している。
我々は,グローバルな特徴表現と局所的な特徴表現を微粒なレベルでバランスをとるフェデレーション学習を提案する。
有効性を評価する実験では、フェデは最高のベースラインを4.3%の差で上回っている。
- 参考スコア(独自算出の注目度): 22.362030807503714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In privacy-preserving mobile network transmission scenarios with heterogeneous client data, personalized federated learning methods that decouple feature extractors and classifiers have demonstrated notable advantages in enhancing learning capability. However, many existing approaches primarily focus on feature space consistency and classification personalization during local training, often neglecting the local adaptability of the extractor and the global generalization of the classifier. This oversight results in insufficient coordination and weak coupling between the components, ultimately degrading the overall model performance. To address this challenge, we propose FedeCouple, a federated learning method that balances global generalization and local adaptability at a fine-grained level. Our approach jointly learns global and local feature representations while employing dynamic knowledge distillation to enhance the generalization of personalized classifiers. We further introduce anchors to refine the feature space; their strict locality and non-transmission inherently preserve privacy and reduce communication overhead. Furthermore, we provide a theoretical analysis proving that FedeCouple converges for nonconvex objectives, with iterates approaching a stationary point as the number of communication rounds increases. Extensive experiments conducted on five image-classification datasets demonstrate that FedeCouple consistently outperforms nine baseline methods in effectiveness, stability, scalability, and security. Notably, in experiments evaluating effectiveness, FedeCouple surpasses the best baseline by a significant margin of 4.3%.
- Abstract(参考訳): 不均一なクライアントデータを用いたプライバシー保護モバイルネットワーク送信シナリオでは、特徴抽出器と分類器を分離するパーソナライズされたフェデレーション学習手法が、学習能力の向上において顕著な優位性を示している。
しかし、既存の多くのアプローチは、主に局所訓練中の特徴空間の一貫性と分類パーソナライズに焦点を当てており、抽出器の局所的適応性や分類器のグローバルな一般化を無視していることが多い。
この監視により、コンポーネント間の調整が不十分になり、結合が弱くなり、最終的には全体のモデル性能が低下する。
この課題に対処するために,グローバルな一般化と局所的な適応性を微粒なレベルでバランスをとるフェデクープル(FeedeCouple)を提案する。
本研究では,グローバルな特徴表現と局所的な特徴表現を共同で学習し,動的知識蒸留を用いてパーソナライズされた分類器の一般化を促進する。
さらに、機能領域を洗練するためにアンカーを導入します。その厳密な局所性と非送信は本質的にプライバシを保ち、通信オーバーヘッドを低減します。
さらに,FedeCoupleは非凸目的に対して収束し,通信ラウンド数が増加するにつれて定常点に近づくことを理論的に証明した。
5つの画像分類データセットで実施された大規模な実験は、フェデクープルが有効性、安定性、スケーラビリティ、セキュリティにおいて9つのベースラインメソッドを一貫して上回っていることを示している。
特に、フェデクープルは効果を評価する実験において、最高のベースラインを4.3%の差で上回っている。
関連論文リスト
- Federated Cross-Training Learners for Robust Generalization under Data Heterogeneity [28.506414879932635]
これにより、モデルは異なるソースからのデータをトレーニングし、一般化能力を改善することができる。
パーソナライズされた視点からの知識の蒸留は、クライアント固有の特性を保持し、局所的な知識基盤を広げる。
我々は,FedCTが局所的,グローバル的両視点からの知識を緩和し,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-30T13:27:30Z) - FedLoGe: Joint Local and Generic Federated Learning under Long-tailed
Data [46.29190753993415]
Federated Long-Tailed Learning (Fed-LT)は、分散化されたローカルクライアントから収集されたデータが、グローバルに普及しているロングテール分布を示すパラダイムである。
本稿では、Fed-LT(FedLoGe)におけるFederated Local and Generic Model Training(FedLoGe)というアプローチを紹介し、ローカルモデルとジェネリックモデルの両方のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-01-17T05:04:33Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Exploring Semantic Attributes from A Foundation Model for Federated
Learning of Disjoint Label Spaces [46.59992662412557]
本研究では,特定の対象に敏感でない中レベルの意味的知識(属性など)の伝達を検討する。
我々はFZSL(Federated Zero-Shot Learning)パラダイムを定式化し、複数のローカルクライアントで中レベルのセマンティック知識を学習する。
モデル識別能力を向上させるために,外的知識からの意味的知識増強について検討する。
論文 参考訳(メタデータ) (2022-08-29T10:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。