論文の概要: CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks
- arxiv url: http://arxiv.org/abs/2510.20219v1
- Date: Thu, 23 Oct 2025 05:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.42256
- Title: CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks
- Title(参考訳): CO-PFL:不均一ネットワークのための貢献指向の個人化フェデレーション学習
- Authors: Ke Xing, Yanjie Dong, Xiaoyi Fan, Runhao Zeng, Victor C. M. Leung, M. Jamal Deen, Xiping Hu,
- Abstract要約: コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
- 参考スコア(独自算出の注目度): 51.43780477302533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning (PFL) addresses a critical challenge of collaboratively training customized models for clients with heterogeneous and scarce local data. Conventional federated learning, which relies on a single consensus model, proves inadequate under such data heterogeneity. Its standard aggregation method of weighting client updates heuristically or by data volume, operates under an equal-contribution assumption, failing to account for the actual utility and reliability of each client's update. This often results in suboptimal personalization and aggregation bias. To overcome these limitations, we introduce Contribution-Oriented PFL (CO-PFL), a novel algorithm that dynamically estimates each client's contribution for global aggregation. CO-PFL performs a joint assessment by analyzing both gradient direction discrepancies and prediction deviations, leveraging information from gradient and data subspaces. This dual-subspace analysis provides a principled and discriminative aggregation weight for each client, emphasizing high-quality updates. Furthermore, to bolster personalization adaptability and optimization stability, CO-PFL cohesively integrates a parameter-wise personalization mechanism with mask-aware momentum optimization. Our approach effectively mitigates aggregation bias, strengthens global coordination, and enhances local performance by facilitating the construction of tailored submodels with stable updates. Extensive experiments on four benchmark datasets (CIFAR10, CIFAR10C, CINIC10, and Mini-ImageNet) confirm that CO-PFL consistently surpasses state-of-the-art methods in in personalization accuracy, robustness, scalability and convergence stability.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、不均一で少ないローカルデータを持つクライアントのためにカスタマイズされたモデルを協調的にトレーニングする上で、重要な課題に対処する。
単一のコンセンサスモデルに依存する従来の連合学習は、そのようなデータの不均一性の下では不十分である。
クライアントの更新をヒューリスティックに、あるいはデータボリュームによって重み付けする標準的な集約方法は、各クライアントの更新の実際の有用性と信頼性を考慮せずに、同等のコントリビューションの仮定の下で動作します。
これはしばしば、最適でないパーソナライゼーションと凝集バイアスをもたらす。
これらの制約を克服するために、各クライアントのグローバルアグリゲーションに対する貢献を動的に推定する新しいアルゴリズムであるContribution-Oriented PFL(CO-PFL)を導入する。
CO-PFLは、勾配方向の不一致と予測偏差の両方を分析し、勾配とデータ部分空間からの情報を活用して共同評価を行う。
このデュアルサブスペース分析は、各クライアントに対して原則的で差別的な集約重みを提供し、高品質な更新を強調します。
さらに、パーソナライズ適応性と最適化安定性を高めるため、CO-PFLはパラメータワイズパーソナライズ機構とマスク対応モーメント最適化を結合的に統合する。
提案手法は,アグリゲーションバイアスを効果的に軽減し,グローバルコーディネートを強化し,安定した更新を施した調整サブモデルの構築を容易にし,局所的な性能を向上させる。
4つのベンチマークデータセット(CIFAR10、CIFAR10C、CINIC10、Mini-ImageNet)の大規模な実験により、CO-PFLはパーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において最先端の手法を一貫して上回っていることを確認した。
関連論文リスト
- FedPPA: Progressive Parameter Alignment for Personalized Federated Learning [0.9931624906346306]
フェデレートラーニング(FL)は、複数のクライアントがデータを共有せずに協調的にモデルをトレーニングできる、分散されたプライバシ保護機械学習パラダイムとして設計されている。
実世界のシナリオでは、クライアントは不均一な計算資源を持ち、非独立で同一の分散データ(非IID)を保持し、トレーニング中に重大な課題を生じさせる。
本稿では,クライアント間の共通レイヤの重み付けとグローバルモデルの重み付けを段階的に整合させるプログレッシブアライメント(FedPPA)を提案する。
MNIST、FMNIST、CIFAR-10を含む3つの画像分類データセットの実験は、FedPPAが既存のFLアルゴリズムより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-10-16T14:03:05Z) - FedAPA: Server-side Gradient-Based Adaptive Personalized Aggregation for Federated Learning on Heterogeneous Data [5.906966694759679]
FedAPAは、パーソナライズされたモデルを生成するためのサーバサイドの勾配に基づく適応アダプティブアグリゲーション戦略を備えた、新しいPFL手法である。
FedAPAは理論収束を保証し、3つのデータセットにわたる10のPFL競合と比較して精度と計算効率が優れている。
論文 参考訳(メタデータ) (2025-02-11T11:00:58Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。