論文の概要: Convergence-Privacy-Fairness Trade-Off in Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2506.14251v1
- Date: Tue, 17 Jun 2025 07:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.372502
- Title: Convergence-Privacy-Fairness Trade-Off in Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習におけるコンバージェンス・プロダクティビティ・フェアネス・トレードオフ
- Authors: Xiyu Zhao, Qimei Cui, Weicai Li, Wei Ni, Ekram Hossain, Quan Z. Sheng, Xiaofeng Tao, Ping Zhang,
- Abstract要約: DP-Dittoは差分プライバシー(DP)保護下でのDittoの非自明な拡張である
プライバシ保証、モデル収束、性能分布公正性のトレードオフを分析する。
実験により,DP-Ditto が最先端の PFL モデルのDP-perturbed バージョンを超越できることが実証された。
- 参考スコア(独自算出の注目度): 38.493602176861835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning (PFL), e.g., the renowned Ditto, strikes a balance between personalization and generalization by conducting federated learning (FL) to guide personalized learning (PL). While FL is unaffected by personalized model training, in Ditto, PL depends on the outcome of the FL. However, the clients' concern about their privacy and consequent perturbation of their local models can affect the convergence and (performance) fairness of PL. This paper presents PFL, called DP-Ditto, which is a non-trivial extension of Ditto under the protection of differential privacy (DP), and analyzes the trade-off among its privacy guarantee, model convergence, and performance distribution fairness. We also analyze the convergence upper bound of the personalized models under DP-Ditto and derive the optimal number of global aggregations given a privacy budget. Further, we analyze the performance fairness of the personalized models, and reveal the feasibility of optimizing DP-Ditto jointly for convergence and fairness. Experiments validate our analysis and demonstrate that DP-Ditto can surpass the DP-perturbed versions of the state-of-the-art PFL models, such as FedAMP, pFedMe, APPLE, and FedALA, by over 32.71% in fairness and 9.66% in accuracy.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、パーソナライズド・ラーニング(PL)を指導するために、パーソナライズド・ラーニング(FL)を実施し、パーソナライズと一般化のバランスをとる。
FLはパーソナライズされたモデルトレーニングの影響を受けないが、Dittoでは、PLはFLの結果に依存する。
しかし、クライアントのプライバシとそれに伴うローカルモデルの摂動に対する懸念は、PLの収束と(パフォーマンス)公正性に影響を与える可能性がある。
本稿では,ディファレンシャルプライバシ(DP)保護下でのディットの非自明な拡張であるDP-DittoというPFLを提案し,プライバシ保証,モデル収束,性能分布公正性のトレードオフを分析する。
また、DP-Dittoの下でパーソナライズされたモデルの収束上限を分析し、プライバシー予算が与えられた場合の最適なグローバルアグリゲーション数を導出する。
さらに、パーソナライズされたモデルの性能フェアネスを分析し、コンバージェンスとフェアネスを併用してDP-Dittoを最適化する可能性を明らかにする。
実験では、DP-Dittoが、FedAMP、pFedMe、APPLE、FedALAといった最先端のPFLモデルのDP-Dittoバージョンを32.71%以上、精度9.66%以上で超えることを示した。
関連論文リスト
- Enhancing Convergence, Privacy and Fairness for Wireless Personalized Federated Learning: Quantization-Assisted Min-Max Fair Scheduling [25.47325726772476]
本稿では、量子化エラーを利用して、無線パーソナライズドラーニング(WPFL)モデルのプライバシを高める。
本稿では,新しい量子化支援型ガウス微分プライバシー(DP)機構を提案する。
我々は,提案手法が代替スケジューリング戦略を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2025-06-03T04:13:07Z) - PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data [47.745068077169954]
フェデレートラーニング(FL)により、小売店はプライバシを維持しながら需要予測のためのモデルパラメータを共有できる。
異種小売データの需要予測に適したプライバシ適応クラスタ型フェデレートラーニング(PA-CFL)を提案する。
論文 参考訳(メタデータ) (2025-03-15T18:07:54Z) - DP$^2$-FedSAM: Enhancing Differentially Private Federated Learning Through Personalized Sharpness-Aware Minimization [8.022417295372492]
Federated Learning(FL)は、複数のクライアントが生データを共有せずに、協調的にモデルをトレーニングできる分散機械学習アプローチである。
FLで共有されるモデル更新によって、センシティブな情報が推測されるのを防ぐために、差分プライベート・フェデレーション・ラーニング(DPFL)が提案されている。
DPFLは、共有モデル更新にランダムノイズを加えて、FLの形式的かつ厳格なプライバシ保護を保証する。
DP$2$-FedSAM: シャープネスを意識した個人化フェデレート学習を提案する。
論文 参考訳(メタデータ) (2024-09-20T16:49:01Z) - Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence [22.946928984205588]
ディファレンシャル・プライベート・フェデレーション・ラーニング(DP-FL)は協調モデルトレーニングにおいて有望な手法である。
本稿では,任意のランダム化機構を普遍的に調和させる最初のDP-FLフレームワーク(UDP-FL)を提案する。
その結果,UDP-FLは異なる推論攻撃に対して強い耐性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-20T00:11:59Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。