論文の概要: Enhancing Convergence, Privacy and Fairness for Wireless Personalized Federated Learning: Quantization-Assisted Min-Max Fair Scheduling
- arxiv url: http://arxiv.org/abs/2506.02422v1
- Date: Tue, 03 Jun 2025 04:13:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.388557
- Title: Enhancing Convergence, Privacy and Fairness for Wireless Personalized Federated Learning: Quantization-Assisted Min-Max Fair Scheduling
- Title(参考訳): ワイヤレス・パーソナライズド・フェデレーション学習における収束性,プライバシ,公正性の向上:量子化支援Min-Maxフェアスケジューリング
- Authors: Xiyu Zhao, Qimei Cui, Ziqiang Du, Weicai Li, Xi Yu, Wei Ni, Ji Zhang, Xiaofeng Tao, Ping Zhang,
- Abstract要約: 本稿では、量子化エラーを利用して、無線パーソナライズドラーニング(WPFL)モデルのプライバシを高める。
本稿では,新しい量子化支援型ガウス微分プライバシー(DP)機構を提案する。
我々は,提案手法が代替スケジューリング戦略を大幅に上回っていることを示す。
- 参考スコア(独自算出の注目度): 25.47325726772476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized federated learning (PFL) offers a solution to balancing personalization and generalization by conducting federated learning (FL) to guide personalized learning (PL). Little attention has been given to wireless PFL (WPFL), where privacy concerns arise. Performance fairness of PL models is another challenge resulting from communication bottlenecks in WPFL. This paper exploits quantization errors to enhance the privacy of WPFL and proposes a novel quantization-assisted Gaussian differential privacy (DP) mechanism. We analyze the convergence upper bounds of individual PL models by considering the impact of the mechanism (i.e., quantization errors and Gaussian DP noises) and imperfect communication channels on the FL of WPFL. By minimizing the maximum of the bounds, we design an optimal transmission scheduling strategy that yields min-max fairness for WPFL with OFDMA interfaces. This is achieved by revealing the nested structure of this problem to decouple it into subproblems solved sequentially for the client selection, channel allocation, and power control, and for the learning rates and PL-FL weighting coefficients. Experiments validate our analysis and demonstrate that our approach substantially outperforms alternative scheduling strategies by 87.08%, 16.21%, and 38.37% in accuracy, the maximum test loss of participating clients, and fairness (Jain's index), respectively.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、パーソナライズド・ラーニング(PL)を導くために、フェデレーション・ラーニング(FL)を実行することにより、パーソナライズと一般化のバランスをとるためのソリューションを提供する。
プライバシの懸念が生じる無線PFL(WPFL)にはほとんど注意が払われていない。
PLモデルのパフォーマンスの公平性は、WPFLにおける通信ボトルネックによってもたらされる別の課題である。
本稿では、量子化エラーを利用してWPFLのプライバシーを高めるとともに、新しい量子化支援ガウス微分プライバシー(DP)機構を提案する。
本研究では,各PLモデルの収束上限を,そのメカニズム(量子化誤差やガウスDPノイズなど)と不完全な通信チャネルがWPFLのFLに与える影響を考慮して解析する。
境界の最大化を極小化することにより、OFDMAインタフェースを用いたWPFLの最小値公平性が得られる最適な送信スケジューリング戦略を設計する。
これは、クライアント選択、チャネル割り当て、電力制御、学習率およびPL-FL重み付け係数に対して順次解決されたサブプロブレムに分解するために、この問題のネスト構造を明らかにすることで達成される。
実験により, 提案手法の精度は87.08%, 16.21%, 38.37%, クライアントの最大テスト損失, 公平性(Jain's index)を大きく上回ることがわかった。
関連論文リスト
- pFedWN: A Personalized Federated Learning Framework for D2D Wireless Networks with Heterogeneous Data [1.9188272016043582]
従来のフェデレートラーニングアプローチは、クライアント間のデータの異質性に悩まされることが多い。
PFLは、非独立で同一の分散(非IID)とクライアント間のアンバランスなデータによって引き起こされる課題に対する解決策として現れます。
デバイス間通信(D2D)の無線チャネル条件をサーバフリーなPFLアプローチに組み込む共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-01-16T20:16:49Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Optimal Privacy Preserving for Federated Learning in Mobile Edge
Computing [35.57643489979182]
ユーザ差分プライバシ(DP)を維持するための有望なアプローチとして,無線ネットワーク上での定量化と意図的なノイズ付加によるフェデレーション学習(FL)がある。
本稿では,無線ネットワークとDP要件の制約下での収束率を最大化するために,量子化と二項機構パラメータと通信資源を協調的に最適化することを目的とする。
論文 参考訳(メタデータ) (2022-11-14T07:54:14Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。