論文の概要: Personalized Federated Learning via Variational Bayesian Inference
- arxiv url: http://arxiv.org/abs/2206.07977v1
- Date: Thu, 16 Jun 2022 07:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 09:30:44.231860
- Title: Personalized Federated Learning via Variational Bayesian Inference
- Title(参考訳): 変分ベイズ推論による個人化フェデレーション学習
- Authors: Xu Zhang, Yinchuan Li, Wenpeng Li, Kaiyang Guo, Yunfeng Shao
- Abstract要約: フェデレーション学習は、データ不足とクライアント間の統計的多様性のために、モデル過適合による大きな課題に直面します。
本稿では,pFedBayes というベイズ変分推論を用いた個人化学習手法を提案する。
実験により,提案手法はパーソナライズされたモデルにおいて,他の高度なパーソナライズされた手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 6.671486716769351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning faces huge challenges from model overfitting due to the
lack of data and statistical diversity among clients. To address these
challenges, this paper proposes a novel personalized federated learning method
via Bayesian variational inference named pFedBayes. To alleviate the
overfitting, weight uncertainty is introduced to neural networks for clients
and the server. To achieve personalization, each client updates its local
distribution parameters by balancing its construction error over private data
and its KL divergence with global distribution from the server. Theoretical
analysis gives an upper bound of averaged generalization error and illustrates
that the convergence rate of the generalization error is minimax optimal up to
a logarithmic factor. Experiments show that the proposed method outperforms
other advanced personalized methods on personalized models, e.g., pFedBayes
respectively outperforms other SOTA algorithms by 1.25%, 0.42% and 11.71% on
MNIST, FMNIST and CIFAR-10 under non-i.i.d. limited data.
- Abstract(参考訳): フェデレーション学習は、データ不足とクライアント間の統計的多様性のために、モデル過適合による大きな課題に直面します。
これらの課題に対処するため,本論文では,pfedbayes と呼ばれるベイズ変分推論による個人化連体学習手法を提案する。
オーバーフィッティングを軽減するために、クライアントとサーバのニューラルネットワークに重みの不確実性を導入する。
パーソナライズを実現するため、各クライアントは、その構築エラーをプライベートデータとKLの分散をサーバからの世界分布とバランスさせて、ローカルな分散パラメータを更新する。
理論解析は平均一般化誤差の上限を与え、一般化誤差の収束率は対数係数まで最適であることを示す。
実験により、提案手法はパーソナライズされたモデルにおいて、他の高度なパーソナライズされた手法よりも優れており、例えば、pFedBayesは、他のSOTAアルゴリズムよりも1.25%、0.42%、11.71%、MNIST、FMNIST、CIFAR-10を非i.d.d.で上回る。
関連論文リスト
- FedSPU: Personalized Federated Learning for Resource-constrained Devices with Stochastic Parameter Update [0.27309692684728615]
Federated Dropoutはこの課題に対処するための一般的な戦略として登場した。
パラメータ更新によるフェデレーション学習(FedSPU)を提案する。
実験の結果,FedSPUはFederated Dropoutを平均7.57%の精度で上回った。
論文 参考訳(メタデータ) (2024-03-18T04:31:38Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Federated Learning via Variational Bayesian Inference: Personalization,
Sparsity and Clustering [6.829317124629158]
Federated Learning(FL)は、分散機械学習をモデル化する有望なフレームワークである。
FLは異種データや限られたデータからの性能劣化に悩まされる。
pFedBayesとcFedBayesというクラスタリングFLモデルを提案する。
論文 参考訳(メタデータ) (2023-03-08T02:52:40Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。