論文の概要: Personalized Bayesian Federated Learning with Wasserstein Barycenter Aggregation
- arxiv url: http://arxiv.org/abs/2505.14161v1
- Date: Tue, 20 May 2025 10:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.054005
- Title: Personalized Bayesian Federated Learning with Wasserstein Barycenter Aggregation
- Title(参考訳): Wasserstein Barycenter Aggregationを用いた個人化ベイズ連邦学習
- Authors: Ting Wei, Biao Mei, Junliang Lyu, Renquan Zhang, Feng Zhou, Yifan Sun,
- Abstract要約: FedWBAはローカル推論とグローバルアグリゲーションの両方を強化する新しいPBFL法である。
我々はFedWBAの地域的およびグローバルな収束保証を提供する。
実験により、FedWBAは予測精度、不確実性校正、収束率においてベースラインを上回っていることが示された。
- 参考スコア(独自算出の注目度): 7.3170276716290354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized Bayesian federated learning (PBFL) handles non-i.i.d. client data and quantifies uncertainty by combining personalization with Bayesian inference. However, existing PBFL methods face two limitations: restrictive parametric assumptions in client posterior inference and naive parameter averaging for server aggregation. To overcome these issues, we propose FedWBA, a novel PBFL method that enhances both local inference and global aggregation. At the client level, we use particle-based variational inference for nonparametric posterior representation. At the server level, we introduce particle-based Wasserstein barycenter aggregation, offering a more geometrically meaningful approach. Theoretically, we provide local and global convergence guarantees for FedWBA. Locally, we prove a KL divergence decrease lower bound per iteration for variational inference convergence. Globally, we show that the Wasserstein barycenter converges to the true parameter as the client data size increases. Empirically, experiments show that FedWBA outperforms baselines in prediction accuracy, uncertainty calibration, and convergence rate, with ablation studies confirming its robustness.
- Abstract(参考訳): パーソナライズされたベイズ連邦学習(PBFL)は、非i.d.クライアントデータを処理し、パーソナライズとベイズ推論を組み合わせることで不確実性を定量化する。
しかし、既存のPBFL法では、クライアント後部推論における制限的パラメトリック仮定と、サーバアグリゲーションに対するナイーブパラメータ平均化の2つの制限に直面している。
これらの問題を解決するために,ローカル推論とグローバルアグリゲーションの両方を強化するPBFL法であるFedWBAを提案する。
クライアントレベルでは、非パラメトリック後部表現に粒子ベースの変分推論を用いる。
サーバレベルでは、より幾何学的に意味のあるアプローチを提供する、粒子ベースのWassersteinバリセンターアグリゲーションを導入します。
理論的には、FedWBAの局所収束保証とグローバル収束保証を提供する。
局所的に、KLの発散は、変分推論収束に対する反復毎のバウンダリを減少させる。
グローバルに、ワッサーシュタインバリセンタはクライアントデータサイズが大きくなるにつれて真のパラメータに収束することを示す。
実験的に、FedWBAは予測精度、不確実性校正、収束率においてベースラインよりも優れており、アブレーション研究はその堅牢性を確認している。
関連論文リスト
- Information-Geometric Barycenters for Bayesian Federated Learning [9.670266892454945]
フェデレートラーニング(FL)は、局所的に訓練されたモデルの平均化を通じてコンセンサスを達成するために用いられる。
効果はあるが、このアプローチは、モデル空間が分布空間の構造を持つベイズ予想とうまく一致しないかもしれない。
非依存的な設定におけるフェデレーション平均化の収束特性を保持するアルゴリズムであるBA-FLBを提案する。
論文 参考訳(メタデータ) (2024-12-16T10:47:05Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Federated Learning via Variational Bayesian Inference: Personalization,
Sparsity and Clustering [6.829317124629158]
Federated Learning(FL)は、分散機械学習をモデル化する有望なフレームワークである。
FLは異種データや限られたデータからの性能劣化に悩まされる。
pFedBayesとcFedBayesというクラスタリングFLモデルを提案する。
論文 参考訳(メタデータ) (2023-03-08T02:52:40Z) - DELTA: Diverse Client Sampling for Fasting Federated Learning [9.45219058010201]
フェデレーテッド・ラーニング(FL)では、コミュニケーションの負担を効率的に軽減するために、部分的なクライアント参加が広く採用されている。
既存のサンプリング手法はバイアスを受けるか、より高速な収束のためにさらに最適化することができる。
DELTAは,これらの問題を緩和するための非バイアスサンプリング方式である。
論文 参考訳(メタデータ) (2022-05-27T12:08:23Z) - On The Impact of Client Sampling on Federated Learning Convergence [4.530678016396477]
FLの収束に関する新たな分解定理を導入し,クライアントサンプリングがグローバルモデル更新に与える影響を定量的に評価する。
この結果から,MDサンプリングは学習過程におけるデータ比の変化にレジリエンスがあるため,デフォルトのサンプリング方式として使用すべきであることが示唆された。
論文 参考訳(メタデータ) (2021-07-26T13:36:06Z) - Federated Functional Gradient Boosting [75.06942944563572]
フェデレーション学習における機能最小化に関する研究
FFGB.C と FFGB.L は、特徴分布がより均一になるにつれて収束半径が 0 に縮まる。
論文 参考訳(メタデータ) (2021-03-11T21:49:19Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。