論文の概要: Personalized Federated Learning under Model Dissimilarity Constraints
- arxiv url: http://arxiv.org/abs/2505.07575v2
- Date: Thu, 15 May 2025 16:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 14:06:36.733517
- Title: Personalized Federated Learning under Model Dissimilarity Constraints
- Title(参考訳): モデル差分制約下における個人化フェデレーション学習
- Authors: Samuel Erickson, Mikael Johansson,
- Abstract要約: KARULAは、パーソナライズド・フェデレーション・ラーニングのための規則化された戦略であり、分散の違いに基づいて、クライアント間のペアワイズモデルの相違を制約する。
理論上、KARULA は O (1/K) の近傍レート定常点に滑らかで、おそらくは非関係な損失に収束することを示す。
合成および実データ集合上でKARULAを実証し、高度に複雑な相互関係の戦略の有効性を示す。
- 参考スコア(独自算出の注目度): 8.095373104009868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the defining challenges in federated learning is that of statistical heterogeneity among clients. We address this problem with KARULA, a regularized strategy for personalized federated learning, which constrains the pairwise model dissimilarities between clients based on the difference in their distributions, as measured by a surrogate for the 1-Wasserstein distance adapted for the federated setting. This allows the strategy to adapt to highly complex interrelations between clients, that e.g., clustered approaches fail to capture. We propose an inexact projected stochastic gradient algorithm to solve the constrained problem that the strategy defines, and show theoretically that it converges with smooth, possibly non-convex losses to a neighborhood of a stationary point with rate O(1/K). We demonstrate the effectiveness of KARULA on synthetic and real federated data sets.
- Abstract(参考訳): 連合学習における決定的な課題の1つは、クライアント間の統計的不均一性である。
本稿では, 個人化学習のための正規化戦略であるKARULAを用いてこの問題に対処し, フェデレーション設定に適合した1-ワッサーシュタイン距離のサロゲートを用いて, クライアント間の相互モデルの相違を, 分布の差に基づいて制約する。
これにより、クラスタ化されたアプローチがキャプチャーに失敗するクライアント間の非常に複雑な相互関係に、戦略を適用することが可能になる。
戦略が定義する制約問題の解法として,不確定な確率勾配アルゴリズムを提案し,O(1/K)レートの定常点近傍に滑らかな非凸損失を収束させることを理論的に示す。
我々は,KARULAが合成および実連合データセットに与える影響を実証する。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Provably Personalized and Robust Federated Learning [47.50663360022456]
類似したクライアントのクラスタを識別し、パーソナライズされたモデルパークラスタを訓練する簡単なアルゴリズムを提案する。
アルゴリズムの収束率は、クライアントの真の基盤となるクラスタリングを知っていれば得られるものと一致します。
論文 参考訳(メタデータ) (2023-06-14T09:37:39Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Federated Learning with Heterogeneous Data: A Superquantile Optimization
Approach [0.0]
我々は、不均一なデータを持つ個々のクライアントに対して、優れたパフォーマンスを確実に提供するように設計された、フェデレートされた学習フレームワークを提案する。
提案手法は,誤差の尾の統計を捉える水槽型学習訓練に基づく。
論文 参考訳(メタデータ) (2021-12-17T11:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。