論文の概要: LEFL: Low Entropy Client Sampling in Federated Learning
- arxiv url: http://arxiv.org/abs/2312.17430v2
- Date: Tue, 13 Feb 2024 06:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 18:56:23.701804
- Title: LEFL: Low Entropy Client Sampling in Federated Learning
- Title(参考訳): lefl: フェデレーション学習における低エントロピークライアントサンプリング
- Authors: Waqwoya Abebe, Pablo Munoz, Ali Jannesari
- Abstract要約: Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
本稿では,モデルが学習した高レベルの特徴に基づいて,クライアントのクラスタリングを1回行うことで,新たなサンプリング手法LEFLを提案する。
提案手法で選択したサンプルクライアントは,グローバルなデータ分布に対して,相対エントロピーが低いことを示す。
- 参考スコア(独自算出の注目度): 6.436397118145477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a machine learning paradigm where multiple clients
collaborate to optimize a single global model using their private data. The
global model is maintained by a central server that orchestrates the FL
training process through a series of training rounds. In each round, the server
samples clients from a client pool before sending them its latest global model
parameters for further optimization. Naive sampling strategies implement random
client sampling and fail to factor client data distributions for privacy
reasons. Hence we propose LEFL, an alternative sampling strategy by performing
a one-time clustering of clients based on their model's learned high-level
features while respecting data privacy. This enables the server to perform
stratified client sampling across clusters in every round. We show datasets of
sampled clients selected with this approach yield a low relative entropy with
respect to the global data distribution. Consequently, the FL training becomes
less noisy and significantly improves the convergence of the global model by as
much as 7.4% in some experiments. Furthermore, it also significantly reduces
the communication rounds required to achieve a target accuracy.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
グローバルモデルは、一連のトレーニングラウンドを通じてFLトレーニングプロセスを編成する中央サーバによって維持される。
各ラウンドで、サーバはクライアントプールからクライアントをサンプリングし、さらに最適化するために最新のグローバルモデルパラメータを送信する。
ナイーブサンプリング戦略はランダムクライアントサンプリングを実装し、プライバシの理由からクライアントデータ分布を見積もらない。
そこで本研究では,データプライバシを尊重しつつ,学習した高レベルの特徴に基づいて,クライアントを1回クラスタリングすることで,新たなサンプリング戦略LEFLを提案する。
これにより、サーバは各ラウンドでクラスタ間で階層化されたクライアントサンプリングを実行することができる。
このアプローチで選択されたサンプルクライアントのデータセットは、グローバルデータ分布に対して低い相対エントロピーをもたらす。
その結果、flトレーニングはノイズが少なくなり、いくつかの実験でグローバルモデルの収束率を最大7.4%向上させる。
さらに、目標精度を達成するために必要な通信ラウンドを大幅に削減する。
関連論文リスト
- PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - When to Trust Aggregated Gradients: Addressing Negative Client Sampling
in Federated Learning [41.51682329500003]
本稿では,各ラウンドにおける集約勾配に対するサーバ学習率を調整するための新しい学習率適応機構を提案する。
我々は、最適なサーバ学習率に肯定的な有意義で堅牢な指標を見つけるために、理論的な推論を行う。
論文 参考訳(メタデータ) (2023-01-25T03:52:45Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z) - FedProf: Optimizing Federated Learning with Dynamic Data Profiling [9.74942069718191]
フェデレートラーニング(FL)は、分散データから学ぶためのプライバシ保護ソリューションとして大きな可能性を示している。
クライアントの大多数は、バイアス、ノイズ、あるいは無関係な低品質のデータのみを保有している。
本研究では,データプライバシを侵害することなくFLを最適化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-02T20:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。