論文の概要: FedSTaS: Client Stratification and Client Level Sampling for Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2412.14226v2
- Date: Sun, 29 Dec 2024 19:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:03:04.907219
- Title: FedSTaS: Client Stratification and Client Level Sampling for Efficient Federated Learning
- Title(参考訳): FedSTaS: 効果的なフェデレーション学習のためのクライアント階層化とクライアントレベルのサンプリング
- Authors: Jordan Slessor, Dezheng Kong, Xiaofen Tang, Zheng En Than, Linglong Kong,
- Abstract要約: フェデレートラーニング(FL)は、複数の分散クライアントをまたいだグローバルモデルの協調的なトレーニングを、プライバシ保護の方法で行う。
textitFedSTS と textitFedSampling にインスパイアされたクライアントおよびデータレベルのサンプリング手法である textitFedSTaS を提案する。
textitFedSTaSは、一定回数のトレーニングラウンドにおいて、textitFedSTSよりも高い精度のスコアが得られることを示す実験である。
- 参考スコア(独自算出の注目度): 4.352691575442572
- License:
- Abstract: Federated learning (FL) is a machine learning methodology that involves the collaborative training of a global model across multiple decentralized clients in a privacy-preserving way. Several FL methods are introduced to tackle communication inefficiencies but do not address how to sample participating clients in each round effectively and in a privacy-preserving manner. In this paper, we propose \textit{FedSTaS}, a client and data-level sampling method inspired by \textit{FedSTS} and \textit{FedSampling}. In each federated learning round, \textit{FedSTaS} stratifies clients based on their compressed gradients, re-allocate the number of clients to sample using an optimal Neyman allocation, and sample local data from each participating clients using a data uniform sampling strategy. Experiments on three datasets show that \textit{FedSTaS} can achieve higher accuracy scores than those of \textit{FedSTS} within a fixed number of training rounds.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、複数の分散クライアントをまたいだグローバルモデルの協調的なトレーニングを、プライバシ保護の方法で行う機械学習手法である。
通信不効率に対処するためにいくつかのFL手法が導入されたが、各ラウンドのクライアントを効果的かつプライバシー保護的にサンプリングする方法には対処していない。
本稿では, クライアントおよびデータレベルのサンプリング手法である \textit{FedSTaS} と \textit{FedSampling} を提案する。
それぞれのフェデレート学習ラウンドでは、‘textit{FedSTaS’は、圧縮された勾配に基づいてクライアントを階層化し、最適なNeymanアロケーションを使用してクライアントの数を再配置し、データ均一サンプリング戦略を使用して各参加クライアントのローカルデータをサンプリングする。
3つのデータセットの実験では、一定回数のトレーニングラウンドにおいて、 \textit{FedSTaS} が \textit{FedSTS} よりも高い精度のスコアを達成できることが示されている。
関連論文リスト
- Cohort Squeeze: Beyond a Single Communication Round per Cohort in Cross-Device Federated Learning [51.560590617691005]
各コホートから「より多くのジュースを抽出できるかどうか」を単一の通信ラウンドでできることよりも検討する。
本手法は,デバイス間通信におけるFLモデルのトレーニングに必要な通信コストを最大74%削減する。
論文 参考訳(メタデータ) (2024-06-03T08:48:49Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - LEFL: Low Entropy Client Sampling in Federated Learning [6.436397118145477]
Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
本稿では,モデルが学習した高レベルの特徴に基づいて,クライアントのクラスタリングを1回行うことで,新たなサンプリング手法LEFLを提案する。
提案手法で選択したサンプルクライアントは,グローバルなデータ分布に対して,相対エントロピーが低いことを示す。
論文 参考訳(メタデータ) (2023-12-29T01:44:20Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - When to Trust Aggregated Gradients: Addressing Negative Client Sampling
in Federated Learning [41.51682329500003]
本稿では,各ラウンドにおける集約勾配に対するサーバ学習率を調整するための新しい学習率適応機構を提案する。
我々は、最適なサーバ学習率に肯定的な有意義で堅牢な指標を見つけるために、理論的な推論を行う。
論文 参考訳(メタデータ) (2023-01-25T03:52:45Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - RSCFed: Random Sampling Consensus Federated Semi-supervised Learning [40.998176838813045]
Federated semi-supervised learning (FSSL)は、完全にラベル付けされた、完全にラベル付けされていないクライアントをトレーニングしたり、部分的にラベル付けされたクライアントをトレーニングすることで、グローバルなモデルを導出することを目的としている。
我々は,完全ラベルのクライアント,完全ラベルのクライアント,あるいは部分的にラベル付けされたクライアントのモデル間の不均一な信頼性を考慮して,ランダムサンプリング統合学習(RSCFed)を提案する。
論文 参考訳(メタデータ) (2022-03-26T05:10:44Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。