論文の概要: Federated Learning with Regularized Client Participation
- arxiv url: http://arxiv.org/abs/2302.03662v1
- Date: Tue, 7 Feb 2023 18:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:22:06.009035
- Title: Federated Learning with Regularized Client Participation
- Title(参考訳): 正規化顧客参加による連合学習
- Authors: Grigory Malinovsky, Samuel Horv\'ath, Konstantin Burlachenko, Peter
Richt\'arik
- Abstract要約: Federated Learning(FL)は、複数のクライアントが協力して機械学習タスクを解決する分散機械学習アプローチである。
FLの主な課題の1つは、多くのクライアントがトレーニングプロセスに関与しているときに発生する部分的な参加の問題である。
本稿では,新しい手法を提案し,新しいクライアント参加方式を設計する。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed machine learning approach where
multiple clients work together to solve a machine learning task. One of the key
challenges in FL is the issue of partial participation, which occurs when a
large number of clients are involved in the training process. The traditional
method to address this problem is randomly selecting a subset of clients at
each communication round. In our research, we propose a new technique and
design a novel regularized client participation scheme. Under this scheme, each
client joins the learning process every $R$ communication rounds, which we
refer to as a meta epoch. We have found that this participation scheme leads to
a reduction in the variance caused by client sampling. Combined with the
popular FedAvg algorithm (McMahan et al., 2017), it results in superior rates
under standard assumptions. For instance, the optimization term in our main
convergence bound decreases linearly with the product of the number of
communication rounds and the size of the local dataset of each client, and the
statistical term scales with step size quadratically instead of linearly (the
case for client sampling with replacement), leading to better convergence rate
$\mathcal{O}\left(\frac{1}{T^2}\right)$ compared to
$\mathcal{O}\left(\frac{1}{T}\right)$, where $T$ is the total number of
communication rounds. Furthermore, our results permit arbitrary client
availability as long as each client is available for training once per each
meta epoch.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントが協力して機械学習タスクを解決する分散機械学習アプローチである。
flの重要な課題のひとつは、多数のクライアントがトレーニングプロセスに参加している場合に発生する、部分的な参加の問題である。
この問題に対処する従来の方法は、各通信ラウンドでクライアントのサブセットをランダムに選択することです。
本研究では,新しい手法を提案し,新しい正規化顧客参加方式を設計する。
このスキームの下では、各クライアントは、メタエポックと呼ばれる、R$の通信ラウンド毎に学習プロセスに参加します。
我々は,この参加方式がクライアントサンプリングによるばらつきの低減につながることを見出した。
一般的なFedAvgアルゴリズム(McMahan et al., 2017)と組み合わせると、標準仮定ではより優れたレートが得られる。
For instance, the optimization term in our main convergence bound decreases linearly with the product of the number of communication rounds and the size of the local dataset of each client, and the statistical term scales with step size quadratically instead of linearly (the case for client sampling with replacement), leading to better convergence rate $\mathcal{O}\left(\frac{1}{T^2}\right)$ compared to $\mathcal{O}\left(\frac{1}{T}\right)$, where $T$ is the total number of communication rounds.
さらに,各クライアントがメタエポック毎に1回トレーニングできる限り,任意のクライアントを利用可能とする。
関連論文リスト
- Federated Learning under Periodic Client Participation and Heterogeneous Data: A New Communication-Efficient Algorithm and Analysis [14.98493572536424]
連合学習では、クライアントが常にトレーニングに参加することができると仮定することが一般的であり、実際にはユーザデバイスでは実現不可能である。
最近のフェデレーション学習は、より現実的な参加パターンの下で、サイクリッククライアントの可用性や任意の参加として分析されている。
論文 参考訳(メタデータ) (2024-10-30T15:41:35Z) - $\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning [6.977111770337479]
一発のプライベートアグリゲーション(mathsfOPA$)を導入します。
各クライアントはアグリゲーション毎に1回だけ通信するので、ドロップアウトの管理と動的参加が簡単になる。
$mathsfOPA$は実用的で、最先端のソリューションよりも優れています。
論文 参考訳(メタデータ) (2024-10-29T17:50:11Z) - Cohort Squeeze: Beyond a Single Communication Round per Cohort in Cross-Device Federated Learning [51.560590617691005]
各コホートから「より多くのジュースを抽出できるかどうか」を単一の通信ラウンドでできることよりも検討する。
本手法は,デバイス間通信におけるFLモデルのトレーニングに必要な通信コストを最大74%削減する。
論文 参考訳(メタデータ) (2024-06-03T08:48:49Z) - SPAM: Stochastic Proximal Point Method with Momentum Variance Reduction for Non-convex Cross-Device Federated Learning [48.072207894076556]
デバイス間のトレーニングは、クライアントの数が何十億にも達する、学習のサブフィールドです。
標準アプローチとローカルメソッドは、デバイス間の類似性と同じくらい重要な問題になりがちである。
当社の手法は,同種のデータを持つクライアントの客観的かつ実証的なメリットを必要としない,この種の最初の手法である。
論文 参考訳(メタデータ) (2024-05-30T15:07:30Z) - LEFL: Low Entropy Client Sampling in Federated Learning [6.436397118145477]
Federated Learning(FL)は、複数のクライアントが協力して、プライベートデータを使用して単一のグローバルモデルを最適化する、機械学習パラダイムである。
本稿では,モデルが学習した高レベルの特徴に基づいて,クライアントのクラスタリングを1回行うことで,新たなサンプリング手法LEFLを提案する。
提案手法で選択したサンプルクライアントは,グローバルなデータ分布に対して,相対エントロピーが低いことを示す。
論文 参考訳(メタデータ) (2023-12-29T01:44:20Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Timely Communication in Federated Learning [65.1253801733098]
我々は,パラメータサーバ(PS)が,クラウドサーバにクライアントデータを集中的に格納することなく,$n$クライアントを用いてグローバルモデルを訓練するグローバルラーニングフレームワークを検討する。
提案されたスキームでは、各イテレーションでPSは$m$のクライアントを待ち、現在のモデルを送信する。
各クライアントが経験する情報の平均年齢を見つけ、与えられた$n$の年齢最適値である$m$と$k$を数値的に特徴付ける。
論文 参考訳(メタデータ) (2020-12-31T18:52:08Z) - Optimal Client Sampling for Federated Learning [0.0]
アップデートをマスターノードに伝えることができるクライアントの数を制限する。
各通信ラウンドでは、参加するすべてのクライアントがアップデートを計算しますが、"重要な"アップデートを持つクライアントだけがマスターに通信します。
更新の基準のみを用いて重要度を測定することができ、最適なクライアント参加の式を提供する。
論文 参考訳(メタデータ) (2020-10-26T17:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。