論文の概要: Adaptive Client Sampling in Federated Learning via Online Learning with
Bandit Feedback
- arxiv url: http://arxiv.org/abs/2112.14332v4
- Date: Wed, 31 May 2023 20:45:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:11:44.050816
- Title: Adaptive Client Sampling in Federated Learning via Online Learning with
Bandit Feedback
- Title(参考訳): バンディットフィードバックを用いたオンライン学習による連合学習における適応的クライアントサンプリング
- Authors: Boxin Zhao, Lingxiao Wang, Mladen Kolar, Ziqi Liu, Zhiqiang Zhang, Jun
Zhou, and Chaochao Chen
- Abstract要約: 統合学習(FL)システムは、トレーニングの各ラウンドに関与するクライアントのサブセットをサンプリングする必要があります。
その重要性にもかかわらず、クライアントを効果的にサンプリングする方法には制限がある。
提案手法は,最適化アルゴリズムの収束速度をいかに向上させるかを示す。
- 参考スコア(独自算出の注目度): 36.05851452151107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the high cost of communication, federated learning (FL) systems need
to sample a subset of clients that are involved in each round of training. As a
result, client sampling plays an important role in FL systems as it affects the
convergence rate of optimization algorithms used to train machine learning
models. Despite its importance, there is limited work on how to sample clients
effectively. In this paper, we cast client sampling as an online learning task
with bandit feedback, which we solve with an online stochastic mirror descent
(OSMD) algorithm designed to minimize the sampling variance. We then
theoretically show how our sampling method can improve the convergence speed of
optimization algorithms. To handle the tuning parameters in OSMD that depend on
the unknown problem parameters, we use the online ensemble method and doubling
trick. We prove a dynamic regret bound relative to any sampling sequence. The
regret bound depends on the total variation of the comparator sequence, which
naturally captures the intrinsic difficulty of the problem. To the best of our
knowledge, these theoretical contributions are new and the proof technique is
of independent interest. Through both synthetic and real data experiments, we
illustrate advantages of the proposed client sampling algorithm over the widely
used uniform sampling and existing online learning based sampling strategies.
The proposed adaptive sampling procedure is applicable beyond the FL problem
studied here and can be used to improve the performance of stochastic
optimization procedures such as stochastic gradient descent and stochastic
coordinate descent.
- Abstract(参考訳): 通信コストが高いため、フェデレーション学習(fl)システムは、各ラウンドのトレーニングに関与しているクライアントのサブセットをサンプリングする必要がある。
その結果、クライアントサンプリングは、機械学習モデルのトレーニングに使用される最適化アルゴリズムの収束率に影響を与えるため、flシステムにおいて重要な役割を果たす。
その重要性にもかかわらず、クライアントを効果的にサンプリングする方法には制限がある。
本稿では,サンプリングの分散を最小化するオンライン確率ミラー降下(OSMD)アルゴリズムを用いて,帯域幅フィードバックを用いたオンライン学習課題としてクライアントサンプリングを行った。
次に,提案手法が最適化アルゴリズムの収束速度をいかに改善するかを理論的に示す。
未知の問題パラメータに依存するOSMDのチューニングパラメータを扱うために,オンラインアンサンブル法と2倍のトリックを用いる。
サンプリングシーケンスに対する動的後悔を証明します。
後悔の束縛は、問題の本質的な難しさを自然に捉えるコンパレータシーケンスの総変分に依存する。
我々の知る限りでは、これらの理論的な貢献は新しいものであり、証明技術は独立した関心事である。
合成データと実データの両方を用いて、広く使用されている一様サンプリングと既存のオンライン学習に基づくサンプリング戦略に対するクライアントサンプリングアルゴリズムの利点を説明する。
提案手法は,ここで検討したfl問題以外にも適用可能であり,確率的勾配降下や確率的座標降下といった確率的最適化手法の性能向上に有用である。
関連論文リスト
- Adaptive Federated Learning in Heterogeneous Wireless Networks with Independent Sampling [15.027267764009052]
Federated Learning (FL)アルゴリズムは、ストラグラー問題に対処し、通信効率を向上させるために、クライアントのランダムなサブセットをサンプリングする。
近年、様々なクライアントサンプリング手法が提案されているが、結合系やデータの不均一性には制限がある。
本稿では,FLのウォールクロック時間を最小限に抑えるため,新たなクライアントサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-02-15T16:51:38Z) - Enhanced Federated Optimization: Adaptive Unbiased Client Sampling with Reduced Variance [37.646655530394604]
Federated Learning(FL)は、ローカルデータを収集することなく、複数のデバイスでグローバルモデルをトレーニングする分散学習パラダイムである。
独立サンプリング手法を用いて,最初の適応型クライアントサンプリング器K-Vibを提案する。
K-Vibは、一連の通信予算の中で、後悔すべき$tildemathcalObig(Nfrac13Tfrac23/Kfrac43big)$の線形スピードアップを達成する。
論文 参考訳(メタデータ) (2023-10-04T10:08:01Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Learning Sampling Distributions for Model Predictive Control [36.82905770866734]
モデル予測制御(MPC)に対するサンプリングに基づくアプローチは、MPCに対する現代のアプローチの基盤となっている。
我々は、学習された分布を最大限に活用できるように、潜在空間における全ての操作を実行することを提案する。
具体的には、学習問題を双方向の最適化として捉え、バックプロパゲーションスルータイムでコントローラをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2022-12-05T20:35:36Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Sampling Through the Lens of Sequential Decision Making [9.101505546901999]
我々はアダプティブ・サンプル・ウィズ・リワード(ASR)と呼ばれる報酬誘導型サンプリング戦略を提案する。
提案手法は,サンプリング過程を最適に調整し,最適性能を実現する。
情報検索とクラスタリングの実証的な結果は、異なるデータセット間でのASRのスーパーブパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-08-17T04:01:29Z) - Tackling System and Statistical Heterogeneity for Federated Learning
with Adaptive Client Sampling [34.187387951367526]
フェデレーテッド・ラーニング(FL)アルゴリズムは、参加者数が大きい場合、通常、各(部分的な参加)の割合をサンプリングする。
最近の研究はFLの収束解析に焦点を当てている。
任意のクライアントサンプリング確率を持つFLアルゴリズムの新しい収束バウンダリを得る。
論文 参考訳(メタデータ) (2021-12-21T14:28:40Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。