論文の概要: Federated Learning with a Sampling Algorithm under Isoperimetry
- arxiv url: http://arxiv.org/abs/2206.00920v1
- Date: Thu, 2 Jun 2022 08:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 23:12:18.248177
- Title: Federated Learning with a Sampling Algorithm under Isoperimetry
- Title(参考訳): Isoperimetry 下のサンプリングアルゴリズムによるフェデレーション学習
- Authors: Lukang Sun, Adil Salim, Peter Richt\'arik
- Abstract要約: フェデレーション学習は、機械学習アルゴリズムのトレーニングを複数のデバイスに効率的に分散するために、一連のテクニックを使用する。
本稿では,Langevinvin のサンプル Aafteri の通信効率のよい変種を提案する。
- 参考スコア(独自算出の注目度): 9.990687944474738
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning uses a set of techniques to efficiently distribute the
training of a machine learning algorithm across several devices, who own the
training data. These techniques critically rely on reducing the communication
cost -- the main bottleneck -- between the devices and a central server.
Federated learning algorithms usually take an optimization approach: they are
algorithms for minimizing the training loss subject to communication (and
other) constraints. In this work, we instead take a Bayesian approach for the
training task, and propose a communication-efficient variant of the Langevin
algorithm to sample a posteriori. The latter approach is more robust and
provides more knowledge of the \textit{a posteriori} distribution than its
optimization counterpart. We analyze our algorithm without assuming that the
target distribution is strongly log-concave. Instead, we assume the weaker log
Sobolev inequality, which allows for nonconvexity.
- Abstract(参考訳): フェデレーション学習は、トレーニングデータを所有している複数のデバイスに機械学習アルゴリズムのトレーニングを効率的に分散するために、一連のテクニックを使用する。
これらのテクニックは、デバイスと中央サーバ間の通信コスト - 主なボトルネック -- を削減することに依存している。
フェデレーション学習アルゴリズムは通常、コミュニケーション(および他の)制約によるトレーニング損失を最小限にするためのアルゴリズムである。
そこで本研究では,学習課題に対してベイズ的アプローチを採り入れ,Langevinアルゴリズムの通信効率のよい変種を提案する。
後者のアプローチはより強固で、最適化よりも \textit{a posteriori} 分布に関する知識を提供する。
対象の分布が強く対数凹であると考えることなく,アルゴリズムを解析する。
代わりに、非凸性を可能にするより弱い対数ソボレフ不等式を仮定する。
関連論文リスト
- Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - Online Distributed Learning with Quantized Finite-Time Coordination [0.4910937238451484]
私たちの設定では、エージェントのセットは、ストリーミングデータから学習モデルを協調的にトレーニングする必要があります。
本稿では,量子化された有限時間協調プロトコルに依存する分散アルゴリズムを提案する。
提案アルゴリズムの性能を,オンラインソリューションからの平均距離の観点から解析する。
論文 参考訳(メタデータ) (2023-07-13T08:36:15Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Robust Deep Learning as Optimal Control: Insights and Convergence
Guarantees [19.28405674700399]
訓練中の敵の例は、敵の攻撃に対する一般的な防御メカニズムです。
min-max問題を最適制御問題として解釈することにより、ニューラルネットワークの構成構造を活用できることが示されている。
本稿では、ロバストな最適制御の手法と、最適化における不正確な手法を組み合わせて、この逆学習アルゴリズムの最初の収束解析を行う。
論文 参考訳(メタデータ) (2020-05-01T21:26:38Z) - Gradient tracking and variance reduction for decentralized optimization
and machine learning [19.54092620537586]
有限サム問題の解法は、多くの信号処理や機械学習タスクにおいて重要である。
分散還元と勾配追跡を組み合わせ、堅牢な性能を実現するための統一的なアルゴリズムフレームワークを提供する。
論文 参考訳(メタデータ) (2020-02-13T07:17:07Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。