論文の概要: Stochastic Unrolled Federated Learning
- arxiv url: http://arxiv.org/abs/2305.15371v2
- Date: Tue, 6 Feb 2024 19:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 20:51:16.978842
- Title: Stochastic Unrolled Federated Learning
- Title(参考訳): 確率的未発達連帯学習
- Authors: Samar Hadou, Navid NaderiAlizadeh, and Alejandro Ribeiro
- Abstract要約: 本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
- 参考スコア(独自算出の注目度): 85.6993263983062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithm unrolling has emerged as a learning-based optimization paradigm
that unfolds truncated iterative algorithms in trainable neural-network
optimizers. We introduce Stochastic UnRolled Federated learning (SURF), a
method that expands algorithm unrolling to federated learning in order to
expedite its convergence. Our proposed method tackles two challenges of this
expansion, namely the need to feed whole datasets to the unrolled optimizers to
find a descent direction and the decentralized nature of federated learning. We
circumvent the former challenge by feeding stochastic mini-batches to each
unrolled layer and imposing descent constraints to guarantee its convergence.
We address the latter challenge by unfolding the distributed gradient descent
(DGD) algorithm in a graph neural network (GNN)-based unrolled architecture,
which preserves the decentralized nature of training in federated learning. We
theoretically prove that our proposed unrolled optimizer converges to a
near-optimal region infinitely often. Through extensive numerical experiments,
we also demonstrate the effectiveness of the proposed framework in
collaborative training of image classifiers.
- Abstract(参考訳): アルゴリズムの展開は、学習ベースの最適化パラダイムとして登場し、学習可能なニューラルネットワークオプティマイザで断続的な反復アルゴリズムを展開する。
本研究では,その収束を早めるために,アルゴリズムを連帯学習に拡張する手法である確率的連帯学習(surf)を提案する。
提案手法は,この拡張の2つの課題,すなわち,非学習最適化者にデータセット全体を供給して,学習の降下方向と分散的な性質を見出す必要性に対処する。
我々は,各階層に確率的ミニバッチを供給し,その収束を保証するために降下制約を課すことにより,従来の課題を回避する。
本稿では,分散勾配降下(dgd)アルゴリズムをグラフニューラルネットワーク(gnn)ベースの未ロールアーキテクチャに展開することで,連合学習におけるトレーニングの分散性を維持することで,後者の課題に対処する。
提案したアンロール最適化器がほぼ最適領域に無限に収束することを理論的に証明する。
また,広範な数値実験を通じて,画像分類器の協調学習における提案手法の有効性を実証する。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Asynchronous Distributed Reinforcement Learning for LQR Control via Zeroth-Order Block Coordinate Descent [7.6860514640178]
分散強化学習のための新しいゼロ階最適化アルゴリズムを提案する。
これにより、各エージェントはコンセンサスプロトコルを使わずに、コスト評価を独立してローカル勾配を推定できる。
論文 参考訳(メタデータ) (2021-07-26T18:11:07Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。