論文の概要: Faster Adaptive Momentum-Based Federated Methods for Distributed
Composition Optimization
- arxiv url: http://arxiv.org/abs/2211.01883v1
- Date: Thu, 3 Nov 2022 15:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 14:29:59.972831
- Title: Faster Adaptive Momentum-Based Federated Methods for Distributed
Composition Optimization
- Title(参考訳): 分散合成最適化のための高速適応運動量ベースフェデレート法
- Authors: Feihu Huang
- Abstract要約: 分散MFCGDとAdaMFCGDという,高速な運動量に基づく合成降下アルゴリズムを開発し,非分散合成問題の解法を提案する。
特に、我々の適応アルゴリズム(AdaMFCGD)は、様々な適応学習率を柔軟に組み込むために統一適応行列を使用する。
- 参考スコア(独自算出の注目度): 14.579475552088692
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Composition optimization recently appears in many machine learning
applications such as meta learning and reinforcement learning. Recently many
composition optimization algorithms have been proposed and studied, however,
few adaptive algorithm considers the composition optimization under the
distributed setting. Meanwhile, the existing distributed composition
optimization methods still suffer from high sample and communication
complexities. In the paper, thus, we develop a class of faster momentum-based
federated compositional gradient descent algorithms (i.e., MFCGD and AdaMFCGD)
to solve the nonconvex distributed composition problems, which builds on the
momentum-based variance reduced and local-SGD techniques. In particular, our
adaptive algorithm (i.e., AdaMFCGD) uses a unified adaptive matrix to flexibly
incorporate various adaptive learning rates. Moreover, we provide a solid
theoretical analysis for our algorithms under non-i.i.d. setting, and prove our
algorithms obtain a lower sample and communication complexities simultaneously
than the existing federated compositional algorithms. Specifically, our
algorithms obtain lower sample complexity of $\tilde{O}(\epsilon^{-3})$ with
lower communication complexity of $\tilde{O}(\epsilon^{-2})$ in finding an
$\epsilon$-stationary point. We conduct the experiments on robust federated
learning and distributed meta learning tasks to demonstrate efficiency of our
algorithms.
- Abstract(参考訳): 合成最適化は最近、メタ学習や強化学習など、多くの機械学習アプリケーションに現れる。
近年,多くの合成最適化アルゴリズムが提案・研究されているが,分散設定下での合成最適化を考える適応アルゴリズムはほとんどない。
一方, 既存の分散構成最適化手法は, 高サンプル化と通信複雑化に苦しむ。
そこで本論文では,運動量に基づく分散分散と局所sgd法に基づく非凸分散合成問題を解くために,より高速な運動量に基づくフェデレーション勾配降下アルゴリズム(mfcgdとadamfcgd)を開発した。
特に,適応型アルゴリズム (adamfcgd) では,適応型行列を用いて様々な適応型学習率を柔軟に組み込む。
さらに,非i.i.d.条件下でのアルゴリズムの強固な理論的解析を行い,既存のフェデレーション合成アルゴリズムよりも低いサンプルと通信の複雑度を同時に得ることを証明した。
特に、我々のアルゴリズムは、$\epsilon$-stationary pointを見つける際に$\tilde{o}(\epsilon^{-3})$のサンプル複雑性と$\tilde{o}(\epsilon^{-2})$の通信複雑さを得る。
我々は,アルゴリズムの効率性を示すために,堅牢なフェデレーション学習と分散メタ学習タスクの実験を行った。
関連論文リスト
- Faster Adaptive Decentralized Learning Algorithms [24.379734053137597]
適応学習と有限サム最適化のための高速分散非分散アルゴリズム(AdaMDOSとAdaMDOF)のクラスを提案する。
いくつかの実験結果から,アルゴリズムの有効性が示された。
論文 参考訳(メタデータ) (2024-08-19T08:05:33Z) - Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Fast Adaptive Federated Bilevel Optimization [14.579475552088692]
本稿では,分散二レベル最適化問題の解法として,適応型二レベル最適化アルゴリズム(AdaFBiO)を提案する。
AdaFBiOは、統一適応行列を用いて、様々な適応学習率を柔軟に組み込んで、ULおよびLL問題の変数を更新する。
AdaFBiOアルゴリズムの収束解析フレームワークを提供し、$tildeO(epsilon-3)$の複雑さと$tildeO(epsilon-2)$のコミュニケーション複雑さのサンプルが必要であることを証明した。
論文 参考訳(メタデータ) (2022-11-02T13:55:47Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。