論文の概要: Federated Conditional Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2310.02524v1
- Date: Wed, 4 Oct 2023 01:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 16:50:36.701428
- Title: Federated Conditional Stochastic Optimization
- Title(参考訳): 条件付き確率最適化
- Authors: Xidong Wu, Jianhui Sun, Zhengmian Hu, Junyi Li, Aidong Zhang, Heng
Huang
- Abstract要約: 条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 110.513884892319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional stochastic optimization has found applications in a wide range of
machine learning tasks, such as invariant learning, AUPRC maximization, and
meta-learning. As the demand for training models with large-scale distributed
data grows in these applications, there is an increasing need for
communication-efficient distributed optimization algorithms, such as federated
learning algorithms. This paper considers the nonconvex conditional stochastic
optimization in federated learning and proposes the first federated conditional
stochastic optimization algorithm (FCSG) with a conditional stochastic gradient
estimator and a momentum-based algorithm (FCSG-M). To match the lower bound
complexity in the single-machine setting, we design an accelerated algorithm
(Acc-FCSG-M) via the variance reduction to achieve the best sample and
communication complexity. Compared with the existing optimization analysis for
MAML in FL, federated conditional stochastic optimization considers the sample
of tasks. Extensive experimental results on various tasks validate the
efficiency of these algorithms.
- Abstract(参考訳): 条件付き確率最適化は、不変学習、AUPRCの最大化、メタ学習など、幅広い機械学習タスクに応用されている。
これらのアプリケーションでは,大規模分散データを用いたトレーニングモデルの需要が増大するにつれて,フェデレート学習アルゴリズムなどの通信効率の高い分散最適化アルゴリズムの必要性が高まっている。
本稿では,非凸条件付き確率最適化をフェデレーション学習において考慮し,条件付き確率勾配推定器と運動量に基づくアルゴリズム(FCSG-M)を用いた最初の条件付き確率最適化アルゴリズム(FCSG)を提案する。
単一マシン設定における低バウンド複雑性に適合するため,分散低減法を用いて高速化アルゴリズム(acc-fcsg-m)を設計し,最適なサンプルと通信の複雑さを達成する。
FLにおけるMAMLの既存の最適化解析と比較すると、フェデレーション条件確率最適化はタスクのサンプルを考える。
様々なタスクに関する広範な実験結果は、これらのアルゴリズムの効率を検証する。
関連論文リスト
- Faster Adaptive Decentralized Learning Algorithms [24.379734053137597]
適応学習と有限サム最適化のための高速分散非分散アルゴリズム(AdaMDOSとAdaMDOF)のクラスを提案する。
いくつかの実験結果から,アルゴリズムの有効性が示された。
論文 参考訳(メタデータ) (2024-08-19T08:05:33Z) - Quantum-Enhanced Simulation-Based Optimization for Newsvendor Problems [5.500172106704342]
古典モンテカルロシミュレーションと比較して量子振幅推定(QAE)の高効率性を利用する。
本研究では,シミュレーションに基づく最適化に量子エンハンスアルゴリズムを用い,NP-hardとして知られる古典ニュース問題の変種を解く。
論文 参考訳(メタデータ) (2024-03-26T05:14:50Z) - Faster Adaptive Momentum-Based Federated Methods for Distributed
Composition Optimization [14.579475552088692]
非分散合成問題の解法として,高速なフェデレート合成最適化アルゴリズム(MFCGDとAdaMFCGD)を提案する。
特に、我々の適応アルゴリズム(AdaMFCGD)は、様々な適応学習率を柔軟に組み込むために統一適応行列を使用する。
論文 参考訳(メタデータ) (2022-11-03T15:17:04Z) - Fast Adaptive Federated Bilevel Optimization [14.579475552088692]
本稿では,分散二レベル最適化問題の解法として,適応型二レベル最適化アルゴリズム(AdaFBiO)を提案する。
AdaFBiOは、統一適応行列を用いて、様々な適応学習率を柔軟に組み込んで、ULおよびLL問題の変数を更新する。
AdaFBiOアルゴリズムの収束解析フレームワークを提供し、$tildeO(epsilon-3)$の複雑さと$tildeO(epsilon-2)$のコミュニケーション複雑さのサンプルが必要であることを証明した。
論文 参考訳(メタデータ) (2022-11-02T13:55:47Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - A Dynamical Systems Approach for Convergence of the Bayesian EM
Algorithm [59.99439951055238]
我々は、(離散時間)リアプノフ安定性理論が、必ずしも勾配ベースではない最適化アルゴリズムの分析(および潜在的な設計)において、いかに強力なツールとして役立つかを示す。
本稿では,不完全データベイズフレームワークにおけるパラメータ推定を,MAP-EM (maximum a reari expectation-maximization) と呼ばれる一般的な最適化アルゴリズムを用いて行うことに着目したML問題について述べる。
高速収束(線形あるいは二次的)が達成され,S&Cアプローチを使わずに発表することが困難であった可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-23T01:34:18Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。