論文の概要: Delayed Projection Techniques for Linearly Constrained Problems:
Convergence Rates, Acceleration, and Applications
- arxiv url: http://arxiv.org/abs/2101.01505v1
- Date: Tue, 5 Jan 2021 13:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:41:47.630226
- Title: Delayed Projection Techniques for Linearly Constrained Problems:
Convergence Rates, Acceleration, and Applications
- Title(参考訳): 線形制約問題に対する遅延射影法:収束速度、加速度、および応用
- Authors: Xiang Li, Zhihua Zhang
- Abstract要約: 線形制約問題(LCP)に対する新しいプロジェクションベースアルゴリズムのクラスについて検討する。
そこで本研究では,射影を一時的に呼び出す遅延射影手法を提案し,射影周波数を下げ,射影効率を向上させる。
強凸, 一般凸のどちらの場合においても, 投射効率を向上させることが可能であることを示す。
- 参考スコア(独自算出の注目度): 24.763531954075656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study a novel class of projection-based algorithms for
linearly constrained problems (LCPs) which have a lot of applications in
statistics, optimization, and machine learning. Conventional primal
gradient-based methods for LCPs call a projection after each (stochastic)
gradient descent, resulting in that the required number of projections equals
that of gradient descents (or total iterations). Motivated by the recent
progress in distributed optimization, we propose the delayed projection
technique that calls a projection once for a while, lowering the projection
frequency and improving the projection efficiency. Accordingly, we devise a
series of stochastic methods for LCPs using the technique, including a variance
reduced method and an accelerated one. We theoretically show that it is
feasible to improve projection efficiency in both strongly convex and generally
convex cases. Our analysis is simple and unified and can be easily extended to
other methods using delayed projections. When applying our new algorithms to
federated optimization, a newfangled and privacy-preserving subfield in
distributed optimization, we obtain not only a variance reduced federated
algorithm with convergence rates better than previous works, but also the first
accelerated method able to handle data heterogeneity inherent in federated
optimization.
- Abstract(参考訳): 本研究では,線形制約問題 (LCP) に対して,統計学,最適化,機械学習に多用した新しいプロジェクションベースアルゴリズムについて検討する。
LCP の従来の原始勾配に基づく手法は、各(確率的な)勾配降下の後に射影を呼ぶので、要求される射影の数は勾配降下(あるいは全反復)のそれと同値である。
近年の分散最適化の進展に動機づけられ,しばらくの間投影を呼び出し,投影周波数を下げ,投影効率を向上させる遅延投影手法を提案する。
そこで,本手法では分散還元法と高速化法を併用し,lcpに対する一連の確率的手法を考案する。
理論上, 凸凸と一般凸の双方において, 投影効率の向上が可能であることを示す。
解析は単純で統一的で,遅延投影を用いて他の手法にも容易に拡張できる。
分散最適化において,新たなアルゴリズムをフェデレーション最適化,新たなフラッグド・プライバシ保存サブフィールドに適用する場合,従来のアルゴリズムよりも収束率の高い分散化フェデレーションアルゴリズムだけでなく,フェデレーション最適化に固有のデータ不均一性を扱うことができる最初の高速化手法も得られる。
関連論文リスト
- Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - Versatile Single-Loop Method for Gradient Estimator: First and Second
Order Optimality, and its Application to Federated Learning [45.78238792836363]
本稿では,SLEDGE (Single-Loop-E Gradient Estimator) という単一ループアルゴリズムを提案する。
既存の手法とは異なり、SLEDGEは、(ii)2階最適、(ii)PL領域における、(iii)少ないデータ以下の複雑さの利点を持つ。
論文 参考訳(メタデータ) (2022-09-01T11:05:26Z) - Sharp Analysis of Sketch-and-Project Methods via a Connection to
Randomized Singular Value Decomposition [14.453949553412821]
本研究では,スケッチ・アンド・プロジェクト手法の収束率の急激な保証を得るための理論的枠組みを開発する。
収束速度はスケッチサイズとともに少なくとも直線的に改善され、データ行列が特定のスペクトル崩壊を示すとさらに高速になることを示す。
我々の実験は、この理論を支持し、非常にスパースなスケッチでさえ、我々のフレームワークによって予測される収束特性を示すことを示した。
論文 参考訳(メタデータ) (2022-08-20T03:11:13Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Projection-Free Adaptive Gradients for Large-Scale Optimization [22.0439695290991]
フランク=ウルフアルゴリズムは、目的から近似した一階情報のみをクエリすることで、両方の計算負担を軽減するため、ユニークな位置を占める。
本手法は,制約付き最適化のための適応アルゴリズムの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-09-29T15:56:12Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。