論文の概要: PMGT-VR: A decentralized proximal-gradient algorithmic framework with
variance reduction
- arxiv url: http://arxiv.org/abs/2012.15010v1
- Date: Wed, 30 Dec 2020 02:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 05:58:08.583104
- Title: PMGT-VR: A decentralized proximal-gradient algorithmic framework with
variance reduction
- Title(参考訳): PMGT-VR:分散化近位勾配アルゴリズムの分散化
- Authors: Haishan Ye, Wei Xiong, and Tong Zhang
- Abstract要約: PMGT-VR(PMGT-VR)という,分散分散型近位勾配アルゴリズムフレームワークを提案する。
この枠組みに基づくアルゴリズムは,集中型アルゴリズムと同様の収束率が得られることを示す。
我々の知る限り、PMGT-VRは分散合成最適化問題を解く最初の分散還元法である。
- 参考スコア(独自算出の注目度): 23.31283300474047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the decentralized composite optimization problem. We
propose a novel decentralized variance-reduced proximal-gradient algorithmic
framework, called PMGT-VR, which is based on a combination of several
techniques including multi-consensus, gradient tracking, and variance
reduction. The proposed framework relies on an imitation of centralized
algorithms and we demonstrate that algorithms under this framework achieve
convergence rates similar to that of their centralized counterparts. We also
describe and analyze two representative algorithms, PMGT-SAGA and PMGT-LSVRG,
and compare them to existing state-of-the-art proximal algorithms. To the best
of our knowledge, PMGT-VR is the first variance-reduction method that can solve
decentralized composite optimization problems. Numerical experiments are
provided to demonstrate the effectiveness of the proposed algorithms.
- Abstract(参考訳): 本稿では分散複合最適化問題について考察する。
本研究では,マルチコンセンサス,勾配追従,分散低減といった複数の手法を組み合わせたpmgt-vrと呼ばれる分散分散分散分散型近位勾配アルゴリズムフレームワークを提案する。
提案手法は,集中型アルゴリズムの模倣に依拠し,この枠組みに基づくアルゴリズムが集中型アルゴリズムと同様の収束率を達成することを示す。
また、PMGT-SAGAとPMGT-LSVRGの2つの代表アルゴリズムを記述・解析し、それらを既存の最先端近位アルゴリズムと比較する。
我々の知る限り、PMGT-VRは分散合成最適化問題を解く最初の分散還元法である。
提案手法の有効性を示すために数値実験を行った。
関連論文リスト
- First-Order Algorithms for Nonlinear Generalized Nash Equilibrium
Problems [88.58409977434269]
非線形一般化ナッシュ均衡問題(NGNEP)における平衡計算の問題を考える。
我々の貢献は、2次ペナルティ法と拡張ラグランジアン法に基づく2つの単純な一階アルゴリズムフレームワークを提供することである。
これらのアルゴリズムに対する漸近的理論的保証を提供する。
論文 参考訳(メタデータ) (2022-04-07T00:11:05Z) - Optimal Algorithms for Decentralized Stochastic Variational Inequalities [113.43047601775453]
この作業は、ますます重要になるが十分に理解されていない分散的な設定に集中する。
通信と局所的な繰り返しの両方の下位境界を示し、これらの下位境界に一致する最適なアルゴリズムを構築する。
我々のアルゴリズムは、分散化されたケースだけでなく、決定論的で非分散的な文献でも利用できる。
論文 参考訳(メタデータ) (2022-02-06T13:14:02Z) - DESTRESS: Computation-Optimal and Communication-Efficient Decentralized
Nonconvex Finite-Sum Optimization [43.31016937305845]
インターネット・オブ・シング、ネットワークセンシング、自律システム、有限サム最適化のための分散アルゴリズムのためのフェデレーション学習。
非有限サム最適化のためのDecentralized STochastic Recursive MethodDESTRESSを開発した。
詳細な理論的および数値的な比較は、DESTRESSが事前の分散アルゴリズムにより改善されていることを示している。
論文 参考訳(メタデータ) (2021-10-04T03:17:41Z) - A proximal-proximal majorization-minimization algorithm for nonconvex
tuning-free robust regression problems [4.261680642170457]
非回帰問題に対する PMM (proximal-proximal majorization-minimization) アルゴリズムを提案する。
提案アルゴリズムは既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-06-25T15:07:13Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Average-Reward Off-Policy Policy Evaluation with Function Approximation [66.67075551933438]
平均報酬MDPの関数近似によるオフポリシ政策評価を検討する。
ブートストラップは必要であり、オフポリシ学習とFAと一緒に、致命的なトライアドをもたらす。
そこで本研究では,勾配型tdアルゴリズムの成功を再現する2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-08T00:43:04Z) - Smoothed functional-based gradient algorithms for off-policy
reinforcement learning: A non-asymptotic viewpoint [9.734033555407406]
オフポリシ強化学習コンテキストにおける制御の問題を解決するための2つのポリシーグラデーションアルゴリズムを提案する。
どちらのアルゴリズムも、スムース機能(SF)ベースの勾配推定スキームを組み込む。
論文 参考訳(メタデータ) (2021-01-06T17:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。