論文の概要: Accelerated Distributed Aggregative Optimization
- arxiv url: http://arxiv.org/abs/2304.08051v1
- Date: Mon, 17 Apr 2023 08:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:03:02.759492
- Title: Accelerated Distributed Aggregative Optimization
- Title(参考訳): 分散集約最適化の高速化
- Authors: Jiaxu Liu, Song Chen, Shengze Cai, Chao Xu
- Abstract要約: 本稿では,分散集約最適化問題の解法として,DAGT-HBとDAGT-NESという2つの新しいアルゴリズムを提案する。
DAGT-HBとDAGT-NESのアルゴリズムは、大域的な$mathbfR-$linear収束率で最適解に収束できる。
- 参考スコア(独自算出の注目度): 5.5491171448159715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate a distributed aggregative optimization problem
in a network, where each agent has its own local cost function which depends
not only on the local state variable but also on an aggregated function of
state variables from all agents. To accelerate the optimization process, we
combine heavy ball and Nesterov's accelerated methods with distributed
aggregative gradient tracking, and propose two novel algorithms named DAGT-HB
and DAGT-NES for solving the distributed aggregative optimization problem. We
analyse that the DAGT-HB and DAGT-NES algorithms can converge to an optimal
solution at a global $\mathbf{R}-$linear convergence rate when the objective
function is smooth and strongly convex, and when the parameters (e.g., step
size and momentum coefficients) are selected within certain ranges. A numerical
experiment on the optimal placement problem is given to verify the
effectiveness and superiority of our proposed algorithms.
- Abstract(参考訳): 本稿では,各エージェントがローカル状態変数だけでなく,各エージェントからの状態変数の集約関数にも依存する独自のローカルコスト関数を持つネットワークにおける分散集約最適化問題について検討する。
最適化プロセスの高速化のために,重ボールとネステロフの高速化手法を分散凝集度追跡と組み合わせ,分散凝集度最適化問題の解法として DAGT-HB と DAGT-NES という2つの新しいアルゴリズムを提案する。
dagt-hb と dagt-nes のアルゴリズムは、対象関数が滑らかで強い凸であり、パラメータ(ステップサイズや運動量係数など)が一定の範囲で選択された場合、大域的な $\mathbf{r}-$linear 収束率で最適解に収束できることを解析する。
提案アルゴリズムの有効性と優位性を検証するため,最適配置問題に関する数値実験を行った。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Quantization-Based Optimization: Alternative Stochastic Approximation of
Global Optimization [0.0]
NP-hard問題における目的関数のエネルギーレベルを定量化するための大域的最適化アルゴリズムを提案する。
数値実験により,提案アルゴリズムはNP-ハード最適化問題の解法において従来の学習法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-08T03:01:45Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - On Accelerating Distributed Convex Optimizations [0.0]
本稿では,分散マルチエージェント凸最適化問題について検討する。
提案アルゴリズムは, 従来の勾配偏光法よりも収束率を向上し, 線形収束することを示す。
実ロジスティック回帰問題の解法として,従来の分散アルゴリズムと比較して,アルゴリズムの性能が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-19T13:19:54Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - The Role of Momentum Parameters in the Optimal Convergence of Adaptive
Polyak's Heavy-ball Methods [12.93796690939018]
適応型Polyak's Heavy-ball (HB) 法は最適な個人収束率を$O(frac1sqrtt)$とする。
新しい解析では,hb運動量とその時間的変動が凸最適化の高速化にどのように役立つかを示す。
論文 参考訳(メタデータ) (2021-02-15T02:57:14Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - GTAdam: Gradient Tracking with Adaptive Momentum for Distributed Online
Optimization [4.103281325880475]
本稿では、中央コーディネータを使わずに、局所的な計算と通信によって、オンライン最適化問題を分散的に解決することを目的とした、計算機エージェントのネットワークを扱う。
本稿では,適応運動量推定法(GTAdam)を用いた勾配追従法と,勾配の1次および2次運動量推定法を組み合わせた勾配追従法を提案する。
マルチエージェント学習によるこれらの数値実験では、GTAdamは最先端の分散最適化手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-03T15:20:21Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。