論文の概要: On the Convergence of Consensus Algorithms with Markovian Noise and
Gradient Bias
- arxiv url: http://arxiv.org/abs/2008.07841v3
- Date: Thu, 5 Nov 2020 14:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:56:06.740087
- Title: On the Convergence of Consensus Algorithms with Markovian Noise and
Gradient Bias
- Title(参考訳): マルコフ雑音と勾配バイアスによるコンセンサスアルゴリズムの収束について
- Authors: Hoi-To Wai
- Abstract要約: 本稿では,分散近似(SA)方式に対する有限時間収束解析を提案する。
このスキームは、分散機械学習とマルチ強化学習のためのいくつかのアルゴリズムを一般化する。
- 参考スコア(独自算出の注目度): 25.775517797956237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a finite time convergence analysis for a decentralized
stochastic approximation (SA) scheme. The scheme generalizes several algorithms
for decentralized machine learning and multi-agent reinforcement learning. Our
proof technique involves separating the iterates into their respective
consensual parts and consensus error. The consensus error is bounded in terms
of the stationarity of the consensual part, while the updates of the consensual
part can be analyzed as a perturbed SA scheme. Under the Markovian noise and
time varying communication graph assumptions, the decentralized SA scheme has
an expected convergence rate of ${\cal O}(\log T/ \sqrt{T} )$, where $T$ is the
iteration number, in terms of squared norms of gradient for nonlinear SA with
smooth but non-convex cost function. This rate is comparable to the best known
performances of SA in a centralized setting with a non-convex potential
function.
- Abstract(参考訳): 本稿では,分散確率近似(SA)方式に対する有限時間収束解析を提案する。
このスキームは分散機械学習とマルチエージェント強化学習のためのいくつかのアルゴリズムを一般化する。
提案手法は,反復音を各合意部分とコンセンサス誤差に分割することを含む。
コンセンサス誤差は、コンセンサス部分の定常性の観点から制限され、コンセンサス部分の更新は摂動saスキームとして分析することができる。
マルコフ雑音と時間変化の通信グラフの仮定の下で、分散saスキームは、滑らかだが非凸なコスト関数を持つ非線形saの勾配の2乗ノルムの観点から、t$が反復数である、${\cal o}(\log t/ \sqrt{t} )$の期待収束率を持つ。
この値は、非凸ポテンシャル関数を持つ集中的な設定におけるSAの最もよく知られた性能に匹敵する。
関連論文リスト
- Stochastic Approximation with Delayed Updates: Finite-Time Rates under Markovian Sampling [73.5602474095954]
マルコフサンプリングの遅延更新による近似スキームの非漸近的性能について検討した。
我々の理論的な発見は、幅広いアルゴリズムの遅延の有限時間効果に光を当てた。
論文 参考訳(メタデータ) (2024-02-19T03:08:02Z) - Convergence Analysis of Decentralized ASGD [1.8710230264817358]
本稿では,ノード間の部分同期や制限的ネットワークトポロジを必要としない分散非同期SGD(DASGD)に対する新しい収束速度解析法を提案する。
我々の収束証明は、固定段数と任意の非滑らかで同質でL字型の目的函数を仮定する。
論文 参考訳(メタデータ) (2023-09-07T14:50:31Z) - Finite-Time Analysis of Fully Decentralized Single-Timescale
Actor-Critic [4.94128206910124]
本稿では,アクタ,批評家,グローバル報酬推定器を交互に更新する,完全に分散化されたアクタ・クリティカル(AC)アルゴリズムを提案する。
このアルゴリズムは,Markovian サンプリングにおいて $tildemathcalO(epsilon-2)$ のサンプル複雑性を持つことを示す。
また、我々のアルゴリズムのローカルアクションプライバシ保護バージョンとその分析も提供する。
論文 参考訳(メタデータ) (2022-06-12T13:14:14Z) - DASHA: Distributed Nonconvex Optimization with Communication
Compression, Optimal Oracle Complexity, and No Client Synchronization [77.34726150561087]
我々は,分散最適化問題に対する新しい手法であるDASHAを開発し,解析する。
MARINAとは異なり、新しいDASHAとDASHA-MVRは圧縮ベクターのみを送信し、ノードを同期しないため、学習をより実用的なものにしている。
論文 参考訳(メタデータ) (2022-02-02T20:10:40Z) - Acceleration in Distributed Optimization Under Similarity [72.54787082152278]
集中ノードを持たないエージェントネットワーク上での分散(強い凸)最適化問題について検討する。
$varepsilon$-solutionは$tildemathcalrhoObig(sqrtfracbeta/mu (1-)log1/varepsilonbig)$通信ステップ数で達成される。
この速度は、関心のクラスに適用される分散ゴシップ-アルゴリズムの、初めて(ポリログ因子まで)より低い複雑性の通信境界と一致する。
論文 参考訳(メタデータ) (2021-10-24T04:03:00Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Convergence Analysis of Nonconvex Distributed Stochastic Zeroth-order
Coordinate Method [3.860616339202303]
本稿では,$ZOn$局所コスト関数の合計により形成されるグローバルコスト関数を最小化する分散非最適化問題について検討する。
エージェントは問題を解くためにzo座標法を近似する。
論文 参考訳(メタデータ) (2021-03-24T03:07:46Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z) - Sample Complexity Bounds for Two Timescale Value-based Reinforcement
Learning Algorithms [65.09383385484007]
2つの時間スケール近似(SA)は、値に基づく強化学習アルゴリズムで広く使われている。
本稿では,2つの時間スケール線形および非線形TDCとGreedy-GQアルゴリズムの漸近収束率について検討する。
論文 参考訳(メタデータ) (2020-11-10T11:36:30Z) - Non-asymptotic Convergence of Adam-type Reinforcement Learning
Algorithms under Markovian Sampling [56.394284787780364]
本稿では、ポリシー勾配(PG)と時間差(TD)学習の2つの基本RLアルゴリズムに対して、最初の理論的収束解析を行う。
一般の非線形関数近似の下では、PG-AMSGradは定常点の近傍に収束し、$mathcalO(log T/sqrtT)$である。
線形関数近似の下では、一定段階のTD-AMSGradは$mathcalO(log T/sqrtT)の速度で大域的最適化の近傍に収束する。
論文 参考訳(メタデータ) (2020-02-15T00:26:49Z) - Finite Time Analysis of Linear Two-timescale Stochastic Approximation
with Markovian Noise [28.891930079358954]
線形2時間スケールSAスキームに対して有限時間解析を行う。
我々の境界はマルコフ音とマルティンゲール音の収束速度に差がないことを示している。
一致した下界を持つ予測誤差の拡張を示す。
論文 参考訳(メタデータ) (2020-02-04T13:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。