論文の概要: Linear Convergence of Distributed Mirror Descent with Integral Feedback
for Strongly Convex Problems
- arxiv url: http://arxiv.org/abs/2011.12233v1
- Date: Tue, 24 Nov 2020 17:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:30:09.107182
- Title: Linear Convergence of Distributed Mirror Descent with Integral Feedback
for Strongly Convex Problems
- Title(参考訳): 強い凸問題に対する積分フィードバックを用いた分散ミラーの線形収束
- Authors: Youbang Sun, Shahin Shahrampour
- Abstract要約: 本研究では,局所的な勾配情報を用いて最適解に収束する連続時間分散ミラー降下法について検討する。
アルゴリズムが実際に(局所的な)指数収束を達成することを証明している。
- 参考スコア(独自算出の注目度): 11.498089180181365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed optimization often requires finding the minimum of a global
objective function written as a sum of local functions. A group of agents work
collectively to minimize the global function. We study a continuous-time
decentralized mirror descent algorithm that uses purely local gradient
information to converge to the global optimal solution. The algorithm enforces
consensus among agents using the idea of integral feedback. Recently, Sun and
Shahrampour (2020) studied the asymptotic convergence of this algorithm for
when the global function is strongly convex but local functions are convex.
Using control theory tools, in this work, we prove that the algorithm indeed
achieves (local) exponential convergence. We also provide a numerical
experiment on a real data-set as a validation of the convergence speed of our
algorithm.
- Abstract(参考訳): 分散最適化は、しばしば局所関数の和として書かれたグローバル目的関数の最小値を見つける必要がある。
エージェントのグループは、グローバル関数を最小化するために一括して働く。
本研究では,局所勾配情報を用いて最適解に収束する連続時間分散ミラー降下アルゴリズムについて検討する。
このアルゴリズムは、積分フィードバックの概念を用いてエージェント間のコンセンサスを強制する。
sun と shahrampour (2020) は、大域関数が強凸であるが局所関数が凸である場合のこのアルゴリズムの漸近収束を研究した。
本研究では,制御理論ツールを用いて,このアルゴリズムが(局所的な)指数収束を実現することを証明している。
また,アルゴリズムの収束速度の検証として,実データ集合に関する数値実験を行った。
関連論文リスト
- Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold [59.73080197971106]
本稿では,最急降下法よりも高速に収束する一階共役最適化法を提案する。
これはスティーフェル多様体上の大域収束を達成することを目的としている。
論文 参考訳(メタデータ) (2023-08-21T08:02:16Z) - Sample Complexity for Quadratic Bandits: Hessian Dependent Bounds and
Optimal Algorithms [64.10576998630981]
最適なヘッセン依存型サンプルの複雑さを, 初めて厳密に評価した。
ヘシアン非依存のアルゴリズムは、すべてのヘシアンインスタンスに対して最適なサンプル複雑さを普遍的に達成する。
本アルゴリズムにより得られたサンプルの最適複雑さは,重み付き雑音分布においても有効である。
論文 参考訳(メタデータ) (2023-06-21T17:03:22Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - A Granular Sieving Algorithm for Deterministic Global Optimization [6.01919376499018]
リプシッツ連続関数に対する大域的最適化問題を解くために、勾配のない決定論的手法を開発した。
この方法は、目的関数の領域と範囲の両方で同期解析を行うグラニュラーシービングとみなすことができる。
論文 参考訳(メタデータ) (2021-07-14T10:03:03Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Distributed Mirror Descent with Integral Feedback: Asymptotic
Convergence Analysis of Continuous-time Dynamics [11.498089180181365]
この作業は分散最適化に対処し、エージェントのネットワークは、大域的に凸な目的関数を最小化しようとする。
本稿では,局所的な情報を用いてグローバルな最適値に収束する連続時間分散ミラー降下法を提案する。
論文 参考訳(メタデータ) (2020-09-14T21:11:42Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - A Multi-Agent Primal-Dual Strategy for Composite Optimization over
Distributed Features [52.856801164425086]
目的関数を滑らかな局所関数と凸(おそらく非滑らか)結合関数の和とするマルチエージェント共有最適化問題について検討する。
論文 参考訳(メタデータ) (2020-06-15T19:40:24Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。