論文の概要: Decentralized Riemannian Gradient Descent on the Stiefel Manifold
- arxiv url: http://arxiv.org/abs/2102.07091v1
- Date: Sun, 14 Feb 2021 07:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 17:22:22.254080
- Title: Decentralized Riemannian Gradient Descent on the Stiefel Manifold
- Title(参考訳): スティーフェル多様体上の分散リーマン勾配の日射
- Authors: Shixiang Chen, Alfredo Garcia, Mingyi Hong, Shahin Shahrampour
- Abstract要約: エージェントのネットワークがStiefel多様体上のグローバル関数を最小化することを目的としている分散非センシアン最適化を考える。
一定の使用条件を満たすために、Stiefel多様体のための分散勾配(DRA)も提案する。
- 参考スコア(独自算出の注目度): 39.750623187256735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a distributed non-convex optimization where a network of agents
aims at minimizing a global function over the Stiefel manifold. The global
function is represented as a finite sum of smooth local functions, where each
local function is associated with one agent and agents communicate with each
other over an undirected connected graph. The problem is non-convex as local
functions are possibly non-convex (but smooth) and the Steifel manifold is a
non-convex set. We present a decentralized Riemannian stochastic gradient
method (DRSGD) with the convergence rate of $\mathcal{O}(1/\sqrt{K})$ to a
stationary point. To have exact convergence with constant stepsize, we also
propose a decentralized Riemannian gradient tracking algorithm (DRGTA) with the
convergence rate of $\mathcal{O}(1/K)$ to a stationary point. We use multi-step
consensus to preserve the iteration in the local (consensus) region. DRGTA is
the first decentralized algorithm with exact convergence for distributed
optimization on Stiefel manifold.
- Abstract(参考訳): エージェントのネットワークが Stiefel 多様体上のグローバル関数を最小化することを目的としている分散非凸最適化を考える。
大域関数は滑らかな局所関数の有限和として表され、各局所関数は1つのエージェントに関連付けられ、エージェントは無向連結グラフ上で互いに通信する。
局所函数はおそらく非凸(しかし滑らかな)であり、ステッフェル多様体は非凸集合であるので、問題は非凸である。
本稿では, 分散リーマン確率勾配法 (DRSGD) を定常点に対して $\mathcal{O}(1/\sqrt{K})$ の収束率で提示する。
定数ステップ化による正確な収束を得るためには、分散リーマン勾配追跡アルゴリズム (DRGTA) を定常点に対して $\mathcal{O}(1/K)$ の収束率で提案する。
我々は、複数段階のコンセンサスを用いて、イテレーションをローカル(コンセンサス)領域に保持する。
DRGTAは、Stiefel多様体上の分散最適化のための正確な収束を持つ最初の分散アルゴリズムである。
関連論文リスト
- Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold [59.73080197971106]
本稿では,最急降下法よりも高速に収束する一階共役最適化法を提案する。
これはスティーフェル多様体上の大域収束を達成することを目的としている。
論文 参考訳(メタデータ) (2023-08-21T08:02:16Z) - Decentralized Weakly Convex Optimization Over the Stiefel Manifold [28.427697270742947]
我々は分散環境でスティーフェル多様体に焦点をあて、$nMn log-1)$のエージェントの連結ネットワークをテストする。
そこで本研究では,nMn log-1 以下の自然ステーションを強制的に強制する分散下位段階法 (DRSM)$ という手法を提案する。
論文 参考訳(メタデータ) (2023-03-31T02:56:23Z) - Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - CEDAS: A Compressed Decentralized Stochastic Gradient Method with Improved Convergence [9.11726703830074]
本稿では,通信制限条件下で分散最適化問題を解くことを検討する。
CEDASと呼ばれる圧縮精密拡散法について述べる。
特に、いつ時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時時
論文 参考訳(メタデータ) (2023-01-14T09:49:15Z) - Convergence Analysis of Nonconvex Distributed Stochastic Zeroth-order
Coordinate Method [3.860616339202303]
本稿では,$ZOn$局所コスト関数の合計により形成されるグローバルコスト関数を最小化する分散非最適化問題について検討する。
エージェントは問題を解くためにzo座標法を近似する。
論文 参考訳(メタデータ) (2021-03-24T03:07:46Z) - Proximal Gradient Descent-Ascent: Variable Convergence under K{\L}
Geometry [49.65455534654459]
有限降下指数パラメータ (GDA) はミニマックス最適化問題の解法として広く応用されている。
本稿では、KL-L型幾何学の収束を研究することにより、そのようなギャップを埋める。
論文 参考訳(メタデータ) (2021-02-09T05:35:53Z) - A Multi-Agent Primal-Dual Strategy for Composite Optimization over
Distributed Features [52.856801164425086]
目的関数を滑らかな局所関数と凸(おそらく非滑らか)結合関数の和とするマルチエージェント共有最適化問題について検討する。
論文 参考訳(メタデータ) (2020-06-15T19:40:24Z) - S-ADDOPT: Decentralized stochastic first-order optimization over
directed graphs [16.96562173221624]
有向ネットワークノード上に分散する関数のスムーズかつ高コストな関数の和を最小化するために,分散凸最適化を提案する。
特に,各ノードに1次オラクルを仮定するtextbftextttS-ADDOPTアルゴリズムを提案する。
崩壊するステップサイズ$mathcalO (1/k)$に対して、textbfttS-ADDOPT が$mathcalO (1/k)$ で正解に達し、その収束はネットワーク非依存であることを示す。
論文 参考訳(メタデータ) (2020-05-15T21:14:22Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。