論文の概要: Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold
- arxiv url: http://arxiv.org/abs/2308.10547v2
- Date: Thu, 22 Feb 2024 02:51:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:52:04.909845
- Title: Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold
- Title(参考訳): スティーフェル多様体上の分散リーマン共役勾配法
- Authors: Jun Chen, Haishan Ye, Mengmeng Wang, Tianxin Huang, Guang Dai, Ivor
W.Tsang, Yong Liu
- Abstract要約: 共役法は、最急降下法よりも高速に収束する重要な一階最適化法であり、その計算コストは二階法よりもはるかに低い。
本稿では、スティーフェル多様体上の大域勾配を最小化する分散共役法を提案する。
- 参考スコア(独自算出の注目度): 59.73080197971106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conjugate gradient method is a crucial first-order optimization method
that generally converges faster than the steepest descent method, and its
computational cost is much lower than the second-order methods. However, while
various types of conjugate gradient methods have been studied in Euclidean
spaces and on Riemannian manifolds, there is little study for those in
distributed scenarios. This paper proposes a decentralized Riemannian conjugate
gradient descent (DRCGD) method that aims at minimizing a global function over
the Stiefel manifold. The optimization problem is distributed among a network
of agents, where each agent is associated with a local function, and the
communication between agents occurs over an undirected connected graph. Since
the Stiefel manifold is a non-convex set, a global function is represented as a
finite sum of possibly non-convex (but smooth) local functions. The proposed
method is free from expensive Riemannian geometric operations such as
retractions, exponential maps, and vector transports, thereby reducing the
computational complexity required by each agent. To the best of our knowledge,
DRCGD is the first decentralized Riemannian conjugate gradient algorithm to
achieve global convergence over the Stiefel manifold.
- Abstract(参考訳): 共役勾配法は、一般に最も急勾配法よりも早く収束する重要な1次最適化法であり、その計算コストは2次法よりもはるかに低い。
しかし、様々な共役勾配法がユークリッド空間やリーマン多様体で研究されているが、分散シナリオでの研究はほとんどない。
本稿では、スティーフェル多様体上の大域関数の最小化を目的とした分散リーマン共役勾配降下法(DRCGD)を提案する。
最適化問題は、各エージェントが局所関数に関連付けられたエージェントのネットワークに分散され、エージェント間の通信は無向連結グラフ上で発生する。
スティーフェル多様体は非凸集合であるため、大域函数はおそらく非凸(しかし滑らかな)局所函数の有限和として表現される。
提案手法は,リトラクション,指数写像,ベクトル輸送などの高価なリーマン幾何学演算を不要とし,各エージェントが必要とする計算複雑性を低減させる。
我々の知る限りでは、dcgdはスティーフェル多様体上の大域収束を達成する最初の分散リーマン共役勾配アルゴリズムである。
関連論文リスト
- FORML: A Riemannian Hessian-free Method for Meta-learning on Stiefel Manifolds [4.757859522106933]
本稿では、スティーフェル多様体上の微分の1次近似を用いたヘッセンフリーアプローチを提案する。
本手法は計算負荷とメモリフットプリントを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-28T10:57:30Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Decentralized Riemannian natural gradient methods with Kronecker-product
approximations [11.263837420265594]
本稿では,分散化多様体最適化問題の解法として,効率的な分散化自然勾配降下法(DRNGD)を提案する。
クロネッカー因子を介して通信を行うことにより、RFIMの高品質な近似を低コストで得ることができる。
論文 参考訳(メタデータ) (2023-03-16T19:36:31Z) - Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - The Dynamics of Riemannian Robbins-Monro Algorithms [101.29301565229265]
本稿では,Robins と Monro のセミナル近似フレームワークを一般化し拡張するリーマンアルゴリズムの族を提案する。
ユークリッドのそれと比較すると、リーマンのアルゴリズムは多様体上の大域線型構造が欠如しているため、はるかに理解されていない。
ユークリッド・ロビンス=モンロスキームの既存の理論を反映し拡張するほぼ確実な収束結果の一般的なテンプレートを提供する。
論文 参考訳(メタデータ) (2022-06-14T12:30:11Z) - Automatic differentiation for Riemannian optimization on low-rank matrix
and tensor-train manifolds [71.94111815357064]
科学計算および機械学習アプリケーションでは、行列およびより一般的な多次元配列(テンソル)は、しばしば低ランク分解の助けを借りて近似することができる。
低ランク近似を見つけるための一般的なツールの1つはリーマン最適化を使うことである。
論文 参考訳(メタデータ) (2021-03-27T19:56:00Z) - Decentralized Riemannian Gradient Descent on the Stiefel Manifold [39.750623187256735]
エージェントのネットワークがStiefel多様体上のグローバル関数を最小化することを目的としている分散非センシアン最適化を考える。
一定の使用条件を満たすために、Stiefel多様体のための分散勾配(DRA)も提案する。
論文 参考訳(メタデータ) (2021-02-14T07:30:23Z) - On the Local Linear Rate of Consensus on the Stiefel Manifold [39.750623187256735]
我々は(連結でない問題に対して)シュティーフェル問題上のシュティーフェル勾配の性質の収束を制限する。
主な課題は、(i)分析のための技術を開発すること、(ii)常にローカルに留まっている状況(例えば、適切なステップサイズと、その下に常にローカルに留まっている状態)を特定することである。
論文 参考訳(メタデータ) (2021-01-22T21:52:38Z) - Riemannian Stochastic Proximal Gradient Methods for Nonsmooth
Optimization over the Stiefel Manifold [7.257751371276488]
R-ProxSGDとR-ProxSPBは、近位SGDと近位SpiderBoostの一般化である。
R-ProxSPBアルゴリズムは、オンラインの場合で$O(epsilon-3)$ IFOs、有限サムの場合は$O(n+sqrtnepsilon-3)$ IFOsである。
論文 参考訳(メタデータ) (2020-05-03T23:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。