論文の概要: Decentralized Riemannian natural gradient methods with Kronecker-product
approximations
- arxiv url: http://arxiv.org/abs/2303.09611v1
- Date: Thu, 16 Mar 2023 19:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:36:58.738632
- Title: Decentralized Riemannian natural gradient methods with Kronecker-product
approximations
- Title(参考訳): クロネッカー積近似を用いた分散リーマン自然勾配法
- Authors: Jiang Hu, Kangkang Deng, Na Li, Quanzheng Li
- Abstract要約: 本稿では,分散化多様体最適化問題の解法として,効率的な分散化自然勾配降下法(DRNGD)を提案する。
クロネッカー因子を介して通信を行うことにより、RFIMの高品質な近似を低コストで得ることができる。
- 参考スコア(独自算出の注目度): 11.263837420265594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With a computationally efficient approximation of the second-order
information, natural gradient methods have been successful in solving
large-scale structured optimization problems. We study the natural gradient
methods for the large-scale decentralized optimization problems on Riemannian
manifolds, where the local objective function defined by the local dataset is
of a log-probability type. By utilizing the structure of the Riemannian Fisher
information matrix (RFIM), we present an efficient decentralized Riemannian
natural gradient descent (DRNGD) method. To overcome the communication issue of
the high-dimension RFIM, we consider a class of structured problems for which
the RFIM can be approximated by a Kronecker product of two low-dimension
matrices. By performing the communications over the Kronecker factors, a
high-quality approximation of the RFIM can be obtained in a low cost. We prove
that DRNGD converges to a stationary point with the best-known rate of
$\mathcal{O}(1/K)$. Numerical experiments demonstrate the efficiency of our
proposed method compared with the state-of-the-art ones. To the best of our
knowledge, this is the first Riemannian second-order method for solving
decentralized manifold optimization problems.
- Abstract(参考訳): 2次情報の計算効率のよい近似により、自然勾配法は大規模構造最適化問題を解くのに成功している。
我々はリーマン多様体上の大規模分散最適化問題の自然な勾配法について検討し、局所的データセットで定義される局所目的関数は対数確率型である。
本稿では,リーマンフィッシャー情報行列(rfim)の構造を用いて,効率的な分散リーマン自然勾配降下法(drngd)を提案する。
高次元RFIMの通信問題を克服するために、RFIMを2つの低次元行列のクロネッカー積で近似できる構造的問題を考察する。
クロネッカー因子を介して通信を行うことにより、RFIMの高品質な近似を低コストで得ることができる。
DRNGD は、最もよく知られた$\mathcal{O}(1/K)$ の定常点に収束することを示す。
数値実験により,提案手法の効率を最先端手法と比較した。
我々の知る限りでは、これは分散多様体最適化問題を解く最初のリーマン二階法である。
関連論文リスト
- FORML: A Riemannian Hessian-free Method for Meta-learning on Stiefel Manifolds [4.757859522106933]
本稿では、スティーフェル多様体上の微分の1次近似を用いたヘッセンフリーアプローチを提案する。
本手法は計算負荷とメモリフットプリントを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-28T10:57:30Z) - Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold [59.73080197971106]
本稿では,最急降下法よりも高速に収束する一階共役最適化法を提案する。
これはスティーフェル多様体上の大域収束を達成することを目的としている。
論文 参考訳(メタデータ) (2023-08-21T08:02:16Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - DRSOM: A Dimension Reduced Second-Order Method [13.778619250890406]
信頼的な枠組みの下では,2次法の収束を保ちながら,数方向の情報のみを用いる。
理論的には,この手法は局所収束率と大域収束率が$O(epsilon-3/2)$であり,第1次条件と第2次条件を満たすことを示す。
論文 参考訳(メタデータ) (2022-07-30T13:05:01Z) - First-Order Algorithms for Min-Max Optimization in Geodesic Metric
Spaces [93.35384756718868]
min-maxアルゴリズムはユークリッド設定で解析されている。
指数関数法 (RCEG) が線形速度で最終収束を補正したことを証明した。
論文 参考訳(メタデータ) (2022-06-04T18:53:44Z) - Averaging on the Bures-Wasserstein manifold: dimension-free convergence
of gradient descent [15.136397170510834]
我々は,新たな測地的凸性の結果を証明し,イテレートのより強力な制御,自由収束を実現した。
また, この手法により, 平均化の概念, エントロピック規則化バリセンタ, 幾何中央値の2つの解析が可能となった。
論文 参考訳(メタデータ) (2021-06-16T01:05:19Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Riemannian Stochastic Proximal Gradient Methods for Nonsmooth
Optimization over the Stiefel Manifold [7.257751371276488]
R-ProxSGDとR-ProxSPBは、近位SGDと近位SpiderBoostの一般化である。
R-ProxSPBアルゴリズムは、オンラインの場合で$O(epsilon-3)$ IFOs、有限サムの場合は$O(n+sqrtnepsilon-3)$ IFOsである。
論文 参考訳(メタデータ) (2020-05-03T23:41:35Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。