論文の概要: Mirror Descent on Riemannian Manifolds
- arxiv url: http://arxiv.org/abs/2603.17527v1
- Date: Wed, 18 Mar 2026 09:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.605798
- Title: Mirror Descent on Riemannian Manifolds
- Title(参考訳): リーマン多様体の鏡像
- Authors: Jiaxin Jiang, Lei Shi, Jiyuan Tan,
- Abstract要約: Mirror Descent (MD) は大規模最適化に広く用いられているスケーラブルな一階法である。
本稿では、MDをリーマン多様体上の最適化に一般化する。
スティーフェル多様体への応用として、[26]で提案されたCurvilinear Gradient Descent (CGD) 法に還元される。
- 参考スコア(独自算出の注目度): 4.848888710697387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mirror Descent (MD) is a scalable first-order method widely used in large-scale optimization, with applications in image processing, policy optimization, and neural network training. This paper generalizes MD to optimization on Riemannian manifolds. In particular, we develop a Riemannian Mirror Descent (RMD) framework via reparameterization and further propose a stochastic variant of RMD. We also establish non-asymptotic convergence guarantees for both RMD and stochastic RMD. As an application to the Stiefel manifold, our RMD framework reduces to the Curvilinear Gradient Descent (CGD) method proposed in [26]. Moreover, when specializing the stochastic RMD framework to the Stiefel setting, we obtain a stochastic extension of CGD, which effectively addresses large-scale manifold optimization problems.
- Abstract(参考訳): Mirror Descent (MD) は大規模最適化で広く使われているスケーラブルな一階法であり、画像処理、ポリシー最適化、ニューラルネットワークトレーニングに応用されている。
本稿では、MDをリーマン多様体上の最適化に一般化する。
特に,リパラメトリゼーションによるRiemannian Mirror Descent (RMD) フレームワークを開発し,さらにRMDの確率的変種を提案する。
また, RMD と確率的 RMD の双方に対して非漸近収束を保証する。
スティーフェル多様体への応用として、我々の RMD フレームワークは [26] で提案された Curvilinear Gradient Descent (CGD) 法に還元される。
さらに、Stiefel の設定に確率的 RMD フレームワークを特化する場合、大規模多様体最適化問題に効果的に対処する CGD の確率的拡張が得られる。
関連論文リスト
- LoRA meets Riemannion: Muon Optimizer for Parametrization-independent Low-Rank Adapters [43.04933165005961]
ローランド適応(LoRA)のための新しいフレームワークを提案する。
LoRAは、固定階多様体上で直接最適化することで、低階アダプタを幾何学的に扱う。
私たちのフレームワークは、これを実現するために3つの重要なコンポーネントを統合しています。
論文 参考訳(メタデータ) (2025-07-16T11:17:12Z) - Riemannian Optimization on Relaxed Indicator Matrix Manifold [83.13494760649874]
インジケータ行列は機械学習において重要な役割を果たすが、最適化はNPハード問題である。
我々は、指標行列の新たな緩和を提案し、この緩和が多様体を形成することを証明し、それをRelaxed Indicator Matrix Manifold (RIM manifold) と呼ぶ。
測地学を得るための高速な測地法を含む,いくつかのリトラクション法を提案する。
論文 参考訳(メタデータ) (2025-03-26T12:45:52Z) - RMLR: Extending Multinomial Logistic Regression into General Geometries [64.16104856124029]
我々のフレームワークは、最小限の幾何学的性質しか必要とせず、広い適用性を示す。
SPD MLRの5つのファミリーを5種類のパワー変形測定値に基づいて開発する。
回転行列上では、人気のある双不変計量に基づいてリー MLR を提案する。
論文 参考訳(メタデータ) (2024-09-28T18:38:21Z) - Streamlining in the Riemannian Realm: Efficient Riemannian Optimization
with Loopless Variance Reduction [4.578425862931332]
本研究はユークリッドとリーマンの設定の両方で用いられる決定的な還元機構に焦点を当てる。
ユークリッド法により動機付け, コインフリップによって引き起こされる計算で外ループを置換するR法を導入する。
フレームワークとしてR-を用いることで、様々な重要な設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:49:37Z) - FORML: A Riemannian Hessian-free Method for Meta-learning on Stiefel Manifolds [4.757859522106933]
本稿では、スティーフェル多様体上の微分の1次近似を用いたヘッセンフリーアプローチを提案する。
本手法は計算負荷とメモリフットプリントを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-28T10:57:30Z) - Adaptive Log-Euclidean Metrics for SPD Matrix Learning [73.12655932115881]
広く使われているログユークリッド計量(LEM)を拡張した適応ログユークリッド計量(ALEM)を提案する。
実験および理論的結果から,SPDニューラルネットワークの性能向上における提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-26T18:31:52Z) - Hedging Complexity in Generalization via a Parametric Distributionally
Robust Optimization Framework [18.6306170209029]
経験的リスク最小化(ERM)と分散ロバスト最適化(DRO)は最適化問題の解法として一般的な手法である。
本稿では,パラメトリックな分布系列を用いて乱摂動分布を近似する簡単な手法を提案する。
この新たな誤差源は適切なDRO定式化によって制御可能であることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。