論文の概要: Riemannian Lyapunov Optimizer: A Unified Framework for Optimization
- arxiv url: http://arxiv.org/abs/2601.22284v1
- Date: Thu, 29 Jan 2026 20:00:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.039033
- Title: Riemannian Lyapunov Optimizer: A Unified Framework for Optimization
- Title(参考訳): Riemannian Lyapunov Optimizer: 最適化のための統一フレームワーク
- Authors: Yixuan Wang, Omkar Sudhir Patil, Warren E. Dixon,
- Abstract要約: 古典的アルゴリズムを1つの幾何学的枠組みに統一する最適化アルゴリズムのファミリを導入する。
RLOブリッジ制御理論と現代の機械学習最適化により、統一された言語と体系的なツールキットを提供する。
- 参考スコア(独自算出の注目度): 6.493476506951333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Riemannian Lyapunov Optimizers (RLOs), a family of optimization algorithms that unifies classic optimizers within one geometric framework. Unlike heuristic improvements to existing optimizers, RLOs are systematically derived from a novel control-theoretic framework that reinterprets optimization as an extended state discrete-time controlled dynamical system on a Riemannian parameter manifold. Central to this framework is the identification of a Normally Attracting Invariant Manifold (NAIM), which organizes training dynamics into two distinct stages: rapid alignment of the speed state to a target graph, followed by controlled evolution within it. We formalize this by constructing a strict Lyapunov function that certifies convergence to a target manifold. This perspective yields a constructive ``optimizer generator" that not only recovers classic algorithms but enables the principled design of RLOs. We validate our theory via geometric diagnostics and demonstrate that grounding optimizer design in control theory yields state-of-the-art performance in large-scale benchmarks. Overall, RLOs bridge control theory and modern machine learning optimization, providing a unified language and a systematic toolkit for designing stable, effective optimizers.
- Abstract(参考訳): 本稿では,古典最適化アルゴリズムの一群であるRiemannian Lyapunov Optimizers (RLOs)を紹介する。
既存のオプティマイザのヒューリスティックな改善とは異なり、ROOはリーマンパラメータ多様体上の拡張状態離散時間制御力学系として最適化を再解釈する新しい制御理論フレームワークから体系的に派生している。
このフレームワークの中心となるのは、トレーニングダイナミクスを目標グラフへの速度状態の迅速なアライメントと、その内部の制御された進化という、2つの異なる段階に編成する、正規抽出不変多様体(NAIM)の同定である。
対象多様体への収束を証明した厳密なリャプノフ函数を構築してこれを形式化する。
このパースペクティブは、古典的なアルゴリズムを復元するだけでなく、ROOの原理設計を可能にする構成的な ``optimizer generator' を生成する。
幾何学的診断を用いて理論を検証し、制御理論における基底最適化設計が大規模ベンチマークにおける最先端性能をもたらすことを示す。
全体として、RLOのブリッジ制御理論と現代の機械学習最適化は、安定的で効果的なオプティマイザを設計するための統一言語と体系的なツールキットを提供する。
関連論文リスト
- Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - Beyond Heuristics: Globally Optimal Configuration of Implicit Neural Representations [8.864909622103388]
Inlicit Neural Representations (INR) は、信号処理とコンピュータビジョンにおいて、トランスフォーメーションパラダイムとして登場した。
しかし、それらの有効性は最適構成のための原則化された戦略が欠如していることによって制限される。
この研究は、厳密な最適化問題としてINR構成を定式化する最初の統一フレームワークであるOptiINRを紹介する。
論文 参考訳(メタデータ) (2025-09-27T05:45:51Z) - LoRA meets Riemannion: Muon Optimizer for Parametrization-independent Low-Rank Adapters [43.04933165005961]
ローランド適応(LoRA)のための新しいフレームワークを提案する。
LoRAは、固定階多様体上で直接最適化することで、低階アダプタを幾何学的に扱う。
私たちのフレームワークは、これを実現するために3つの重要なコンポーネントを統合しています。
論文 参考訳(メタデータ) (2025-07-16T11:17:12Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Return of the Latent Space COWBOYS: Re-thinking the use of VAEs for Bayesian Optimisation of Structured Spaces [13.38402522324075]
本稿では、生成モデルとガウス過程(GP)を個別にシュロゲートし、単純だが原理化されたベイズ更新規則を介してそれらを結合する分離されたアプローチを提案する。
我々は, 分子最適化問題における高ポテンシャル候補を制約評価予算下で同定する能力を, 分離した手法により向上することを示した。
論文 参考訳(メタデータ) (2025-07-05T05:53:04Z) - Iterate to Accelerate: A Unified Framework for Iterative Reasoning and Feedback Convergence [0.0]
本稿では,Bregmanの発散による非ユークリッド幾何学,高次演算子平均化,適応フィードバック機構を利用した反復推論のための統一的フレームワークを提案する。
我々の分析は、軽度な滑らかさと収縮性仮定の下では、ミラー降下や動的プログラミングのような古典的手法を統一するだけでなく、大規模言語モデルにおける現代の連鎖推論過程も捉えることを証明している。
論文 参考訳(メタデータ) (2025-02-06T05:24:35Z) - Accelerated Federated Learning with Decoupled Adaptive Optimization [53.230515878096426]
フェデレートドラーニング(FL)フレームワークは、クライアント上のトレーニングデータのプライバシを維持しながら、共有モデルを協調的に学習することを可能にする。
近年,SGDM,Adam,AdaGradなどの集中型適応最適化手法をフェデレートした設定に一般化するためのイテレーションが多数実施されている。
本研究は、常微分方程式(ODE)のダイナミクスの観点から、FLの新しい適応最適化手法を開発することを目的としている。
論文 参考訳(メタデータ) (2022-07-14T22:46:43Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。