論文の概要: Stochastic Hessian Fitting on Lie Group
- arxiv url: http://arxiv.org/abs/2402.11858v1
- Date: Mon, 19 Feb 2024 06:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:18:52.095653
- Title: Stochastic Hessian Fitting on Lie Group
- Title(参考訳): リー群上の確率的ヘッシアンフィッティング
- Authors: Xi-Lin Li
- Abstract要約: 一般的な方法のほとんどを導出するために用いられるヘシアンフィッティング基準を用いて分析を行う。
ヘッセン整合問題は、十分一般のリー群に対して、穏やかな条件下では強く凸であることが示される。
これらの結果は、高速で堅牢で正確なヘッセン推定に依存する2次最適化に有用である。
- 参考スコア(独自算出の注目度): 6.626539885456148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the fitting of Hessian or its inverse with stochastic
Hessian-vector products. A Hessian fitting criterion, which can be used to
derive most of the commonly used methods, e.g., BFGS, Gaussian-Newton, AdaGrad,
etc., is used for the analysis. Our studies reveal different convergence rates
for different Hessian fitting methods, e.g., sublinear rates for gradient
descent in the Euclidean space and a commonly used closed-form solution, linear
rates for gradient descent on the manifold of symmetric positive definite (SPL)
matrices and certain Lie groups. The Hessian fitting problem is further shown
to be strongly convex under mild conditions on a specific yet general enough
Lie group. To confirm our analysis, these methods are tested under different
settings like noisy Hessian-vector products, time varying Hessians, and low
precision arithmetic. These findings are useful for stochastic second order
optimizations that rely on fast, robust and accurate Hessian estimations.
- Abstract(参考訳): 本稿では,ヘシアンあるいはその逆の確率的ヘシアンベクトル生成物との適合性について検討する。
分析には、bfgs、gaussian-newton、adagradなど、一般的に使用される方法のほとんどを導出するために用いられるヘッセン適合基準を用いる。
本研究では, ユークリッド空間における勾配降下のsublinear rate, 一般に用いられる閉形式解, 対称正定値行列(spl) とあるリー群の多様体上の勾配降下の線形率など, 異なるヘッセンフィッティング法に対する収束率の違いを明らかにした。
ヘッセン整合問題は、より穏やかな条件下では十分一般のリー群上で強く凸であることがさらに示される。
これらの手法は, ノイズの多いヘッセンベクトル生成物, 時間変化ヘッセン, 低精度演算など, 異なる条件下で検証される。
これらの結果は、高速でロバストで正確なヘッセン推定に依存する確率的二次最適化に有用である。
関連論文リスト
- ALEXR: An Optimal Single-Loop Algorithm for Convex Finite-Sum Coupled Compositional Stochastic Optimization [53.14532968909759]
ALEXRと呼ばれる,効率的な単ループプリマルデュアルブロックコーディネートアルゴリズムを提案する。
本研究では, ALEXR の凸面および強凸面の収束速度を滑らか性および非滑らか性条件下で確立する。
本稿では,ALEXRの収束速度が,検討されたcFCCO問題に対する1次ブロック座標アルゴリズムの中で最適であることを示すために,より低い複雑性境界を示す。
論文 参考訳(メタデータ) (2023-12-04T19:00:07Z) - Adaptive Step Sizes for Preconditioned Stochastic Gradient Descent [0.3831327965422187]
本稿では,勾配降下(SGD)における適応ステップサイズに対する新しいアプローチを提案する。
我々は、勾配に対するリプシッツ定数と探索方向の局所的分散の概念という、数値的にトレース可能な量を用いる。
論文 参考訳(メタデータ) (2023-11-28T17:03:56Z) - Black Box Lie Group Preconditioners for SGD [13.30021794793606]
勾配降下の収束を加速するために,行列自由および低階近似プレコンディショナーを提案する。
パラメータ更新の学習速度とプレコンディショナリングのステップサイズは自然に正規化され、デフォルト値はほとんどの状況でうまく機能する。
論文 参考訳(メタデータ) (2022-11-08T18:07:08Z) - Adaptive Zeroth-Order Optimisation of Nonconvex Composite Objectives [1.7640556247739623]
ゼロ階エントロピー合成目的のためのアルゴリズムを解析し,次元依存性に着目した。
これは、ミラー降下法と推定類似関数を用いて、決定セットの低次元構造を利用して達成される。
勾配を改善するため、Rademacherに基づく古典的なサンプリング法を置き換え、ミニバッチ法が非ユークリ幾何学に対処することを示す。
論文 参考訳(メタデータ) (2022-08-09T07:36:25Z) - Local Quadratic Convergence of Stochastic Gradient Descent with Adaptive
Step Size [29.15132344744801]
本研究では,行列逆変換などの問題に対して,適応的なステップサイズを持つ勾配勾配の局所収束性を確立する。
これらの一階最適化法は線形あるいは線形収束を実現することができることを示す。
論文 参考訳(メタデータ) (2021-12-30T00:50:30Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Random extrapolation for primal-dual coordinate descent [61.55967255151027]
本稿では,データ行列の疎度と目的関数の好適な構造に適応する,ランダムに外挿した原始-双対座標降下法を提案する。
一般凸凹の場合, 主対差と目的値に対するシーケンスのほぼ確実に収束と最適サブ線形収束率を示す。
論文 参考訳(メタデータ) (2020-07-13T17:39:35Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z) - On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization [80.03647903934723]
我々は、勾配収束法を期待する適応勾配法を証明した。
解析では、非理解勾配境界の最適化において、より適応的な勾配法に光を当てた。
論文 参考訳(メタデータ) (2018-08-16T20:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。