論文の概要: Analysis of closed-loop inertial gradient dynamics
- arxiv url: http://arxiv.org/abs/2203.02140v1
- Date: Fri, 4 Mar 2022 05:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 21:36:36.213925
- Title: Analysis of closed-loop inertial gradient dynamics
- Title(参考訳): 閉ループ慣性勾配ダイナミクスの解析
- Authors: Subhransu S. Bhattacharjee and Ian R. Petersen
- Abstract要約: 凸コスト関数に対する閉ループWhiplash勾配勾配アルゴリズムの性能について検討する。
シンプレクティック積分を用いて運動量列の収束を分析し、緩和の概念を導入する。
- 参考スコア(独自算出の注目度): 2.0508733018954843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we analyse the performance of the closed-loop Whiplash
gradient descent algorithm for $L$-smooth convex cost functions. Using
numerical experiments, we study the algorithm's performance for convex cost
functions, for different condition numbers. We analyse the convergence of the
momentum sequence using symplectic integration and introduce the concept of
relaxation sequences which analyses the non-classical character of the whiplash
method. Under the additional assumption of invexity, we establish a
momentum-driven adaptive convergence rate. Furthermore, we introduce an energy
method for predicting the convergence rate with convex cost functions for
closed-loop inertial gradient dynamics, using an integral anchored energy
function and a novel lower bound asymptotic notation, by exploiting the bounded
nature of the solutions. Using this, we establish a polynomial convergence rate
for the whiplash inertial gradient system, for a family of scalar quadratic
cost functions and an exponential rate for a quadratic scalar cost function.
- Abstract(参考訳): 本稿では,l$-smooth 凸コスト関数に対する閉ループホイップラッシュ勾配降下アルゴリズムの性能解析を行う。
数値実験を用いて,異なる条件数に対する凸コスト関数に対するアルゴリズムの性能について検討した。
シンプレクティック積分を用いて運動量列の収束を解析し、ウィップラッシュ法の非古典的性質を解析した緩和列の概念を導入する。
さらなる凸性の仮定の下で、モーメント駆動適応収束速度を確立する。
さらに, 閉ループ慣性勾配ダイナミクスに対する凸コスト関数を用いた収束率を, 積分アンカーエネルギー関数と新しい下界漸近記法を用いて予測するエネルギー法を提案する。
これを用いて, スカラー二次コスト関数の族に対して, ウィップラッシュ慣性勾配系の多項式収束率と二次スカラーコスト関数に対する指数速度を定式化する。
関連論文リスト
- Dynamic Anisotropic Smoothing for Noisy Derivative-Free Optimization [0.0]
雑音のない微分自由最適化のための球平滑化法とガウス平滑化法を拡張した新しいアルゴリズムを提案する。
アルゴリズムはスムーズなカーネルの形状を動的に適応させ、局所最適関数の Hessian を近似する。
論文 参考訳(メタデータ) (2024-05-02T21:04:20Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Shuffling Momentum Gradient Algorithm for Convex Optimization [22.58278411628813]
TheTranart Gradient Descent method (SGD)とその変種は、機械学習やデータサイエンスから有限サム最適化問題を解く方法として選択されている。
本稿では,シャッフル運動量に基づく強設定法の最初の解析を行う。
論文 参考訳(メタデータ) (2024-03-05T18:19:02Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - A Gradient Smoothed Functional Algorithm with Truncated Cauchy Random
Perturbations for Stochastic Optimization [10.820943271350442]
本稿では,雑音の多いコストサンプルに対する期待値であるスムーズな目的関数を最小化するための凸勾配アルゴリズムを提案する。
また,本アルゴリズムは局所最小値への収束を示唆し,レートリリアを回避できることも示している。
論文 参考訳(メタデータ) (2022-07-30T18:50:36Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - A Closed Loop Gradient Descent Algorithm applied to Rosenbrock's
function [0.0]
本稿では,非拘束慣性減衰の勾配降下アルゴリズムとして応用できる勾配系の新しい適応手法を提案する。
また、リアプノフ安定性解析を用いて、連続数値時間バージョンの性能を実証する。
論文 参考訳(メタデータ) (2021-08-29T17:25:24Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Quantized Variational Inference [6.09170287691728]
ELBO最適化のために、量子変分推論が分散自由勾配をいかに生み出すかを示す。
量子化変分推論フレームワークを用いることで、スコア関数と再パラメータ化勾配の両方に高速収束がもたらされることを示す。
論文 参考訳(メタデータ) (2020-11-04T13:22:50Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。