論文の概要: Convergence Analysis of Homotopy-SGD for non-convex optimization
- arxiv url: http://arxiv.org/abs/2011.10298v1
- Date: Fri, 20 Nov 2020 09:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 06:33:14.080241
- Title: Convergence Analysis of Homotopy-SGD for non-convex optimization
- Title(参考訳): 非凸最適化のためのホモトピーSGDの収束解析
- Authors: Matilde Gargiani and Andrea Zanelli and Quoc Tran-Dinh and Moritz
Diehl and Frank Hutter
- Abstract要約: ホモトピー法とSGDを組み合わせた一階述語アルゴリズム、Gradienty-Stoch Descent (H-SGD)を提案する。
いくつかの仮定の下で、提案した問題の理論的解析を行う。
実験の結果,H-SGDはSGDより優れていた。
- 参考スコア(独自算出の注目度): 43.71213126039448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: First-order stochastic methods for solving large-scale non-convex
optimization problems are widely used in many big-data applications, e.g.
training deep neural networks as well as other complex and potentially
non-convex machine learning models. Their inexpensive iterations generally come
together with slow global convergence rate (mostly sublinear), leading to the
necessity of carrying out a very high number of iterations before the iterates
reach a neighborhood of a minimizer. In this work, we present a first-order
stochastic algorithm based on a combination of homotopy methods and SGD, called
Homotopy-Stochastic Gradient Descent (H-SGD), which finds interesting
connections with some proposed heuristics in the literature, e.g. optimization
by Gaussian continuation, training by diffusion, mollifying networks. Under
some mild assumptions on the problem structure, we conduct a theoretical
analysis of the proposed algorithm. Our analysis shows that, with a
specifically designed scheme for the homotopy parameter, H-SGD enjoys a global
linear rate of convergence to a neighborhood of a minimum while maintaining
fast and inexpensive iterations. Experimental evaluations confirm the
theoretical results and show that H-SGD can outperform standard SGD.
- Abstract(参考訳): 大規模非凸最適化問題を解決する一階確率的手法は、ディープニューラルネットワークのトレーニングや、複雑な非凸機械学習モデルなど、多くのビッグデータアプリケーションで広く使われている。
それらの安価なイテレーションは一般的に、遅いグローバル収束率(主にサブリニア)でまとめられ、イテレーションが最小限の近傍に到達する前に非常に多くのイテレーションを実行する必要がある。
本研究では,ホモトピー法とSGDを組み合わせた一階確率的アルゴリズム,Homotopy-Stochastic Gradient Descent (H-SGD)を提案する。
問題構造に関するいくつかの軽微な仮定の下で,提案アルゴリズムの理論的解析を行う。
H-SGDは, ホモトピーパラメータを特別に設計した手法により, 高速かつ安価な反復を保ちながら, 最小限の近傍に収束する大域的線形率を享受できることを示す。
実験により,H-SGDが標準SGDより優れていることが示された。
関連論文リスト
- Stochastic Variance-Reduced Iterative Hard Thresholding in Graph Sparsity Optimization [0.626226809683956]
グラデーションに基づくグラフ空間幅最適化法として,グラフRG-IHTとグラフSG-IHTの2つの手法を提案する。
我々は,手法が勾配に基づく枠組みを楽しむことを示す理論解析の一般性を示す。
論文 参考訳(メタデータ) (2024-07-24T03:26:26Z) - Diffusion Stochastic Optimization for Min-Max Problems [33.73046548872663]
楽観的勾配法はミニマックス最適化問題に対処するのに有用である。
従来のバージョンでは大きなバッチサイズが必要であり,Samevareps-generativeOGOGと呼ばれる新しい定式化を導入,解析する。
論文 参考訳(メタデータ) (2024-01-26T01:16:59Z) - Max-affine regression via first-order methods [7.12511675782289]
最大アフィンモデルは信号処理と統計学の応用においてユビキタスに現れる。
最大アフィン回帰に対する勾配降下(GD)とミニバッチ勾配降下(SGD)の非漸近収束解析を行った。
論文 参考訳(メタデータ) (2023-08-15T23:46:44Z) - Stochastic Methods in Variational Inequalities: Ergodicity, Bias and
Refinements [19.524063429548278]
Extragradient (SEG) と Gradient Descent Ascent (SGDA) は min-max 最適化と変分不等式問題に対する優越アルゴリズムである。
これらのアルゴリズムに固有の本質的な構造を定量化し定量化するための我々の取り組み。
定数のステップサイズSEG/SGDAを時間同質マルコフ連鎖として再キャストすることにより、大数の第一種法則と中心極限定理を確立する。
論文 参考訳(メタデータ) (2023-06-28T18:50:07Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - On the Convergence of mSGD and AdaGrad for Stochastic Optimization [0.696125353550498]
凸降下(SGD)は、過去10年間に機械学習に大きく開発され、広く応用されてきた。
モーメントベースのSGD(mSGD)や適応的勾配最適化(AdaGrad)など、多くの競合や応用においてSGDよりも優れている修正SGD型アルゴリズムもある。
我々は,機械学習における任意の滑らかな(不可能かもしれない)損失関数に対するmSGDとAdaGradの収束解析に着目する。
論文 参考訳(メタデータ) (2022-01-26T22:02:21Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。