論文の概要: First-Order Optimization Inspired from Finite-Time Convergent Flows
- arxiv url: http://arxiv.org/abs/2010.02990v3
- Date: Tue, 12 Oct 2021 14:09:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 08:06:23.350558
- Title: First-Order Optimization Inspired from Finite-Time Convergent Flows
- Title(参考訳): 有限時間収束流からの第一次最適化
- Authors: Siqi Zhang, Mouhacine Benosman, Orlando Romero, Anoop Cherian
- Abstract要約: 本稿では, 1次有限時間流に対するオイラー離散化を提案し, 決定論的および決定論的設定において収束を保証する。
次に、提案したアルゴリズムを学術的な例に適用し、深層ニューラルネットワークトレーニングを行い、SVHNデータセット上でそのパフォーマンスを実証的にテストする。
提案手法は,標準最適化法に対してより高速な収束を示す。
- 参考スコア(独自算出の注目度): 26.931390502212825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the performance of two first-order optimization
algorithms, obtained from forward Euler discretization of finite-time
optimization flows. These flows are the rescaled-gradient flow (RGF) and the
signed-gradient flow (SGF), and consist of non-Lipscthiz or discontinuous
dynamical systems that converge locally in finite time to the minima of
gradient-dominated functions. We propose an Euler discretization for these
first-order finite-time flows, and provide convergence guarantees, in the
deterministic and the stochastic setting. We then apply the proposed algorithms
to academic examples, as well as deep neural networks training, where we
empirically test their performances on the SVHN dataset. Our results show that
our schemes demonstrate faster convergences against standard optimization
alternatives.
- Abstract(参考訳): 本稿では,有限時間最適化フローの前方オイラー離散化から得られる2つの一階最適化アルゴリズムの性能について検討する。
これらの流れは、再スケール段階フロー (RGF) と符号段階フロー (SGF) であり、非Lipscthiz あるいは不連続な力学系から成り、有限時間で勾配支配関数のミニマに局所的に収束する。
これらの一階有限時間流に対するオイラー離散化を提案し、決定論的および確率的設定において収束を保証する。
次に、提案したアルゴリズムを学術的な例に適用し、深層ニューラルネットワークトレーニングを行い、SVHNデータセット上でそのパフォーマンスを実証的にテストする。
提案手法は標準最適化代替案に対してより高速に収束することを示す。
関連論文リスト
- Fast Two-Time-Scale Stochastic Gradient Method with Applications in Reinforcement Learning [5.325297567945828]
本稿では,従来の手法よりもはるかに高速な収束を実現する2段階最適化手法を提案する。
提案アルゴリズムは,様々な条件下で特徴付けられ,オンラインサンプルベース手法に特化していることを示す。
論文 参考訳(メタデータ) (2024-05-15T19:03:08Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Generalized Gradient Flows with Provable Fixed-Time Convergence and Fast
Evasion of Non-Degenerate Saddle Points [8.452349885923507]
グラディエントベースの1次凸最適化アルゴリズムは、機械学習タスクを含むさまざまな領域で広く適用可能である。
最適時間の固定時間理論の最近の進歩に触発されて,高速化最適化アルゴリズムを設計するための枠組みを導入する。
非ド・サドル点を許容する関数に対しては、これらのサドル点を避けるのに必要な時間は初期条件すべてに一様有界であることを示す。
論文 参考訳(メタデータ) (2022-12-07T16:36:23Z) - Breaking the Convergence Barrier: Optimization via Fixed-Time Convergent
Flows [4.817429789586127]
本稿では, 固定時間安定力学系の概念に基づいて, 加速を実現するための多言語最適化フレームワークを提案する。
提案手法の高速化された収束特性を,最先端の最適化アルゴリズムに対して様々な数値例で検証する。
論文 参考訳(メタデータ) (2021-12-02T16:04:40Z) - Second-Order Neural ODE Optimizer [11.92713188431164]
微分プログラミングと呼ばれる特定の連続時間OC手法は、同じO(1)メモリコストで高次デリバティブに対して下位のODEを導出するために適用可能であることを示す。
この手法は,壁面時間における1次ベースラインよりもはるかに高速に収束する。
また,ニューラルODEの統合時間や2次フィードバックポリシなど,アーキテクチャの直接的な最適化も実現している。
論文 参考訳(メタデータ) (2021-09-29T02:58:18Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - A Contraction Theory Approach to Optimization Algorithms from
Acceleration Flows [1.90365714903665]
私たちは、適切なODEを設計し、識別するための原則化された方法論を提供するために収縮理論を使用します。
本稿では, ODE の新しいシステム,すなわち Accelerated-Contracting-Nesterov フローを提案する。
注目すべきことに、この流れの単純明示的なオイラー離散化はネステロフ加速度法に対応する。
論文 参考訳(メタデータ) (2021-05-18T21:11:37Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Optimization with Momentum: Dynamical, Control-Theoretic, and Symplectic
Perspectives [97.16266088683061]
この論文は、運動量に基づく最適化アルゴリズムにおいてシンプレクティックな離散化スキームが重要であることを厳格に証明している。
これは加速収束を示すアルゴリズムの特性を提供する。
論文 参考訳(メタデータ) (2020-02-28T00:32:47Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。