論文の概要: Continuation Path with Linear Convergence Rate
- arxiv url: http://arxiv.org/abs/2112.05104v1
- Date: Thu, 9 Dec 2021 18:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 16:34:24.986579
- Title: Continuation Path with Linear Convergence Rate
- Title(参考訳): 線形収束率による連続経路
- Authors: Eugene Ndiaye and Ichiro Takeuchi
- Abstract要約: 経路追従アルゴリズムは、一連のサブプロブレムを順次解決する合成最適化問題によく用いられる。
本稿では,経路追従アルゴリズムの一次双対解析と,対象問題に対する線形収束率を保証するために,各サブプロブレムがどの程度正確に解けるかを決定する。
スパーシリティ誘導ペナルティによる最適化を考慮し、正規化パラメータに対するアクティブセットの変化を分析する。
- 参考スコア(独自算出の注目度): 18.405645120971496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Path-following algorithms are frequently used in composite optimization
problems where a series of subproblems, with varying regularization
hyperparameters, are solved sequentially. By reusing the previous solutions as
initialization, better convergence speeds have been observed numerically. This
makes it a rather useful heuristic to speed up the execution of optimization
algorithms in machine learning. We present a primal dual analysis of the
path-following algorithm and explore how to design its hyperparameters as well
as determining how accurately each subproblem should be solved to guarantee a
linear convergence rate on a target problem. Furthermore, considering
optimization with a sparsity-inducing penalty, we analyze the change of the
active sets with respect to the regularization parameter. The latter can then
be adaptively calibrated to finely determine the number of features that will
be selected along the solution path. This leads to simple heuristics for
calibrating hyperparameters of active set approaches to reduce their complexity
and improve their execution time.
- Abstract(参考訳): 経路追従アルゴリズムは、様々な正規化ハイパーパラメータを持つ一連のサブプロブレムを順次解く複合最適化問題でよく用いられる。
前の解を初期化として再利用することで、収束速度が向上する。
これにより、機械学習における最適化アルゴリズムの実行をスピードアップするのにかなり有用なヒューリスティックとなる。
本稿では、経路追従アルゴリズムの原始的双対解析を行い、そのハイパーパラメータの設計方法と、対象問題に対する線形収束率を保証するために各部分問題の解法について検討する。
さらに,スパース性誘導ペナルティによる最適化を考慮し,正規化パラメータに対する活性集合の変化を分析する。
後者を適応的に調整して、ソリューションパスに沿って選択される特徴の数を微調整することができる。
これにより、アクティブなセットアプローチのハイパーパラメータをキャリブレーションするための単純なヒューリスティックスが実現され、複雑さを低減し、実行時間を改善する。
関連論文リスト
- Efficient Low-rank Identification via Accelerated Iteratively Reweighted Nuclear Norm Minimization [8.879403568685499]
パラメータの平滑化に適応的な更新戦略を導入する。
この振る舞いは、アルゴリズムを数回繰り返した後に、効果的に問題を解決するものに変えます。
すべてのイテレーションが重要なものであることを保証し、グローバルに提案された実験を証明します。
論文 参考訳(メタデータ) (2024-06-22T02:37:13Z) - A simple uniformly optimal method without line search for convex optimization [9.280355951055865]
パラメータが優先されていない凸最適化問題の解法として最適収束率を得るには,線探索が過剰であることを示す。
滑らかな凸最適化のために最適な$mathcalO (1/k2)$収束率を達成できるAC-FGMと呼ばれる新しい勾配降下型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-16T05:26:03Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Iterative-Free Quantum Approximate Optimization Algorithm Using Neural
Networks [20.051757447006043]
そこで本稿では,ニューラルネットワークを用いて与えられた問題に対して,より優れたパラメータを求めるための実践的手法を提案する。
我々の手法は一貫して収束し、最終結果も最高速である。
論文 参考訳(メタデータ) (2022-08-21T14:05:11Z) - Accelerated nonlinear primal-dual hybrid gradient algorithms with
applications to machine learning [0.0]
原始双対ハイブリッド勾配(PDHG)は、サドル点構造を持つ凸最適化問題をより小さなサブプロブレムに分割する一階法である。
PDHGは、手前の問題に対して微調整されたステップサイズパラメータを必要とする。
我々は,機械学習に関連する幅広い最適化問題に対して,PDHGアルゴリズムの高速化された非線形変種を導入する。
論文 参考訳(メタデータ) (2021-09-24T22:37:10Z) - Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning [87.60600646105696]
内部最適化問題が凸であるが非滑らかである場合の一階法を研究する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
論文 参考訳(メタデータ) (2021-05-04T17:31:28Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。