論文の概要: Value Function Based Difference-of-Convex Algorithm for Bilevel
Hyperparameter Selection Problems
- arxiv url: http://arxiv.org/abs/2206.05976v1
- Date: Mon, 13 Jun 2022 08:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:55:32.927820
- Title: Value Function Based Difference-of-Convex Algorithm for Bilevel
Hyperparameter Selection Problems
- Title(参考訳): 値関数に基づく二値ハイパーパラメータ選択問題に対する差分凸アルゴリズム
- Authors: Lucy Gao, Jane J. Ye, Haian Yin, Shangzhi Zeng, Jin Zhang
- Abstract要約: 不確定性(VF-iDCA)を有する逐次収束値に基づく差分関数アルゴリズムを開発する。
実験の結果,提案したVF-iDCAはハイパーパラメータのチューニングに際し,優れた性能を示すことがわかった。
- 参考スコア(独自算出の注目度): 5.940592509070767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient-based optimization methods for hyperparameter tuning guarantee
theoretical convergence to stationary solutions when for fixed upper-level
variable values, the lower level of the bilevel program is strongly convex
(LLSC) and smooth (LLS). This condition is not satisfied for bilevel programs
arising from tuning hyperparameters in many machine learning algorithms. In
this work, we develop a sequentially convergent Value Function based
Difference-of-Convex Algorithm with inexactness (VF-iDCA). We show that this
algorithm achieves stationary solutions without LLSC and LLS assumptions for
bilevel programs from a broad class of hyperparameter tuning applications. Our
extensive experiments confirm our theoretical findings and show that the
proposed VF-iDCA yields superior performance when applied to tune
hyperparameters.
- Abstract(参考訳): 超パラメータチューニングのための勾配に基づく最適化手法は、固定上層変数値に対して、両レベルプログラムの下位レベルが強い凸(LLSC)と滑らか(LLS)であるときに、定常解に対する理論的収束を保証する。
この条件は多くの機械学習アルゴリズムのハイパーパラメータのチューニングから生じるバイレベルプログラムでは満足できない。
本研究では, 逐次収束型値関数に基づく差分凸アルゴリズム(VF-iDCA)を開発した。
このアルゴリズムは,多種多様なハイパーパラメータチューニングアプリケーションから,LLSCやLSSの仮定を伴わない定常解を実現する。
提案したVF-iDCAは,過度パラメータを調整した場合に優れた性能を示す。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Moreau Envelope Based Difference-of-weakly-Convex Reformulation and
Algorithm for Bilevel Programs [10.875233844414465]
下層問題のエンベロープに基づく弱凸改質の革新的単一レベル差を示す。
Weakly Convex Algorithm (iP-DwCA) の逐次収束不等式近差分法をさらに発展させる。
論文 参考訳(メタデータ) (2023-06-29T07:57:47Z) - Optimal Algorithms for Stochastic Bilevel Optimization under Relaxed
Smoothness Conditions [9.518010235273785]
両レベル最適化のための完全リリップループ・ヘシアン・インバージョンフリーなアルゴリズム・フレームワークを提案する。
我々は、我々のアプローチを少し修正することで、より汎用的な多目的ロバストな双レベル最適化問題に対処できることを示した。
論文 参考訳(メタデータ) (2023-06-21T07:32:29Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Fast Adaptive Federated Bilevel Optimization [14.579475552088692]
本稿では,分散二レベル最適化問題の解法として,適応型二レベル最適化アルゴリズム(AdaFBiO)を提案する。
AdaFBiOは、統一適応行列を用いて、様々な適応学習率を柔軟に組み込んで、ULおよびLL問題の変数を更新する。
AdaFBiOアルゴリズムの収束解析フレームワークを提供し、$tildeO(epsilon-3)$の複雑さと$tildeO(epsilon-2)$のコミュニケーション複雑さのサンプルが必要であることを証明した。
論文 参考訳(メタデータ) (2022-11-02T13:55:47Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - A Constrained Optimization Approach to Bilevel Optimization with
Multiple Inner Minima [49.320758794766185]
そこで本研究では,両レベル問題を等価な制約付き最適化に変換する手法を提案する。
このようなアプローチには、(a)多重内極小問題への対処、(b)ジャコビアン計算のない完全一階効率など、いくつかの利点がある。
論文 参考訳(メタデータ) (2022-03-01T18:20:01Z) - Enhanced Bilevel Optimization via Bregman Distance [104.96004056928474]
本稿では,Bregman Bregman関数に基づく二段階最適化手法を提案する。
また,分散還元法によるSBiO-BreD法(ASBiO-BreD)の高速化版も提案する。
論文 参考訳(メタデータ) (2021-07-26T16:18:43Z) - A Momentum-Assisted Single-Timescale Stochastic Approximation Algorithm
for Bilevel Optimization [112.59170319105971]
問題に対処するための新しいアルゴリズム - Momentum- Single-timescale Approximation (MSTSA) を提案する。
MSTSAでは、低いレベルのサブプロブレムに対する不正確な解決策のため、反復でエラーを制御することができます。
論文 参考訳(メタデータ) (2021-02-15T07:10:33Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。