論文の概要: A Gradient-based Bilevel Optimization Approach for Tuning
Hyperparameters in Machine Learning
- arxiv url: http://arxiv.org/abs/2007.11022v1
- Date: Tue, 21 Jul 2020 18:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:11:18.288379
- Title: A Gradient-based Bilevel Optimization Approach for Tuning
Hyperparameters in Machine Learning
- Title(参考訳): 機械学習におけるハイパーパラメータチューニングのための勾配に基づく2レベル最適化手法
- Authors: Ankur Sinha, Tanmay Khandait, Raja Mohanty
- Abstract要約: 本稿では,ハイパーパラメータ最適化問題の解法として,二段階解法を提案する。
提案手法は汎用的で,任意の種類の機械学習アルゴリズムに容易に適用可能である。
提案アルゴリズムの背景にある理論を議論し、2つのデータセットについて広範な計算研究を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperparameter tuning is an active area of research in machine learning,
where the aim is to identify the optimal hyperparameters that provide the best
performance on the validation set. Hyperparameter tuning is often achieved
using naive techniques, such as random search and grid search. However, most of
these methods seldom lead to an optimal set of hyperparameters and often get
very expensive. In this paper, we propose a bilevel solution method for solving
the hyperparameter optimization problem that does not suffer from the drawbacks
of the earlier studies. The proposed method is general and can be easily
applied to any class of machine learning algorithms. The idea is based on the
approximation of the lower level optimal value function mapping, which is an
important mapping in bilevel optimization and helps in reducing the bilevel
problem to a single level constrained optimization task. The single-level
constrained optimization problem is solved using the augmented Lagrangian
method. We discuss the theory behind the proposed algorithm and perform
extensive computational study on two datasets that confirm the efficiency of
the proposed method. We perform a comparative study against grid search, random
search and Bayesian optimization techniques that shows that the proposed
algorithm is multiple times faster on problems with one or two hyperparameters.
The computational gain is expected to be significantly higher as the number of
hyperparameters increase. Corresponding to a given hyperparameter most of the
techniques in the literature often assume a unique optimal parameter set that
minimizes loss on the training set. Such an assumption is often violated by
deep learning architectures and the proposed method does not require any such
assumption.
- Abstract(参考訳): ハイパーパラメータチューニングは機械学習における活発な研究領域であり、検証セット上で最高のパフォーマンスを提供する最適なハイパーパラメータを特定することを目的としている。
ハイパーパラメータチューニングは、ランダムサーチやグリッドサーチのようなナイーブな手法で達成されることが多い。
しかし、これらの手法のほとんどが最適なハイパーパラメータのセットにつながることは滅多になく、しばしば非常に高価になる。
本稿では,先行研究の欠点を伴わないハイパーパラメータ最適化問題を解くための2レベル解法を提案する。
提案手法は汎用的で,任意の種類の機械学習アルゴリズムに容易に適用可能である。
この考え方は、双レベル最適化において重要なマッピングであり、双レベル問題を単一レベルの制約付き最適化タスクに還元するのに役立つ低レベル最適値関数写像の近似に基づいている。
拡張ラグランジアン法を用いて一階制約最適化問題を解く。
提案アルゴリズムの背後にある理論を議論し,提案手法の効率性を確認する2つのデータセットについて広範な計算研究を行う。
我々は,格子探索,ランダム探索,ベイズ最適化手法の比較研究を行い,提案アルゴリズムが1つまたは2つのハイパーパラメータの問題に対して複数倍高速であることを示す。
ハイパーパラメータ数の増加に伴い、計算利得は大幅に増加することが期待されている。
与えられたハイパーパラメータに対応して、文献のほとんどのテクニックは、トレーニングセットの損失を最小限に抑えるユニークな最適パラメータセットを仮定する。
このような仮定はしばしばディープラーニングアーキテクチャによって破られ、提案手法はそのような仮定を必要としない。
関連論文リスト
- Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - Hyper-parameter optimization based on soft actor critic and hierarchical
mixture regularization [5.063728016437489]
我々はマルコフ決定プロセスとしてハイパーパラメータ最適化プロセスをモデル化し、強化学習でそれに取り組む。
ソフトアクター評論家と階層混合正規化に基づく新しいハイパーパラメータ最適化法が提案されている。
論文 参考訳(メタデータ) (2021-12-08T02:34:43Z) - Enhanced Bilevel Optimization via Bregman Distance [104.96004056928474]
本稿では,Bregman Bregman関数に基づく二段階最適化手法を提案する。
また,分散還元法によるSBiO-BreD法(ASBiO-BreD)の高速化版も提案する。
論文 参考訳(メタデータ) (2021-07-26T16:18:43Z) - BiAdam: Fast Adaptive Bilevel Optimization Methods [104.96004056928474]
バイレベル最適化は多くの応用のために機械学習への関心が高まっている。
制約付き最適化と制約なし最適化の両方に有用な分析フレームワークを提供する。
論文 参考訳(メタデータ) (2021-06-21T20:16:40Z) - Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning [87.60600646105696]
内部最適化問題が凸であるが非滑らかである場合の一階法を研究する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
論文 参考訳(メタデータ) (2021-05-04T17:31:28Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Efficient hyperparameter optimization by way of PAC-Bayes bound
minimization [4.191847852775072]
本稿では,期待外誤差に縛られた確率的近似ベイズ(PAC-Bayes)と等価な別の目的について述べる。
そして、この目的を最小化するために、効率的な勾配に基づくアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-08-14T15:54:51Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。