論文の概要: Multi-level Training and Bayesian Optimization for Economical
Hyperparameter Optimization
- arxiv url: http://arxiv.org/abs/2007.09953v1
- Date: Mon, 20 Jul 2020 09:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:36:30.614243
- Title: Multi-level Training and Bayesian Optimization for Economical
Hyperparameter Optimization
- Title(参考訳): 経済ハイパーパラメータ最適化のためのマルチレベルトレーニングとベイズ最適化
- Authors: Yang Yang, Ke Deng, Michael Zhu
- Abstract要約: 本稿では,ハイパーパラメータ最適化に必要なトレーニング時間の総量を削減するための効果的な手法を開発する。
光のトレーニングによって生じる近似的な性能測定をキャリブレーションするために, トランキャット付加法ガウス過程モデルを提案する。
このモデルに基づいて、逐次モデルに基づくアルゴリズムが開発され、構成空間のパフォーマンスプロファイルを生成し、最適なモデルを見つける。
- 参考スコア(独自算出の注目度): 12.92634461859467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperparameters play a critical role in the performances of many machine
learning methods. Determining their best settings or Hyperparameter
Optimization (HPO) faces difficulties presented by the large number of
hyperparameters as well as the excessive training time. In this paper, we
develop an effective approach to reducing the total amount of required training
time for HPO. In the initialization, the nested Latin hypercube design is used
to select hyperparameter configurations for two types of training, which are,
respectively, heavy training and light training. We propose a truncated
additive Gaussian process model to calibrate approximate performance
measurements generated by light training, using accurate performance
measurements generated by heavy training. Based on the model, a sequential
model-based algorithm is developed to generate the performance profile of the
configuration space as well as find optimal ones. Our proposed approach
demonstrates competitive performance when applied to optimize synthetic
examples, support vector machines, fully connected networks and convolutional
neural networks.
- Abstract(参考訳): ハイパーパラメータは多くの機械学習メソッドのパフォーマンスにおいて重要な役割を果たす。
最高の設定を決定するか、ハイパーパラメータ最適化(HPO)は、大量のハイパーパラメータと過度のトレーニング時間によって生じる困難に直面します。
本稿では,HPOに必要なトレーニング時間の総量を削減するための効果的な手法を開発する。
初期化において、ネストしたラテンハイパーキューブの設計は、それぞれ重度トレーニングと軽度トレーニングの2種類のトレーニングのためのハイパーパラメータ構成を選択するために使用される。
そこで本研究では,重度トレーニングによって発生する高精度な性能測定を用いて,光トレーニングによって生成された近似性能測定をキャリブレーションする,トラッピング付加型ガウスプロセスモデルを提案する。
このモデルに基づいて,構成空間の性能プロファイル生成と最適な評価を行うために,逐次モデルに基づくアルゴリズムを開発した。
提案手法は,合成例の最適化,ベクトルマシンのサポート,完全連結ネットワーク,畳み込みニューラルネットワークなどの競合性能を示す。
関連論文リスト
- Optimization Hyper-parameter Laws for Large Language Models [56.322914260197734]
ハイパーパラメータとトレーニング結果の関係をキャプチャするフレームワークであるOps-Lawsを提案する。
さまざまなモデルサイズとデータスケールにわたる検証は、Opt-Lawsのトレーニング損失を正確に予測する能力を示しています。
このアプローチは、全体的なモデル性能を高めながら、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-09-07T09:37:19Z) - Model Performance Prediction for Hyperparameter Optimization of Deep
Learning Models Using High Performance Computing and Quantum Annealing [0.0]
モデル性能予測を早期停止法と組み合わせることで,ディープラーニングモデルのHPOプロセスの高速化が期待できることを示す。
我々は,古典的あるいは量子的サポートベクター回帰を性能予測に用いるSwift-Hyperbandと呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T10:32:40Z) - Deep Ranking Ensembles for Hyperparameter Optimization [9.453554184019108]
本稿では,メタ学習型ニューラルネットワークが構成性能のランク付けに最適化され,アンサンブルによる不確実性をモデル化する手法を提案する。
12のベースライン、16のHPO検索スペース、86のデータセット/タスクからなる大規模実験プロトコルにおいて、本手法がHPOの新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2023-03-27T13:52:40Z) - Optimization-Derived Learning with Essential Convergence Analysis of
Training and Hyper-training [52.39882976848064]
固定点反復に基づく一般化クラスノセルスキーマンスキースキーム(GKM)を基本ODLモジュールとして設計する。
GKMスキームでは、最適トレーニングとハイパートレーニング変数を同時に解くために、バイレベルメタ最適化(BMO)アルゴリズムフレームワークを構築している。
論文 参考訳(メタデータ) (2022-06-16T01:50:25Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Weighting Is Worth the Wait: Bayesian Optimization with Importance
Sampling [34.67740033646052]
ベイジアン最適化のステート・オブ・ザ・アートランタイムと,さまざまなデータセットと複雑なニューラルネットワークアーキテクチャの最終的な検証エラーを改善した。
評価の複雑さと品質をトレードオフするISのパラメータ化を学習することで、ベイジアン最適化のステート・オブ・ザ・アートランタイムと、さまざまなデータセットと複雑なニューラルネットワークアーキテクチャの最終的な検証エラーを改善します。
論文 参考訳(メタデータ) (2020-02-23T15:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。