論文の概要: A Population-based Hybrid Approach to Hyperparameter Optimization for
Neural Networks
- arxiv url: http://arxiv.org/abs/2011.11062v2
- Date: Fri, 27 Nov 2020 12:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 12:08:21.012941
- Title: A Population-based Hybrid Approach to Hyperparameter Optimization for
Neural Networks
- Title(参考訳): ニューラルネットのハイパーパラメータ最適化に対する集団ベースハイブリッドアプローチ
- Authors: Marcello Serqueira, Pedro Gonz\'alez, Eduardo Bezerra
- Abstract要約: HBRKGAは、Biased Random Key Genetic AlgorithmとRandom Walk技術を組み合わせて、ハイパーパラメータ空間を効率的に探索するハイブリッドアプローチである。
その結果、HBRKGAは8つのデータセットのうち6つにおいて、ベースライン法よりも優れたハイパーパラメータ構成を見つけることができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, large amounts of data have been generated, and computer
power has kept growing. This scenario has led to a resurgence in the interest
in artificial neural networks. One of the main challenges in training effective
neural network models is finding the right combination of hyperparameters to be
used. Indeed, the choice of an adequate approach to search the hyperparameter
space directly influences the accuracy of the resulting neural network model.
Common approaches for hyperparameter optimization are Grid Search, Random
Search, and Bayesian Optimization. There are also population-based methods such
as CMA-ES. In this paper, we present HBRKGA, a new population-based approach
for hyperparameter optimization. HBRKGA is a hybrid approach that combines the
Biased Random Key Genetic Algorithm with a Random Walk technique to search the
hyperparameter space efficiently. Several computational experiments on eight
different datasets were performed to assess the effectiveness of the proposed
approach. Results showed that HBRKGA could find hyperparameter configurations
that outperformed (in terms of predictive quality) the baseline methods in six
out of eight datasets while showing a reasonable execution time.
- Abstract(参考訳): 近年、大量のデータが生成され、コンピュータの電力は増え続けている。
このシナリオは、人工ニューラルネットワークへの関心の復活につながった。
効果的なニューラルネットワークモデルのトレーニングにおける大きな課題のひとつは、使用するハイパーパラメータの適切な組み合わせを見つけることだ。
実際、ハイパーパラメータ空間を探索するための適切なアプローチの選択は、結果のニューラルネットワークモデルの精度に直接影響する。
ハイパーパラメータ最適化の一般的なアプローチは、グリッド探索、ランダム探索、ベイズ最適化である。
また、CMA-ESのような人口ベースの方法もある。
本稿では,ハイパーパラメータ最適化のための新しい集団ベースアプローチであるHBRKGAを提案する。
HBRKGAは、Biased Random Key Genetic AlgorithmとRandom Walk技術を組み合わせて、ハイパーパラメータ空間を効率的に探索するハイブリッドアプローチである。
提案手法の有効性を評価するため、8つの異なるデータセットに関するいくつかの計算実験を行った。
その結果、HBRKGAは8つのデータセットのうち6つで(予測品質の観点から)ベースラインメソッドよりも優れたハイパーパラメータ構成を見出すことができた。
関連論文リスト
- Deep Ranking Ensembles for Hyperparameter Optimization [9.453554184019108]
本稿では,メタ学習型ニューラルネットワークが構成性能のランク付けに最適化され,アンサンブルによる不確実性をモデル化する手法を提案する。
12のベースライン、16のHPO検索スペース、86のデータセット/タスクからなる大規模実験プロトコルにおいて、本手法がHPOの新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2023-03-27T13:52:40Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - A Study of Genetic Algorithms for Hyperparameter Optimization of Neural
Networks in Machine Translation [0.0]
遺伝的アルゴリズムを用いて,ダーウィンのファイトテスト理論の生存をモデルとした自動チューニング手法を提案する。
研究結果は,提案手法であるGAがハイパーパラメータのランダムな選択よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-15T02:24:16Z) - An Asymptotically Optimal Multi-Armed Bandit Algorithm and
Hyperparameter Optimization [48.5614138038673]
本稿では,高パラメータ探索評価のシナリオにおいて,SS (Sub-Sampling) と呼ばれる効率的で堅牢な帯域幅に基づくアルゴリズムを提案する。
また,BOSSと呼ばれる新しいパラメータ最適化アルゴリズムを開発した。
実験的な研究は、SSの理論的議論を検証し、多くのアプリケーションにおけるBOSSの優れた性能を実証する。
論文 参考訳(メタデータ) (2020-07-11T03:15:21Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。