論文の概要: Online hyperparameter optimization by real-time recurrent learning
- arxiv url: http://arxiv.org/abs/2102.07813v1
- Date: Mon, 15 Feb 2021 19:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:02:09.622373
- Title: Online hyperparameter optimization by real-time recurrent learning
- Title(参考訳): リアルタイム繰り返し学習によるオンラインハイパーパラメータ最適化
- Authors: Daniel Jiwoong Im, Cristina Savin, Kyunghyun Cho
- Abstract要約: ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
- 参考スコア(独自算出の注目度): 57.01871583756586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional hyperparameter optimization methods are computationally
intensive and hard to generalize to scenarios that require dynamically adapting
hyperparameters, such as life-long learning. Here, we propose an online
hyperparameter optimization algorithm that is asymptotically exact and
computationally tractable, both theoretically and practically. Our framework
takes advantage of the analogy between hyperparameter optimization and
parameter learning in recurrent neural networks (RNNs). It adapts a
well-studied family of online learning algorithms for RNNs to tune
hyperparameters and network parameters simultaneously, without repeatedly
rolling out iterative optimization. This procedure yields systematically better
generalization performance compared to standard methods, at a fraction of
wallclock time.
- Abstract(参考訳): 従来のハイパーパラメータ最適化手法は計算集約的で、生涯学習などハイパーパラメータの動的適応を必要とするシナリオに一般化するのは難しい。
本稿では,理論上も実用上も漸近的に正確に計算可能であるオンラインハイパーパラメータ最適化アルゴリズムを提案する。
recurrent neural network (rnns) におけるハイパーパラメータ最適化とパラメータ学習の類似性を利用した。
RNNのオンライン学習アルゴリズムは、反復最適化を繰り返し展開することなく、ハイパーパラメータとネットワークパラメータを同時にチューニングする。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
関連論文リスト
- Cross-Entropy Optimization for Hyperparameter Optimization in Stochastic Gradient-based Approaches to Train Deep Neural Networks [2.1046873879077794]
学習アルゴリズムのハイパーパラメータ最適化のためのクロスエントロピー最適化法を提案する。
提案手法は,ディープラーニングにおける他の最適化問題にも適用可能である。
論文 参考訳(メタデータ) (2024-09-14T00:39:37Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Parameter Optimization with Conscious Allocation (POCA) [4.478575931884855]
ハイパーバンドベースの機械学習アプローチが最も効果的である。
私たちは出席します。
新人
Conscious Allocation (POCA) は、入力を適応的に割り当てるハイパーバンドベースのアルゴリズムである。
ハイパーパラメータの構成に予算を割り当てます
POCAは、両方の設定で強い設定を高速に見つける。
論文 参考訳(メタデータ) (2023-12-29T00:13:55Z) - Improving Multi-fidelity Optimization with a Recurring Learning Rate for
Hyperparameter Tuning [7.591442522626255]
再帰学習率(MORL)を考慮した多相最適化を提案する。
MORLはCNNの最適化プロセスを多要素最適化に組み込んでいる。
スロースタートの問題を緩和し、より正確な低忠実度近似を実現する。
論文 参考訳(メタデータ) (2022-09-26T08:16:31Z) - Hyperparameter Optimization with Neural Network Pruning [6.193231258199234]
ハイパーパラメータ最適化に用いるニューラルネットワーク(N_B)のプロキシモデルを提案する。
提案されたフレームワークは、最大37%の時間を削減することができる。
論文 参考訳(メタデータ) (2022-05-18T02:51:47Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Weighted Random Search for CNN Hyperparameter Optimization [0.0]
本稿では、ランダム探索(RS)と確率的欲求を組み合わせた重み付きランダム探索(WRS)手法を提案する。
基準は、ハイパーパラメーター値の試験された組み合わせの同じ数内で達成される分類精度である。
我々の実験によると、WRSアルゴリズムは他の手法よりも優れています。
論文 参考訳(メタデータ) (2020-03-30T09:40:14Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。