論文の概要: Hippo: Taming Hyper-parameter Optimization of Deep Learning with Stage
Trees
- arxiv url: http://arxiv.org/abs/2006.11972v1
- Date: Mon, 22 Jun 2020 02:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:46:39.360687
- Title: Hippo: Taming Hyper-parameter Optimization of Deep Learning with Stage
Trees
- Title(参考訳): Hippo: ステージツリーによるディープラーニングのハイパーパラメータ最適化
- Authors: Ahnjae Shin, Do Yoon Kim, Joo Seong Jeong, Byung-Gon Chun
- Abstract要約: トレーニングプロセスの冗長性を除去し,計算量を大幅に削減するハイパーパラメータ最適化システムであるHippoを提案する。
ヒッポは単一の研究だけでなく、同じモデルと探索空間の複数の研究を段階木として定式化できるマルチスタディシナリオにも適用できる。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyper-parameter optimization is crucial for pushing the accuracy of a deep
learning model to its limits. A hyper-parameter optimization job, referred to
as a study, involves numerous trials of training a model using different
training knobs, and therefore is very computation-heavy, typically taking hours
and days to finish. We observe that trials issued from hyper-parameter
optimization algorithms often share common hyper-parameter sequence prefixes.
Based on this observation, we propose Hippo, a hyper-parameter optimization
system that removes redundancy in the training process to reduce the overall
amount of computation significantly. Instead of executing each trial
independently as in existing hyper-parameter optimization systems, Hippo breaks
down the hyper-parameter sequences into stages and merges common stages to form
a tree of stages (called a stage-tree), then executes a stage once per tree on
a distributed GPU server environment. Hippo is applicable to not only single
studies, but multi-study scenarios as well, where multiple studies of the same
model and search space can be formulated as trees of stages. Evaluations show
that Hippo's stage-based execution strategy outperforms trial-based methods
such as Ray Tune for several models and hyper-parameter optimization
algorithms, reducing GPU-hours and end-to-end training time significantly.
- Abstract(参考訳): ハイパーパラメータ最適化は,ディープラーニングモデルの精度を限界まで押し上げる上で極めて重要である。
ハイパーパラメータ最適化のジョブは、研究と呼ばれ、異なるトレーニングノブを使用してモデルをトレーニングする多数の試行を含む。
ハイパーパラメータ最適化アルゴリズムから発行される試行は、しばしば共通のハイパーパラメータシーケンスプレフィックスを共有する。
そこで本研究では,学習過程における冗長性を除去し,計算量を大幅に削減するハイパーパラメータ最適化システムであるHippoを提案する。
既存のハイパーパラメータ最適化システムのように、それぞれのトライアルを独立して実行する代わりに、Hippoはハイパーパラメータシーケンスをステージに分解し、一般的なステージをマージしてステージツリー(ステージツリーと呼ばれる)を形成し、分散GPUサーバ環境上で1ツリーずつステージを実行する。
hippoは単一の研究だけでなく、同じモデルと探索空間の複数の研究を段階の木として定式化できるマルチスタディシナリオにも適用できる。
評価の結果、hipoのステージベースの実行戦略は、いくつかのモデルやハイパーパラメータ最適化アルゴリズムでray tuneのような試行ベースのメソッドよりも優れており、gpu時間とエンドツーエンドのトレーニング時間が大幅に削減されている。
関連論文リスト
- Tune As You Scale: Hyperparameter Optimization For Compute Efficient
Training [0.0]
そこで本研究では,大規模モデルのロバストなチューニング手法を提案する。
CarBSはパフォーマンスコストフロンティアの周辺でローカル検索を行う。
その結果、単純なベースラインをチューニングするだけで、ProcGenベンチマーク全体を効果的に解決できることがわかった。
論文 参考訳(メタデータ) (2023-06-13T18:22:24Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Scalable One-Pass Optimisation of High-Dimensional Weight-Update
Hyperparameters by Implicit Differentiation [0.0]
近似的過勾配型ハイパーパラメータオプティマイザを開発した。
トレーニングは1回のみであり、再スタートは行わない。
また、真の過次性への収束を動機づける議論も提供する。
論文 参考訳(メタデータ) (2021-10-20T09:57:57Z) - HYPPO: A Surrogate-Based Multi-Level Parallelism Tool for Hyperparameter
Optimization [0.2844198651668139]
HYPPOは適応的な代理モデルを使用し、モデル予測の不確実性を説明して、堅牢な予測を行う正確で信頼性の高いモデルを見つける。
本稿では,時系列予測と画像分類問題に対する様々なソフトウェア機能と,コンピュータ断層画像再構成における科学的応用について述べる。
論文 参考訳(メタデータ) (2021-10-04T20:14:22Z) - HyP-ABC: A Novel Automated Hyper-Parameter Tuning Algorithm Using
Evolutionary Optimization [1.6114012813668934]
改良されたミツバチコロニーを用いたハイブリッドハイパーパラメータ最適化アルゴリズムHyP-ABCを提案する。
最先端技術と比較して、HyP-ABCは効率が良く、調整すべきパラメータが限られている。
論文 参考訳(メタデータ) (2021-09-11T16:45:39Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。