論文の概要: HyperSTAR: Task-Aware Hyperparameters for Deep Networks
- arxiv url: http://arxiv.org/abs/2005.10524v1
- Date: Thu, 21 May 2020 08:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:45:57.309609
- Title: HyperSTAR: Task-Aware Hyperparameters for Deep Networks
- Title(参考訳): hyperstar: ディープネットワークのためのタスクアウェアハイパーパラメータ
- Authors: Gaurav Mittal, Chang Liu, Nikolaos Karianakis, Victor Fragoso, Mei
Chen, Yun Fu
- Abstract要約: HyperSTARは、ディープニューラルネットワークのためのHPOをウォームスタートするタスク認識方式である。
生の画像から直接、データセット(タスク)表現とパフォーマンス予測器を学習する。
既存のメソッドと比較して、最高のパフォーマンスを達成するために、構成を50%少なく評価する。
- 参考スコア(独自算出の注目度): 52.50861379908611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks excel in solving visual recognition tasks, they
require significant effort to find hyperparameters that make them work
optimally. Hyperparameter Optimization (HPO) approaches have automated the
process of finding good hyperparameters but they do not adapt to a given task
(task-agnostic), making them computationally inefficient. To reduce HPO time,
we present HyperSTAR (System for Task Aware Hyperparameter Recommendation), a
task-aware method to warm-start HPO for deep neural networks. HyperSTAR ranks
and recommends hyperparameters by predicting their performance conditioned on a
joint dataset-hyperparameter space. It learns a dataset (task) representation
along with the performance predictor directly from raw images in an end-to-end
fashion. The recommendations, when integrated with an existing HPO method, make
it task-aware and significantly reduce the time to achieve optimal performance.
We conduct extensive experiments on 10 publicly available large-scale image
classification datasets over two different network architectures, validating
that HyperSTAR evaluates 50% less configurations to achieve the best
performance compared to existing methods. We further demonstrate that HyperSTAR
makes Hyperband (HB) task-aware, achieving the optimal accuracy in just 25% of
the budget required by both vanilla HB and Bayesian Optimized HB~(BOHB).
- Abstract(参考訳): 深層ニューラルネットワークは視覚認識タスクの解法に優れていますが、最適なハイパーパラメータを見つけるにはかなりの努力が必要です。
ハイパーパラメータ最適化(hpo)アプローチは、優れたハイパーパラメータを見つけるプロセスを自動化するが、与えられたタスク(タスクに依存しない)に適応せず、計算効率が低下する。
HPO時間を短縮するため,深層ニューラルネットワークのためのタスク認識手法であるHyperSTAR(System for Task Aware Hyperparameter Recommendation)を提案する。
hyperstarはハイパーパラメータをランク付けし、ジョイントデータセット-ハイパーパラメータ空間で条件づけされたパフォーマンスを予測することで推奨する。
データセット(タスク)表現とパフォーマンス予測器を、エンド・ツー・エンドの方法で生画像から直接学習する。
このレコメンデーションは,既存のHPOメソッドと統合してタスク認識し,最適な性能を達成するための時間を著しく短縮する。
我々は,2つの異なるネットワークアーキテクチャ上で利用可能な10の大規模画像分類データセットについて広範な実験を行い,HyperSTARが既存の手法に比べて50%少ない構成を評価できることを確認した。
さらに,HyperSTARがHyperband(HB)タスク認識を実現し,バニラHBとベイジアン最適化HB(BOHB)の両方で要求される予算の25%の最適精度を実現することを実証した。
関連論文リスト
- Deep Ranking Ensembles for Hyperparameter Optimization [9.453554184019108]
本稿では,メタ学習型ニューラルネットワークが構成性能のランク付けに最適化され,アンサンブルによる不確実性をモデル化する手法を提案する。
12のベースライン、16のHPO検索スペース、86のデータセット/タスクからなる大規模実験プロトコルにおいて、本手法がHPOの新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2023-03-27T13:52:40Z) - A New Linear Scaling Rule for Private Adaptive Hyperparameter Optimization [57.450449884166346]
本稿では,HPOのプライバシコストを考慮した適応型HPO法を提案する。
我々は22のベンチマークタスク、コンピュータビジョンと自然言語処理、事前学習と微調整で最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2022-12-08T18:56:37Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - Hyperparameter Tuning is All You Need for LISTA [92.7008234085887]
Learned Iterative Shrinkage-Thresholding Algorithm (LISTA)は、反復アルゴリズムをアンロールしてニューラルネットワークのようにトレーニングするという概念を導入している。
LISTAネットワークの中間変数に運動量を加えることで、より優れた収束率が得られることを示す。
この超軽量ネットワークをHyperLISTAと呼ぶ。
論文 参考訳(メタデータ) (2021-10-29T16:35:38Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Practical and sample efficient zero-shot HPO [8.41866793161234]
利用可能なアプローチの概要と、この問題に対処する2つの新しいテクニックを紹介します。
1つは、サロゲートモデルに基づいて、クエリのためのデータセットと設定のペアを適応的に選択する。
2つ目は、サロゲートモデルの検出、チューニング、テストが問題となる設定のためのもので、HyperBandとサブモジュラー最適化を組み合わせた多要素技術である。
論文 参考訳(メタデータ) (2020-07-27T08:56:55Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。