論文の概要: AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning
- arxiv url: http://arxiv.org/abs/2203.08212v1
- Date: Tue, 15 Mar 2022 19:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 15:29:20.747887
- Title: AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning
- Title(参考訳): AUTOMATA:Compute-Efficient Hyper-parameter Tuningのための勾配ベースデータセット選択
- Authors: Krishnateja Killamsetty, Guttu Sai Abhishek, Aakriti, Alexandre V.
Evfimievski, Lucian Popa, Ganesh Ramakrishnan, Rishabh Iyer
- Abstract要約: ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 72.54359545547904
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have seen great success in recent years; however,
training a deep model is often challenging as its performance heavily depends
on the hyper-parameters used. In addition, finding the optimal hyper-parameter
configuration, even with state-of-the-art (SOTA) hyper-parameter optimization
(HPO) algorithms, can be time-consuming, requiring multiple training runs over
the entire dataset for different possible sets of hyper-parameters. Our central
insight is that using an informative subset of the dataset for model training
runs involved in hyper-parameter optimization, allows us to find the optimal
hyper-parameter configuration significantly faster. In this work, we propose
AUTOMATA, a gradient-based subset selection framework for hyper-parameter
tuning. We empirically evaluate the effectiveness of AUTOMATA in
hyper-parameter tuning through several experiments on real-world datasets in
the text, vision, and tabular domains. Our experiments show that using
gradient-based data subsets for hyper-parameter tuning achieves significantly
faster turnaround times and speedups of 3$\times$-30$\times$ while achieving
comparable performance to the hyper-parameters found using the entire dataset.
- Abstract(参考訳): ディープニューラルネットワークは近年、大きな成功を収めているが、そのパフォーマンスは使用するハイパーパラメータに大きく依存するため、ディープモデルのトレーニングはしばしば困難である。
さらに、最先端(SOTA)ハイパーパラメータ最適化(HPO)アルゴリズムでさえ、最適なハイパーパラメータ構成を見つけるのに時間を要するため、さまざまなハイパーパラメータのセットに対して、データセット全体にわたって複数のトレーニングを実行する必要がある。
我々の中心的な洞察は、ハイパーパラメータ最適化に関わるモデルトレーニングのためにデータセットの情報サブセットを使用することで、最適なハイパーパラメータ構成をはるかに高速に見つけることができるということです。
本稿では,ハイパーパラメータチューニングのための勾配型サブセット選択フレームワークであるautomattaを提案する。
テキスト,視覚,表領域における実世界のデータセットに関する実験を通じて,超パラメータチューニングにおけるAUTOMATAの有効性を実証的に評価した。
実験の結果、勾配に基づくデータサブセットをハイパーパラメータチューニングに使用すると、3$\times$-30$\times$のターンアラウンド時間とスピードアップが大幅に向上し、データセット全体のハイパーパラメータに匹敵する性能が得られた。
関連論文リスト
- Efficient Hyperparameter Importance Assessment for CNNs [1.7778609937758323]
本稿では,畳み込みニューラルネットワーク(CNN)におけるハイパーパラメータの重み付けを,N-RReliefFというアルゴリズムを用いて定量化する。
我々は10の人気のある画像分類データセットから1万以上のCNNモデルをトレーニングし、広範囲にわたる研究を行う。
論文 参考訳(メタデータ) (2024-10-11T15:47:46Z) - ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - Hyper-Parameter Auto-Tuning for Sparse Bayesian Learning [72.83293818245978]
我々は、疎ベイズ学習におけるハイパーパラメータチューニングのためのニューラルネットワーク(NN)ベースのオートチューニングを設計し、学習する。
コンバージェンス率とリカバリ性能の大幅な向上が達成できることを示す。
論文 参考訳(メタデータ) (2022-11-09T12:34:59Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z) - Hyperparameter Selection for Subsampling Bootstraps [0.0]
BLBのようなサブサンプリング手法は、大量のデータに対する推定器の品質を評価する強力なツールとして機能する。
サブサンプリング法の性能は,チューニングパラメータの選択によって大きく影響を受ける。
本研究では,サブサンプリング手法のチューニングパラメータの選択に利用できるハイパーパラメータ選択手法を開発した。
シミュレーション研究と実データ解析の両方が,本手法の優位性を証明している。
論文 参考訳(メタデータ) (2020-06-02T17:10:45Z) - Automatic Hyper-Parameter Optimization Based on Mapping Discovery from
Data to Hyper-Parameters [3.37314595161109]
本稿では,データから対応するハイパーパラメータへのマッピングに基づく,効率的な自動パラメータ最適化手法を提案する。
提案手法は最先端のアポラッチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-03-03T19:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。