論文の概要: Rethinking Default Values: a Low Cost and Efficient Strategy to Define
Hyperparameters
- arxiv url: http://arxiv.org/abs/2008.00025v3
- Date: Thu, 8 Jul 2021 15:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:04:17.984277
- Title: Rethinking Default Values: a Low Cost and Efficient Strategy to Define
Hyperparameters
- Title(参考訳): デフォルト値の再検討: ハイパーパラメータを定義するための低コストかつ効率的な戦略
- Authors: Rafael Gomes Mantovani, Andr\'e Luis Debiaso Rossi, Edesio
Alcoba\c{c}a, Jadson Castro Gertrudes, Sylvio Barbon Junior, Andr\'e Carlos
Ponce de Leon Ferreira de Carvalho
- Abstract要約: 機械学習アルゴリズムに最適化されたデフォルト値を新たに生成する戦略を提案する。
我々のアプローチは、デフォルト設定よりも優れた予測性能値を得ることができる、最適化された小さな値セットに基づいています。
- 参考スコア(独自算出の注目度): 1.1091582432763736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) algorithms have been increasingly applied to problems
from several different areas. Despite their growing popularity, their
predictive performance is usually affected by the values assigned to their
hyperparameters (HPs). As consequence, researchers and practitioners face the
challenge of how to set these values. Many users have limited knowledge about
ML algorithms and the effect of their HP values and, therefore, do not take
advantage of suitable settings. They usually define the HP values by trial and
error, which is very subjective, not guaranteed to find good values and
dependent on the user experience. Tuning techniques search for HP values able
to maximize the predictive performance of induced models for a given dataset,
but have the drawback of a high computational cost. Thus, practitioners use
default values suggested by the algorithm developer or by tools implementing
the algorithm. Although default values usually result in models with acceptable
predictive performance, different implementations of the same algorithm can
suggest distinct default values. To maintain a balance between tuning and using
default values, we propose a strategy to generate new optimized default values.
Our approach is grounded on a small set of optimized values able to obtain
predictive performance values better than default settings provided by popular
tools. After performing a large experiment and a careful analysis of the
results, we concluded that our approach delivers better default values.
Besides, it leads to competitive solutions when compared to tuned values,
making it easier to use and having a lower cost. We also extracted simple rules
to guide practitioners in deciding whether to use our new methodology or a HP
tuning approach.
- Abstract(参考訳): 機械学習(ML)アルゴリズムは、様々な分野の問題にますます適用されてきた。
人気が高いにもかかわらず、その予測性能は通常、ハイパーパラメータ(HP)に割り当てられた値に影響される。
その結果、研究者や実践者はこれらの価値をどう設定するかという課題に直面している。
多くのユーザはMLアルゴリズムとHP値の影響について限られた知識を持っているため、適切な設定を利用できない。
彼らは通常、試行錯誤によってHPの値を定義するが、それは非常に主観的であり、良い値を見つけることは保証されず、ユーザーエクスペリエンスに依存する。
チューニング技術 与えられたデータセットに対する誘導モデルの予測性能を最大化できるhp値を探索するが、高い計算コストの欠点がある。
このように、実践者はアルゴリズム開発者またはアルゴリズムを実装するツールによって提案されるデフォルト値を使用する。
デフォルト値は通常、許容可能な予測性能を持つモデルとなるが、同じアルゴリズムの実装によって異なるデフォルト値が提案できる。
チューニングとデフォルト値の使用のバランスを維持するために,新しい最適化されたデフォルト値を生成する戦略を提案する。
当社のアプローチは,一般的なツールが提供するデフォルト設定よりも優れた予測性能値を得ることができる,少数の最適化された値に基づいています。
大きな実験を行い、その結果を慎重に分析した結果、我々のアプローチはより良いデフォルト値を提供すると結論付けました。
さらに、チューニングされた値と比較して競争力のあるソリューションにつながるため、使いやすく、コストも低くなります。
我々はまた、新しい方法論を使うか、HPチューニングアプローチを使うかを決めるための簡単なルールも抽出した。
関連論文リスト
- Preference Learning Algorithms Do Not Learn Preference Rankings [62.335733662381884]
選好学習は、好ましくない出力よりも、好ましくない出力により高い確率を割り当てるようにモデルを訓練する、という従来の知恵を考察する。
多くの最先端の選好調整モデルでは、一般的な選好データセットでは60%未満のランキング精度が得られている。
論文 参考訳(メタデータ) (2024-05-29T21:29:44Z) - Regret-Aware Black-Box Optimization with Natural Gradients,
Trust-Regions and Entropy Control [17.430247457941284]
CMA-ESのような最も成功したブラックボックスは、新しい検索分布を得るために個々のサンプルのランキングを使用する。
これらのアルゴリズムは、通常、検索分布の質の高い平均推定値を生成するが、これらのアルゴリズムは後悔を知らないため、生成したサンプルは品質が劣る可能性がある。
対照的に、Relative Entropy Search (MORE)アルゴリズムは、ランキングを使わずに、期待されるフィットネス機能を直接最適化する。
論文 参考訳(メタデータ) (2022-05-24T16:25:15Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Importance of Tuning Hyperparameters of Machine Learning Algorithms [3.4161707164978137]
非劣等性テストとチューニングリスクに基づいて,ハイパーパラメータのチューニングの重要性を判断する手法を提案する。
提案手法をOpenMLの59データセットを用いたベンチマーク研究に適用する。
論文 参考訳(メタデータ) (2020-07-15T10:06:59Z) - Weighted Random Search for Hyperparameter Optimization [0.0]
本稿では,機械学習アルゴリズムのハイパーパラメータ最適化に使用されるRandom Search(RS)の改良版を紹介する。
我々は、標準RSとは異なり、変化の確率で各ハイパーパラメータに対して新しい値を生成する。
同じ計算予算内で、我々の手法は標準のRSよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2020-04-03T15:41:22Z) - Rethinking the Hyperparameters for Fine-tuning [78.15505286781293]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクのデファクトスタンダードとなっている。
ファインチューニングの現在のプラクティスは、通常、ハイパーパラメータのアドホックな選択を選択することである。
本稿では、微調整のためのハイパーパラメータの設定に関するいくつかの一般的なプラクティスを再検討する。
論文 参考訳(メタデータ) (2020-02-19T18:59:52Z) - Kalman meets Bellman: Improving Policy Evaluation through Value Tracking [59.691919635037216]
政策評価は強化学習(RL)における重要なプロセスである
我々はKalman Optimization for Value Approximation (KOVA)と呼ばれる最適化手法を考案した。
KOVAはパラメータとノイズリターンの不確実性の両方に関する正規化対象関数を最小化する。
論文 参考訳(メタデータ) (2020-02-17T13:30:43Z) - Better Trees: An empirical study on hyperparameter tuning of
classification decision tree induction algorithms [5.4611430411491115]
決定木誘導アルゴリズムは高い予測性能と解釈可能な分類モデルを示す。
本稿では,CARTとC4.5の2つのDT誘導アルゴリズムに対するハイパーパラメータチューニングの効果について検討する。
OpenMLから94の分類データセットを用いて,モデルを誘導し,HPの妥当性を評価するための異なるチューニング手法を用いて実験を行った。
論文 参考訳(メタデータ) (2018-12-05T19:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。