論文の概要: Efficient Hyperparameter Tuning with Dynamic Accuracy Derivative-Free
Optimization
- arxiv url: http://arxiv.org/abs/2011.03151v1
- Date: Fri, 6 Nov 2020 00:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:39:37.113486
- Title: Efficient Hyperparameter Tuning with Dynamic Accuracy Derivative-Free
Optimization
- Title(参考訳): 動的精度デリバティブフリー最適化による高効率ハイパーパラメータチューニング
- Authors: Matthias J. Ehrhardt, Lindon Roberts
- Abstract要約: 我々は,最近の動的精度微分自由最適化法をハイパーパラメータチューニングに適用する。
この方法は、収束保証を維持しながら、学習問題の不正確な評価を可能にする。
固定精度アプローチと比較して頑健さと効率性を実証する。
- 参考スコア(独自算出の注目度): 0.27074235008521236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many machine learning solutions are framed as optimization problems which
rely on good hyperparameters. Algorithms for tuning these hyperparameters
usually assume access to exact solutions to the underlying learning problem,
which is typically not practical. Here, we apply a recent dynamic accuracy
derivative-free optimization method to hyperparameter tuning, which allows
inexact evaluations of the learning problem while retaining convergence
guarantees. We test the method on the problem of learning elastic net weights
for a logistic classifier, and demonstrate its robustness and efficiency
compared to a fixed accuracy approach. This demonstrates a promising approach
for hyperparameter tuning, with both convergence guarantees and practical
performance.
- Abstract(参考訳): 多くの機械学習ソリューションは、優れたハイパーパラメータに依存する最適化問題として構成されている。
これらのハイパーパラメータをチューニングするためのアルゴリズムは通常、基礎となる学習問題に対する正確な解へのアクセスを前提とします。
本稿では,直近の動的精度微分自由最適化法をハイパーパラメータチューニングに適用し,収束保証を維持しながら学習問題の不正確な評価を可能にする。
本手法は,ロジスティック分類器の弾性ネットウェイトを学習し,そのロバスト性および効率性を,固定精度アプローチと比較して実証する。
これは、収束保証と実用性能の両面から、ハイパーパラメータチューニングのための有望なアプローチを示す。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - Efficient Hyperparameter Tuning for Large Scale Kernel Ridge Regression [19.401624974011746]
本稿では,データ依存型ペナルティに基づく複雑性正規化基準を提案し,その効率的な最適化について議論する。
提案手法の利点は,大規模カーネル手法のライブラリに組み込んで,適応的に調整されたソリューションを導出することにある。
論文 参考訳(メタデータ) (2022-01-17T09:57:32Z) - Hyper-parameter optimization based on soft actor critic and hierarchical
mixture regularization [5.063728016437489]
我々はマルコフ決定プロセスとしてハイパーパラメータ最適化プロセスをモデル化し、強化学習でそれに取り組む。
ソフトアクター評論家と階層混合正規化に基づく新しいハイパーパラメータ最適化法が提案されている。
論文 参考訳(メタデータ) (2021-12-08T02:34:43Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Online Hyperparameter Search Interleaved with Proximal Parameter Updates [9.543667840503739]
本研究では,近似勾配法の構造に依存する手法を開発し,スムーズなコスト関数を必要としない。
そのような方法は、Leave-one-out (LOO)-validated LassoおよびGroup Lassoに適用される。
数値実験により,提案手法の収束度をLOO検証誤差曲線の局所最適値に相関させる。
論文 参考訳(メタデータ) (2020-04-06T15:54:03Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。