論文の概要: Bayesian Optimization is Superior to Random Search for Machine Learning
Hyperparameter Tuning: Analysis of the Black-Box Optimization Challenge 2020
- arxiv url: http://arxiv.org/abs/2104.10201v1
- Date: Tue, 20 Apr 2021 18:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:39:40.045439
- Title: Bayesian Optimization is Superior to Random Search for Machine Learning
Hyperparameter Tuning: Analysis of the Black-Box Optimization Challenge 2020
- Title(参考訳): Bayesian Optimization is Superior to Random Search for Machine Learning Hyperparameter Tuning: Analysis of the Black-Box Optimization Challenge 2020
- Authors: Ryan Turner, David Eriksson, Michael McCourt, Juha Kiili, Eero
Laaksonen, Zhen Xu, Isabelle Guyon
- Abstract要約: 本稿では,NeurIPS 2020におけるブラックボックス最適化の課題と成果について述べる。
これは機械学習を重視した最初のブラックボックス最適化チャレンジだった。
- 参考スコア(独自算出の注目度): 10.782941183498851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the results and insights from the black-box optimization
(BBO) challenge at NeurIPS 2020 which ran from July-October, 2020. The
challenge emphasized the importance of evaluating derivative-free optimizers
for tuning the hyperparameters of machine learning models. This was the first
black-box optimization challenge with a machine learning emphasis. It was based
on tuning (validation set) performance of standard machine learning models on
real datasets. This competition has widespread impact as black-box optimization
(e.g., Bayesian optimization) is relevant for hyperparameter tuning in almost
every machine learning project as well as many applications outside of machine
learning. The final leaderboard was determined using the optimization
performance on held-out (hidden) objective functions, where the optimizers ran
without human intervention. Baselines were set using the default settings of
several open-source black-box optimization packages as well as random search.
- Abstract(参考訳): 本稿では,2020年7月から10月にかけて開催されたneurips 2020 における black-box optimization (bbo) challenge の結果と知見を紹介する。
この課題は、機械学習モデルのハイパーパラメータをチューニングするためのデリバティブフリーオプティマイザの評価の重要性を強調した。
これは機械学習を重視した最初のブラックボックス最適化チャレンジだった。
これは、実際のデータセット上での標準機械学習モデルのチューニング(バリデーションセット)パフォーマンスに基づいている。
この競争は、ブラックボックス最適化(ベイズ最適化など)が、ほぼすべての機械学習プロジェクトおよび機械学習以外の多くのアプリケーションにおいてハイパーパラメータチューニングに関係しているため、広く影響している。
最終リーダーボードは、人間の介入なしにオプティマイザが実行される(隠れた)目的関数の最適化性能を用いて決定された。
ベースラインは、いくつかのオープンソースのブラックボックス最適化パッケージのデフォルト設定とランダム検索を使用して設定された。
関連論文リスト
- Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - CoRe Optimizer: An All-in-One Solution for Machine Learning [0.0]
連続レジリエント収束(CoRe)は、他の最先端の1次勾配に基づく収束アルゴリズムと比較して優れた性能を示した。
CoReは、調査されたすべてのアプリケーションにおいて、最高の、または競争的なパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-07-28T16:48:42Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Learning How to Optimize Black-Box Functions With Extreme Limits on the
Number of Function Evaluations [3.0969191504482243]
ブラックボックス最適化では,約100桁の関数評価が極めて限られた数しか手頃な価格で行われない。
本稿では,確立された手法を用いて各バッチの点集合を提案し,これらの候補点から,並列に実行できる試行回数をダウンセレクトする手法を提案する。
我々は、正規化コストの平均50%の削減を達成し、これは非常に大きな性能改善である。
論文 参考訳(メタデータ) (2021-03-18T15:30:15Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Towards Automatic Bayesian Optimization: A first step involving
acquisition functions [0.0]
ベイズ最適化 (Bayesian optimization) は、ブラックボックスの最適化、すなわち解析的表現にアクセスできない関数の最先端技術である。
獲得関数を自動調整するいくつかの手法を探索し,自動ベイズ最適化に対する最初の試みを提案する。
論文 参考訳(メタデータ) (2020-03-21T12:22:45Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。