論文の概要: Automatic prior selection for meta Bayesian optimization with a case
study on tuning deep neural network optimizers
- arxiv url: http://arxiv.org/abs/2109.08215v1
- Date: Thu, 16 Sep 2021 20:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:49:11.946187
- Title: Automatic prior selection for meta Bayesian optimization with a case
study on tuning deep neural network optimizers
- Title(参考訳): メタベイズ最適化のための自動事前選択 : ディープニューラルネットワークオプティマイザのチューニングを事例として
- Authors: Zi Wang and George E. Dahl and Kevin Swersky and Chansoo Lee and Zelda
Mariet and Zack Nado and Justin Gilmer and Jasper Snoek and Zoubin Ghahramani
- Abstract要約: このような高価なハイパーパラメータチューニング問題を効率的に解くための原理的アプローチを提案する。
BOの性能の鍵となるのは関数上の分布を指定および精製することであり、これは基礎となる関数の最適化を推論するために使われる。
我々は、一般的な画像やテキストデータセット上で、最先端に近いモデルの何万もの設定をトレーニングすることで、現実的なモデルトレーニング設定におけるアプローチを検証する。
- 参考スコア(独自算出の注目度): 47.013395100497775
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The performance of deep neural networks can be highly sensitive to the choice
of a variety of meta-parameters, such as optimizer parameters and model
hyperparameters. Tuning these well, however, often requires extensive and
costly experimentation. Bayesian optimization (BO) is a principled approach to
solve such expensive hyperparameter tuning problems efficiently. Key to the
performance of BO is specifying and refining a distribution over functions,
which is used to reason about the optima of the underlying function being
optimized. In this work, we consider the scenario where we have data from
similar functions that allows us to specify a tighter distribution a priori.
Specifically, we focus on the common but potentially costly task of tuning
optimizer parameters for training neural networks. Building on the meta BO
method from Wang et al. (2018), we develop practical improvements that (a)
boost its performance by leveraging tuning results on multiple tasks without
requiring observations for the same meta-parameter points across all tasks, and
(b) retain its regret bound for a special case of our method. As a result, we
provide a coherent BO solution for iterative optimization of continuous
optimizer parameters. To verify our approach in realistic model training
setups, we collected a large multi-task hyperparameter tuning dataset by
training tens of thousands of configurations of near-state-of-the-art models on
popular image and text datasets, as well as a protein sequence dataset. Our
results show that on average, our method is able to locate good hyperparameters
at least 3 times more efficiently than the best competing methods.
- Abstract(参考訳): ディープニューラルネットワークの性能は、オプティマイザパラメータやモデルハイパーパラメータなど、さまざまなメタパラメータの選択に非常に敏感である。
しかし、これらをうまくチューニングするには、しばしば広範囲で費用のかかる実験が必要となる。
ベイズ最適化(BO)はそのような高価なハイパーパラメータチューニング問題を効率的に解くための原理的手法である。
BOの性能の鍵となるのは関数上の分布を指定および精製することであり、これは基礎となる関数の最適化を推論するために使われる。
本研究では,より厳密な分布を優先的に指定できる類似関数のデータを持つシナリオについて考察する。
具体的には、ニューラルネットワークのトレーニングのための最適化パラメータを最適化する一般的な作業に焦点を当てる。
Wang et al. (2018) のメタBO法に基づいて構築し, 実用的改善を図った。
(a)全てのタスクで同じメタパラメータポイントの観察を必要とせず、複数のタスクのチューニング結果を活用することでパフォーマンスを向上させる。
b) 当社の方法の特別の場合について,その後悔は保たれる。
その結果、連続オプティマイザパラメータの反復最適化のためのコヒーレントBOソリューションが提供される。
現実的なモデルトレーニング設定における我々のアプローチを検証するために、人気画像やテキストデータセット、およびタンパク質配列データセットに基づいて、数万の最先端モデルの構成をトレーニングすることで、大規模なマルチタスクハイパーパラメータチューニングデータセットを収集しました。
以上の結果から,提案手法は競合する手法の少なくとも3倍の効率で優れたハイパーパラメータを見つけることができることがわかった。
関連論文リスト
- Approximation-Aware Bayesian Optimization [34.56666383247348]
高次元ベイズ最適化(BO)タスクは、意味のある結果を得る前に10,000の関数評価を必要とすることが多い。
本稿では,小変動ガウス過程 (SVGP) をBOの目標とよく一致させるために修正する。
ユーティリティ校正変分推論の枠組みを用いて,GP近似とデータ取得を共同最適化問題に統一する。
論文 参考訳(メタデータ) (2024-06-06T17:55:02Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - HyperBO+: Pre-training a universal prior for Bayesian optimization with
hierarchical Gaussian processes [7.963551878308098]
HyperBO+は階層型ガウス過程の事前学習手法である。
我々はHyperBO+が検索空間に一般化でき、競合するベースラインよりも後悔度が低いことを示す。
論文 参考訳(メタデータ) (2022-12-20T18:47:10Z) - Prior-mean-assisted Bayesian optimization application on FRIB Front-End
tunning [61.78406085010957]
我々は、FRIBフロントエンドチューニングのためのBOの事前平均として、過去のデータに基づいてトレーニングされたニューラルネットワークモデルを利用する。
本稿では、FRIBフロントエンドチューニングのためのBOの事前平均として、過去のデータに基づいてトレーニングされたニューラルネットワークモデルを利用する。
論文 参考訳(メタデータ) (2022-11-11T18:34:15Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Accounting for Gaussian Process Imprecision in Bayesian Optimization [0.0]
ガウス過程の先行仕様が古典的BO収束に及ぼす影響について検討する。
本稿では,従来のパラメータの誤特定に対して,メソッドをより堅牢にレンダリングすることを目的としたBOの一般化としてPROBOを紹介した。
物質科学の現実的な問題に対して,従来のBOに対する我々のアプローチを検証し,より高速に収束するためにPROBOを観察する。
論文 参考訳(メタデータ) (2021-11-16T08:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。