論文の概要: Towards Automatic Bayesian Optimization: A first step involving
acquisition functions
- arxiv url: http://arxiv.org/abs/2003.09643v2
- Date: Tue, 12 Jan 2021 15:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 10:16:24.164643
- Title: Towards Automatic Bayesian Optimization: A first step involving
acquisition functions
- Title(参考訳): 自動ベイズ最適化に向けて : 獲得関数に関わる第一歩
- Authors: Eduardo C. Garrido Merch\'an, Luis C. Jariego P\'erez
- Abstract要約: ベイズ最適化 (Bayesian optimization) は、ブラックボックスの最適化、すなわち解析的表現にアクセスできない関数の最先端技術である。
獲得関数を自動調整するいくつかの手法を探索し,自動ベイズ最適化に対する最初の試みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian Optimization is the state of the art technique for the optimization
of black boxes, i.e., functions where we do not have access to their analytical
expression nor its gradients, they are expensive to evaluate and its evaluation
is noisy. The most popular application of bayesian optimization is the
automatic hyperparameter tuning of machine learning algorithms, where we obtain
the best configuration of machine learning algorithms by optimizing the
estimation of the generalization error of these algorithms. Despite being
applied with success, bayesian optimization methodologies also have
hyperparameters that need to be configured such as the probabilistic surrogate
model or the acquisition function used. A bad decision over the configuration
of these hyperparameters implies obtaining bad quality results. Typically,
these hyperparameters are tuned by making assumptions of the objective function
that we want to evaluate but there are scenarios where we do not have any prior
information about the objective function. In this paper, we propose a first
attempt over automatic bayesian optimization by exploring several heuristics
that automatically tune the acquisition function of bayesian optimization. We
illustrate the effectiveness of these heurisitcs in a set of benchmark problems
and a hyperparameter tuning problem of a machine learning algorithm.
- Abstract(参考訳): ベイズ最適化 (Bayesian Optimization) は、ブラックボックスの最適化(つまり、解析的表現や勾配にアクセスできない関数)の最先端技術であり、評価は高価であり、評価はノイズが多い。
ベイズ最適化の最も一般的な応用は機械学習アルゴリズムの自動ハイパーパラメータチューニングであり、これらのアルゴリズムの一般化誤差を最適化して機械学習アルゴリズムの最適構成を得る。
ベイズ最適化手法は成功して適用されているものの、確率的サロゲートモデルや使用する獲得関数などの設定が必要なハイパーパラメータも備えている。
これらのハイパーパラメータの構成に関する悪い決定は、悪い品質結果を得ることを意味する。
通常、これらのハイパーパラメータは、我々が評価したい目的関数を仮定することで調整されますが、目的関数に関する事前情報を持っていないシナリオがあります。
本稿では,ベイズ最適化の獲得関数を自動的にチューニングする複数のヒューリスティックを探索し,ベイズ最適化に対する最初の試みを提案する。
機械学習アルゴリズムのベンチマーク問題とハイパーパラメータチューニング問題において,これらのヒューリシックの有効性について述べる。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Fine-Tuning Adaptive Stochastic Optimizers: Determining the Optimal Hyperparameter $ε$ via Gradient Magnitude Histogram Analysis [0.7366405857677226]
我々は、損失の大きさの経験的確率密度関数に基づく新しい枠組みを導入し、これを「緩やかな等級ヒストグラム」と呼ぶ。
そこで本稿では, 最適安全のための精密かつ高精度な探索空間を自動推定するために, 勾配等級ヒストグラムを用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-20T04:34:19Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - A Gradient-based Bilevel Optimization Approach for Tuning
Hyperparameters in Machine Learning [0.0]
本稿では,ハイパーパラメータ最適化問題の解法として,二段階解法を提案する。
提案手法は汎用的で,任意の種類の機械学習アルゴリズムに容易に適用可能である。
提案アルゴリズムの背景にある理論を議論し、2つのデータセットについて広範な計算研究を行う。
論文 参考訳(メタデータ) (2020-07-21T18:15:08Z) - BOSH: Bayesian Optimization by Sampling Hierarchically [10.10241176664951]
本稿では,階層的なガウス過程と情報理論の枠組みを組み合わせたBOルーチンを提案する。
BOSHは, ベンチマーク, シミュレーション最適化, 強化学習, ハイパーパラメータチューニングタスクにおいて, 標準BOよりも効率的で高精度な最適化を実現する。
論文 参考訳(メタデータ) (2020-07-02T07:35:49Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。