論文の概要: Pareto-efficient Acquisition Functions for Cost-Aware Bayesian
Optimization
- arxiv url: http://arxiv.org/abs/2011.11456v2
- Date: Tue, 24 Nov 2020 14:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:27:15.519076
- Title: Pareto-efficient Acquisition Functions for Cost-Aware Bayesian
Optimization
- Title(参考訳): コスト対応ベイズ最適化のためのパレート効率のよい取得関数
- Authors: Gauthier Guinet, Valerio Perrone and C\'edric Archambeau
- Abstract要約: ブラックボックス関数に対するコスト対応ベイズ最適化について述べる。
144個の実世界のブラックボックス関数最適化問題に対して、我々のソリューションは50%のスピードアップをもたらす。
また、ガウスのプロセスコストモデルに対する一般的な選択を再考し、単純で低分散のコストモデルがトレーニング時間を効果的に予測することを示した。
- 参考スコア(独自算出の注目度): 5.459427541271035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO) is a popular method to optimize expensive
black-box functions. It efficiently tunes machine learning algorithms under the
implicit assumption that hyperparameter evaluations cost approximately the
same. In reality, the cost of evaluating different hyperparameters, be it in
terms of time, dollars or energy, can span several orders of magnitude of
difference. While a number of heuristics have been proposed to make BO
cost-aware, none of these have been proven to work robustly. In this work, we
reformulate cost-aware BO in terms of Pareto efficiency and introduce the cost
Pareto Front, a mathematical object allowing us to highlight the shortcomings
of commonly used acquisition functions. Based on this, we propose a novel
Pareto-efficient adaptation of the expected improvement. On 144 real-world
black-box function optimization problems we show that our Pareto-efficient
acquisition functions significantly outperform previous solutions, bringing up
to 50% speed-ups while providing finer control over the cost-accuracy
trade-off. We also revisit the common choice of Gaussian process cost models,
showing that simple, low-variance cost models predict training times
effectively.
- Abstract(参考訳): ベイズ最適化(BO)は高価なブラックボックス関数を最適化する一般的な方法である。
ハイパーパラメータ評価がほぼ同じコストであるという暗黙の仮定の下で、機械学習アルゴリズムを効率的にチューニングする。
実際には、時間、ドル、エネルギーといった異なるハイパーパラメータを評価するコストは、何桁もの差がある可能性がある。
BOのコストを意識するために多くのヒューリスティックが提案されているが、いずれも堅牢に機能することが証明されていない。
本研究では,パレート効率の観点からコスト認識BOを再構成し,一般的な獲得関数の欠点を浮き彫りにする数学的対象であるパレートフロントを導入する。
そこで本研究では,期待される改良のパレート効率の高い適応法を提案する。
実世界のブラックボックス関数最適化問題144では、我々のパレート効率の獲得関数が従来のソリューションよりも大幅に優れており、50%のスピードアップを実現し、コスト精度のトレードオフをより細かく制御できることが示されている。
また,gaussian process cost modelの一般的な選択を再考し,単純で低分散なコストモデルがトレーニング時間を効果的に予測できることを示した。
関連論文リスト
- Cost-aware Bayesian Optimization via the Pandora's Box Gittins Index [57.045952766988925]
我々は,コストを意識したベイズ最適化と,経済学の意思決定問題であるPandoraのBox問題との間に,従来未解決の接続関係を構築した。
我々の研究は、Gittinsインデックス理論からベイズ最適化への技術統合に向けた第一歩となる。
論文 参考訳(メタデータ) (2024-06-28T17:20:13Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Multi-Step Budgeted Bayesian Optimization with Unknown Evaluation Costs [28.254408148839644]
不均一な評価コストの設定に古典的な期待改善を一般化する非筋力的獲得関数を提案する。
我々の獲得関数は、様々な合成問題や実問題において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2021-11-12T02:18:26Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - Batch Multi-Fidelity Bayesian Optimization with Deep Auto-Regressive
Networks [17.370056935194786]
我々は,Deep Auto-Regressive Networks (BMBO-DARN) を用いたバッチ多重忠実ベイズ最適化を提案する。
ベイズニューラルネットワークの集合を用いて、完全自己回帰モデルを構築します。
我々は,忠実度を検索することなく,単純かつ効率的なバッチクエリ手法を開発した。
論文 参考訳(メタデータ) (2021-06-18T02:55:48Z) - A Nonmyopic Approach to Cost-Constrained Bayesian Optimization [10.078368988372247]
コスト制約付きBOを制約付きマルコフ決定過程(CMDP)として定式化する。
コストと将来のイテレーションを考慮に入れた最適CMDPポリシーに対する効率的なロールアウト近似を開発する。
論文 参考訳(メタデータ) (2021-06-10T22:44:37Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Cost-aware Bayesian Optimization [6.75013674088437]
コストを意識したBOは、時間、エネルギー、お金といった他のコスト指標との収束を測定します。
我々は,目標関数をできるだけ少ないコストで最小化しようとするコスト調整BO(CArBO)を導入する。
論文 参考訳(メタデータ) (2020-03-22T14:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。