論文の概要: Cost-aware Stopping for Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2507.12453v1
- Date: Wed, 16 Jul 2025 17:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.507607
- Title: Cost-aware Stopping for Bayesian Optimization
- Title(参考訳): ベイズ最適化のためのコスト認識停止
- Authors: Qian Xie, Linda Cai, Alexander Terenin, Peter I. Frazier, Ziv Scully,
- Abstract要約: 本稿では,様々な評価コストに適応し,チューニングが不要なベイズ最適化のためのコスト対応停止則を提案する。
我々は,最先端の取得関数と組み合わせた場合,停止規則によって得られる期待累積評価コストを拘束する理論的な保証を証明した。
- 参考スコア(独自算出の注目度): 53.34052774820105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In automated machine learning, scientific discovery, and other applications of Bayesian optimization, deciding when to stop evaluating expensive black-box functions is an important practical consideration. While several adaptive stopping rules have been proposed, in the cost-aware setting they lack guarantees ensuring they stop before incurring excessive function evaluation costs. We propose a cost-aware stopping rule for Bayesian optimization that adapts to varying evaluation costs and is free of heuristic tuning. Our rule is grounded in a theoretical connection to state-of-the-art cost-aware acquisition functions, namely the Pandora's Box Gittins Index (PBGI) and log expected improvement per cost. We prove a theoretical guarantee bounding the expected cumulative evaluation cost incurred by our stopping rule when paired with these two acquisition functions. In experiments on synthetic and empirical tasks, including hyperparameter optimization and neural architecture size search, we show that combining our stopping rule with the PBGI acquisition function consistently matches or outperforms other acquisition-function--stopping-rule pairs in terms of cost-adjusted simple regret, a metric capturing trade-offs between solution quality and cumulative evaluation cost.
- Abstract(参考訳): 自動機械学習、科学的発見、その他のベイズ最適化の応用において、高価なブラックボックス関数の評価をいつ停止するかを決めることは重要な実践的考察である。
いくつかの適応的な停止規則が提案されているが、コストを意識した設定では、過剰な関数評価コストが発生する前に停止する保証が欠如している。
本稿では,様々な評価コストに適応し,ヒューリスティックなチューニングが不要なベイズ最適化のためのコスト対応停止則を提案する。
私たちのルールは、最先端のコスト認識取得機能、すなわちPandoraのBox Gittins Index(PBGI)と、コスト毎のログ改善という理論的に結びついています。
これら2つの取得関数をペアにした場合に、停止規則によって得られる期待累積評価コストを拘束する理論的な保証が証明される。
超パラメータ最適化やニューラルアーキテクチャサイズ探索など,合成および経験的タスクの実験において,我々の停止規則とPBGI獲得関数との組み合わせは,コスト調整された単純な後悔,ソリューション品質と累積評価コストのトレードオフを計測する指標として,他の獲得関数-ストッピングルール対と一貫して一致し,より優れることを示した。
関連論文リスト
- Cost-aware Bayesian Optimization via the Pandora's Box Gittins Index [57.045952766988925]
我々は,コストを意識したベイズ最適化と,経済学の意思決定問題であるPandoraのBox問題との間に,従来未解決の接続関係を構築した。
我々の研究は、Gittinsインデックス理論からベイズ最適化への技術統合に向けた第一歩となる。
論文 参考訳(メタデータ) (2024-06-28T17:20:13Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Multi-Step Budgeted Bayesian Optimization with Unknown Evaluation Costs [28.254408148839644]
不均一な評価コストの設定に古典的な期待改善を一般化する非筋力的獲得関数を提案する。
我々の獲得関数は、様々な合成問題や実問題において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2021-11-12T02:18:26Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - A Nonmyopic Approach to Cost-Constrained Bayesian Optimization [10.078368988372247]
コスト制約付きBOを制約付きマルコフ決定過程(CMDP)として定式化する。
コストと将来のイテレーションを考慮に入れた最適CMDPポリシーに対する効率的なロールアウト近似を開発する。
論文 参考訳(メタデータ) (2021-06-10T22:44:37Z) - Cost-Efficient Online Hyperparameter Optimization [94.60924644778558]
実験の単一実行でヒトのエキスパートレベルのパフォーマンスに達するオンラインHPOアルゴリズムを提案します。
提案するオンラインhpoアルゴリズムは,実験の1回で人間のエキスパートレベルのパフォーマンスに到達できるが,通常のトレーニングに比べて計算オーバーヘッドは少ない。
論文 参考訳(メタデータ) (2021-01-17T04:55:30Z) - Pareto-efficient Acquisition Functions for Cost-Aware Bayesian
Optimization [5.459427541271035]
ブラックボックス関数に対するコスト対応ベイズ最適化について述べる。
144個の実世界のブラックボックス関数最適化問題に対して、我々のソリューションは50%のスピードアップをもたらす。
また、ガウスのプロセスコストモデルに対する一般的な選択を再考し、単純で低分散のコストモデルがトレーニング時間を効果的に予測することを示した。
論文 参考訳(メタデータ) (2020-11-23T15:06:07Z) - Cost-aware Bayesian Optimization [6.75013674088437]
コストを意識したBOは、時間、エネルギー、お金といった他のコスト指標との収束を測定します。
我々は,目標関数をできるだけ少ないコストで最小化しようとするコスト調整BO(CArBO)を導入する。
論文 参考訳(メタデータ) (2020-03-22T14:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。