論文の概要: Adjusted Expected Improvement for Cumulative Regret Minimization in Noisy Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2205.04901v3
- Date: Thu, 03 Oct 2024 16:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 23:27:08.151367
- Title: Adjusted Expected Improvement for Cumulative Regret Minimization in Noisy Bayesian Optimization
- Title(参考訳): 雑音ベイズ最適化における累積レギュレット最小化の調整による改善
- Authors: Shouri Hu, Haowei Wang, Zhongxiang Dai, Bryan Kian Hsiang Low, Szu Hui Ng,
- Abstract要約: 我々は, 累積的後悔の下で, 期待される改善機能に適応する。
評価コストと呼ばれる新しい量を、取得機能と比較する。
我々は、最大情報ゲインに基づいて、EICの高確率後悔上限を確立する。
- 参考スコア(独自算出の注目度): 37.99915557191065
- License:
- Abstract: The expected improvement (EI) is one of the most popular acquisition functions for Bayesian optimization (BO) and has demonstrated good empirical performances in many applications for the minimization of simple regret. However, under the evaluation metric of cumulative regret, the performance of EI may not be competitive, and its existing theoretical regret upper bound still has room for improvement. To adapt the EI for better performance under cumulative regret, we introduce a novel quantity called the evaluation cost which is compared against the acquisition function, and with this, develop the expected improvement-cost (EIC) algorithm. In each iteration of EIC, a new point with the largest acquisition function value is sampled, only if that value exceeds its evaluation cost. If none meets this criteria, the current best point is resampled. This evaluation cost quantifies the potential downside of sampling a point, which is important under the cumulative regret metric as the objective function value in every iteration affects the performance measure. We establish in theory a high-probability regret upper bound of EIC based on the maximum information gain, which is tighter than the bound of existing EI-based algorithms. It is also comparable to the regret bound of other popular BO algorithms such as Thompson sampling (GP-TS) and upper confidence bound (GP-UCB). We further perform experiments to illustrate the improvement of EIC over several popular BO algorithms.
- Abstract(参考訳): 期待されている改善(EI)はベイズ最適化(BO)の最も一般的な獲得機能の一つであり、単純な後悔の最小化のために多くのアプリケーションで優れた経験的性能を示してきた。
しかし、累積的後悔の評価基準では、EIの性能は競争力がなく、既存の理論的後悔の上限は改善の余地がある。
累積的後悔の下で、EIをより良い性能に適応させるために、獲得関数と比較する評価コストと呼ばれる新しい量を導入し、これを用いて、期待される改善コスト(EIC)アルゴリズムを開発する。
EICの各イテレーションでは、その値がその評価コストを超える場合に限り、最大の取得関数値を持つ新しいポイントをサンプリングする。
もし誰もこの基準を満たさないなら、現在の最良の点は再サンプリングされる。
この評価コストは、各反復における目的関数値が性能測定に影響を及ぼすため、累積後悔距離の下で重要な点をサンプリングする可能性の欠点を定量化する。
理論的には、既存のEIアルゴリズムの限界よりも厳密な最大情報ゲインに基づいて、EICの高確率後悔上限を確立する。
また、トンプソンサンプリング(GP-TS)やアッパー信頼バウンド(GP-UCB)など、他の一般的なBOアルゴリズムの後悔の束縛に匹敵する。
さらに,いくつかのBOアルゴリズムに対するEICの改善を示す実験を行った。
関連論文リスト
- $i$REPO: $i$mplicit Reward Pairwise Difference based Empirical Preference Optimization [12.266207199002604]
大規模言語モデル(LLM)は、人間の期待から外れた出力を生成することがある。
経験的選好最適化に暗黙的逆差分回帰を利用する,$i$REPO という新しいフレームワークを提案する。
i$REPOは, ソフトラベル, 自己生成応答, 経験的AIアノテータのロジットを用いて, 効果的に自己アライメントを実現することを示す。
論文 参考訳(メタデータ) (2024-05-24T05:42:11Z) - Lower-Left Partial AUC: An Effective and Efficient Optimization Metric
for Recommendation [52.45394284415614]
我々は,AUCのように計算効率が良く,Top-Kランキングの指標と強く相関する新しい最適化指標であるLLPAUCを提案する。
LLPAUCはローワーレフト角のROC曲線の下の部分領域のみを考慮し、最適化はトップKに焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T13:58:33Z) - Unexpected Improvements to Expected Improvement for Bayesian
Optimization [23.207497480389208]
提案するLogEIは,メンバが標準値と同一あるいはほぼ等しい最適値を持つが,数値的最適化が極めて容易な,新たな獲得関数群である。
実験結果から,LogEIファミリーの獲得関数は,標準関数の最適化性能を大幅に向上し,最近の最先端の獲得関数の性能に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2023-10-31T17:59:56Z) - High-dimensional Contextual Bandit Problem without Sparsity [8.782204980889077]
本稿では,この問題に対処し,その性能を検証するための探索列コミット(EtC)アルゴリズムを提案する。
我々は、ETCアルゴリズムの最適レートを$T$で導出し、探索とエクスプロイトのバランスをとることで、このレートを実現できることを示す。
本稿では,最適バランスを適応的に求める適応探索定理 (AEtC) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T15:29:32Z) - Optimizing Two-way Partial AUC with an End-to-end Framework [154.47590401735323]
ROC曲線のエリア(AUC)は、機械学習にとって重要な指標である。
最近の研究は、TPAUCが既存のPartial AUCメトリクスと本質的に矛盾していることを示している。
本論文では,この新指標を最適化するための最初の試行について述べる。
論文 参考訳(メタデータ) (2022-06-23T12:21:30Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - Rectified Max-Value Entropy Search for Bayesian Optimization [54.26984662139516]
我々は、相互情報の概念に基づいて、修正されたMES取得関数を開発する。
その結果、RMESは、いくつかの合成関数ベンチマークと実世界の最適化問題において、MESよりも一貫した改善を示している。
論文 参考訳(メタデータ) (2022-02-28T08:11:02Z) - SnAKe: Bayesian Optimization with Pathwise Exploration [9.807656882149319]
本稿では,イテレーション間の大きな入力変更を行う場合,関数評価のコストが大幅に増大する,という新しい設定について考察する。
本稿では,この問題を考察し,適応接続サンプルを用いた逐次ベイズ最適化(SnAKe)を導入する。
将来のクエリを考慮し、入力コストを最小限に抑える最適化パスをプリエンプティブに構築することで、ソリューションを提供する。
論文 参考訳(メタデータ) (2022-01-31T19:42:56Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。