論文の概要: Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization
- arxiv url: http://arxiv.org/abs/2203.07875v1
- Date: Tue, 15 Mar 2022 13:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 22:21:52.935561
- Title: Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization
- Title(参考訳): ガウス過程帯域最適化における改善アルゴリズムのレギュレット境界
- Authors: Hung Tran-The and Sunil Gupta and Santu Rana and Svetha Venkatesh
- Abstract要約: 期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
- 参考スコア(独自算出の注目度): 63.8557841188626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The expected improvement (EI) algorithm is one of the most popular strategies
for optimization under uncertainty due to its simplicity and efficiency.
Despite its popularity, the theoretical aspects of this algorithm have not been
properly analyzed. In particular, whether in the noisy setting, the EI strategy
with a standard incumbent converges is still an open question of the Gaussian
process bandit optimization problem. We aim to answer this question by
proposing a variant of EI with a standard incumbent defined via the GP
predictive mean. We prove that our algorithm converges, and achieves a
cumulative regret bound of $\mathcal O(\gamma_T\sqrt{T})$, where $\gamma_T$ is
the maximum information gain between $T$ observations and the Gaussian process
model. Based on this variant of EI, we further propose an algorithm called
Improved GP-EI that converges faster than previous counterparts. In particular,
our proposed variants of EI do not require the knowledge of the RKHS norm and
the noise's sub-Gaussianity parameter as in previous works. Empirical
validation in our paper demonstrates the effectiveness of our algorithms
compared to several baselines.
- Abstract(参考訳): 期待されている改善(EI)アルゴリズムは、その単純さと効率性から不確実性の下で最適化するための最も一般的な戦略の1つである。
その人気にもかかわらず、このアルゴリズムの理論的側面は適切に分析されていない。
特に、ノイズ環境では、標準帰納的収束を伴うEI戦略は、ガウス過程のバンドイット最適化問題に対する未解決の問題である。
我々は,GP予測平均を通じて定義された標準既存元を持つEIの変種を提案することによって,この問題に答えることを目指している。
我々のアルゴリズムは収束し、$\mathcal O(\gamma_T\sqrt{T})$の累積後悔境界を達成し、$\gamma_T$は、観測値とガウス過程モデルの間の最大情報ゲインである。
この変種EIに基づいて,従来よりも高速に収束する改良GP-EIアルゴリズムを提案する。
特に、提案したEIの変種は、以前の研究のように、RKHSノルムとノイズの準ガウス性パラメータの知識を必要としない。
本稿では,いくつかのベースラインと比較し,アルゴリズムの有効性を実証する。
関連論文リスト
- Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Misspecified Gaussian Process Bandit Optimization [59.30399661155574]
カーネル化されたバンディットアルゴリズムは、この問題に対して強い経験的および理論的性能を示した。
本稿では、未知関数を$epsilon$-一様近似で近似できるエンフェミス特定カーネル化帯域設定を、ある再生カーネルヒルベルト空間(RKHS)において有界ノルムを持つ関数で導入する。
提案アルゴリズムは,不特定性に関する事前知識を伴わず,$epsilon$への最適依存を実現する。
論文 参考訳(メタデータ) (2021-11-09T09:00:02Z) - $\bar{G}_{mst}$:An Unbiased Stratified Statistic and a Fast Gradient
Optimization Algorithm Based on It [0.0]
barG_mst$をベースとしたMSSGという新しいアルゴリズムは、他のsgdライクなアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-07T11:48:55Z) - No-Regret Algorithms for Private Gaussian Process Bandit Optimization [13.660643701487002]
プライバシー保護統計のレンズによるガウス過程(GP)帯域最適化の至るところでの問題点を考察する。
均一なカーネル近似器とランダムな摂動を組み合わせた差分プライベートGPバンディット最適化のためのソリューションを提案する。
我々のアルゴリズムは最適化手順を通して微分プライバシを保持し、予測のためのサンプルパスに明示的に依存しない。
論文 参考訳(メタデータ) (2021-02-24T18:52:24Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。