論文の概要: Bayesian Optimistic Optimisation with Exponentially Decaying Regret
- arxiv url: http://arxiv.org/abs/2105.04332v1
- Date: Mon, 10 May 2021 13:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 18:59:35.700495
- Title: Bayesian Optimistic Optimisation with Exponentially Decaying Regret
- Title(参考訳): 漸減レグレットによるベイズ最適化
- Authors: Hung Tran-The, Sunil Gupta, Santu Rana, Svetha Venkatesh
- Abstract要約: 現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 58.02542541410322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimisation (BO) is a well-known efficient algorithm for finding
the global optimum of expensive, black-box functions. The current practical BO
algorithms have regret bounds ranging from $\mathcal{O}(\frac{logN}{\sqrt{N}})$
to $\mathcal O(e^{-\sqrt{N}})$, where $N$ is the number of evaluations. This
paper explores the possibility of improving the regret bound in the noiseless
setting by intertwining concepts from BO and tree-based optimistic optimisation
which are based on partitioning the search space. We propose the BOO algorithm,
a first practical approach which can achieve an exponential regret bound with
order $\mathcal O(N^{-\sqrt{N}})$ under the assumption that the objective
function is sampled from a Gaussian process with a Mat\'ern kernel with
smoothness parameter $\nu > 4 +\frac{D}{2}$, where $D$ is the number of
dimensions. We perform experiments on optimisation of various synthetic
functions and machine learning hyperparameter tuning tasks and show that our
algorithm outperforms baselines.
- Abstract(参考訳): ベイズ最適化 (bayesian optimization, bo) は、高価なブラックボックス関数のグローバル最適を求めるための、よく知られた効率的なアルゴリズムである。
現在の実用的なboアルゴリズムは、$\mathcal{o}(\frac{logn}{\sqrt{n}})$から$\mathcal o(e^{-\sqrt{n}})$までの後悔の限界を持ち、ここで$n$は評価の数である。
本稿では,探索空間の分割に基づくBOの概念と木に基づく楽観的最適化を交互に組み合わせることで,雑音のない環境における後悔関係を改善する可能性を検討する。
BOOアルゴリズムは,次数$\mathcal O(N^{-\sqrt{N}})$で指数的再帰を達成できる最初の実用的手法であり,目的関数が滑らか度パラメータ$\nu > 4 +\frac{D}{2}$のMat\'ernカーネルを持つガウス過程からサンプリングされるという仮定の下で,D$は次元数である。
各種合成関数の最適化と機械学習ハイパーパラメータチューニングタスクの実験を行い,アルゴリズムがベースラインより優れていることを示す。
関連論文リスト
- Provably Efficient Infinite-Horizon Average-Reward Reinforcement Learning with Linear Function Approximation [1.8416014644193066]
ベルマン最適条件下で線形マルコフ決定過程(MDP)と線形混合MDPを学習するアルゴリズムを提案する。
線形MDPに対する我々のアルゴリズムは、$widetildemathcalO(d3/2mathrmsp(v*)sqrtT)$ over $T$タイムステップの最もよく知られた後悔の上限を達成する。
線形混合 MDP に対して、我々のアルゴリズムは、$widetildemathcalO(dcdotmathrm) の後悔境界に達する。
論文 参考訳(メタデータ) (2024-09-16T23:13:42Z) - An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Lower Bounds on the Worst-Case Complexity of Efficient Global
Optimization [11.523746174066702]
我々は、その対応する再生核ヒルベルト空間(RKHS)における球の計量エントロピーの観点から、効率的な大域最適化の複雑さに対する統一された下界を導出する。
この下界は、一般に使用される2乗指数核とマタン核の非適応探索アルゴリズムによって達成された上界にほぼ一致することを示す。
論文 参考訳(メタデータ) (2022-09-20T11:57:13Z) - Gaussian Process Bandit Optimization with Few Batches [49.896920704012395]
有限腕バンディットアルゴリズムにインスパイアされたバッチアルゴリズムを導入する。
O(log T)$ batches in time horizon $T$.sqrtTgamma_T)$ using $O(log T)$ batches in time horizon。
さらに,アルゴリズムの修正版を提案し,バッチ数によって後悔がどう影響するかを特徴付ける。
論文 参考訳(メタデータ) (2021-10-15T00:54:04Z) - Ada-BKB: Scalable Gaussian Process Optimization on Continuous Domain by
Adaptive Discretization [21.859940486704264]
GPUCBのようなアルゴリズムは計算の複雑さを禁止している。
関数のノアアルゴリズムは、連続最適化の真の問題を裏付ける。
論文 参考訳(メタデータ) (2021-06-16T07:55:45Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。