論文の概要: Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces
- arxiv url: http://arxiv.org/abs/2009.02539v4
- Date: Sun, 1 Nov 2020 12:38:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:53:51.494700
- Title: Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces
- Title(参考訳): 未知探索空間におけるベイズ最適化に対する部分線形後悔境界
- Authors: Hung Tran-The, Sunil Gupta, Santu Rana, Huong Ha, Svetha Venkatesh
- Abstract要約: 本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
- 参考スコア(独自算出の注目度): 63.22864716473051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimisation is a popular method for efficient optimisation of
expensive black-box functions. Traditionally, BO assumes that the search space
is known. However, in many problems, this assumption does not hold. To this
end, we propose a novel BO algorithm which expands (and shifts) the search
space over iterations based on controlling the expansion rate thought a
hyperharmonic series. Further, we propose another variant of our algorithm that
scales to high dimensions. We show theoretically that for both our algorithms,
the cumulative regret grows at sub-linear rates. Our experiments with synthetic
and real-world optimisation tasks demonstrate the superiority of our algorithms
over the current state-of-the-art methods for Bayesian optimisation in unknown
search space.
- Abstract(参考訳): ベイズ最適化は高価なブラックボックス関数の効率的な最適化のための一般的な方法である。
伝統的に、BOは検索空間が知られていると仮定する。
しかし、多くの問題において、この仮定は成り立たない。
そこで本研究では,超調和級数を考える拡張率の制御に基づいて探索空間を反復的に拡張(シフト)する新しいboアルゴリズムを提案する。
さらに,高次元までスケールするアルゴリズムの別の変種を提案する。
理論的には、我々のアルゴリズムでは、累積後悔はサブリニアレートで増加する。
合成および実世界の最適化タスクを用いた実験は,未知探索空間におけるベイズ最適化の現在の最先端手法よりもアルゴリズムの優越性を示す。
関連論文リスト
- High dimensional Bayesian Optimization via Condensing-Expansion Projection [1.6355174910200032]
高次元設定では、ベイズ最適化(BO)は高価で実現不可能である。
実効的な部分空間仮定に応答しない高次元BOに対して、新しいランダムなプロジェクションに基づくアプローチを導入する。
実験の結果、どちらのアルゴリズムも既存のランダムな埋め込みに基づくアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-08-09T04:47:38Z) - Voronoi Candidates for Bayesian Optimization [2.7309692684728617]
多くの実践的なBO法、特に高次元では、取得関数の形式的で連続的な最適化を導出する。
本稿では,現在の設計点のヴォロノイ・テッセルレーションの境界上にある候補を用いて,それらのうち2つ以上に等しくなるようにすることを提案する。
テッセルレーションを明示的に生成することなく,ヴォロノイ境界を直接サンプリングすることで,効率的な実装の戦略について議論する。
論文 参考訳(メタデータ) (2024-02-07T14:47:13Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Computationally Efficient High-Dimensional Bayesian Optimization via
Variable Selection [0.5439020425818999]
本稿では,変数選択を利用した計算効率の高い高次元BO法を提案する。
提案手法では,選択変数を含む空間を軸整列した部分空間を自動的に学習することができる。
我々は,いくつかの合成および実問題に対する本手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-09-20T01:55:43Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Semi-supervised Embedding Learning for High-dimensional Bayesian
Optimization [12.238019485880583]
本稿では,半教師付き次元の縮小によりベイズ最適化を反復的に行うための低次元空間を求める新しい枠組みを提案する。
SILBOは、取得関数から取得したラベル付き点とラベルなし点の両方を組み込んで、埋め込み空間学習をガイドする。
SILBOは既存の最先端高次元ベイズ最適化法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-29T14:37:12Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。