論文の概要: Regret Bounds for Gaussian-Process Optimization in Large Domains
- arxiv url: http://arxiv.org/abs/2104.14113v1
- Date: Thu, 29 Apr 2021 05:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 22:34:56.272961
- Title: Regret Bounds for Gaussian-Process Optimization in Large Domains
- Title(参考訳): 大きな領域におけるガウス過程最適化の後悔境界
- Authors: Manuel W\"uthrich, Bernhard Sch\"olkopf, Andreas Krause
- Abstract要約: 最適化戦略から得られる解の準最適性(ベイズ的単純後悔)の上限を与える。
これらの後悔の境界は、評価の数、ドメインサイズ、および検索された関数値の最適性の関係を照らす。
特に、評価の数が小さすぎて大域的な最適値が見つからなかったとしても、非自明な関数値を見つけることができる。
- 参考スコア(独自算出の注目度): 40.92207267407271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of this paper is to characterize Gaussian-Process optimization in
the setting where the function domain is large relative to the number of
admissible function evaluations, i.e., where it is impossible to find the
global optimum. We provide upper bounds on the suboptimality (Bayesian simple
regret) of the solution found by optimization strategies that are closely
related to the widely used expected improvement (EI) and upper confidence bound
(UCB) algorithms. These regret bounds illuminate the relationship between the
number of evaluations, the domain size (i.e. cardinality of finite domains /
Lipschitz constant of the covariance function in continuous domains), and the
optimality of the retrieved function value. In particular, they show that even
when the number of evaluations is far too small to find the global optimum, we
can find nontrivial function values (e.g. values that achieve a certain ratio
with the optimal value).
- Abstract(参考訳): 本論文の目的は,機能領域が許容機能評価数に対して大きい設定,すなわち大域的最適性を見出すことができない設定において,ガウス過程最適化を特徴付けることである。
最適化戦略から得られた解の準最適性(ベイジアン的単純後悔)の上限は、広く使われている期待改善(EI)と高信頼境界(UCB)アルゴリズムに密接に関連している。
これらの後悔は、評価の数、ドメインサイズ(すなわち)の関係を照らす。
有限領域の濃度 / 連続領域における共分散関数のリプシッツ定数)、および得られた関数値の最適性。
特に、評価の数が小さすぎて大域的な最適値が見つからなかったとしても、非自明な関数値(例)を見つけることができる。
最適な値と一定の比率を達成する値)。
関連論文リスト
- DeepHive: A multi-agent reinforcement learning approach for automated
discovery of swarm-based optimization policies [0.0]
Swarm内の各エージェントの状態は、設計空間内の現在の位置と関数値として定義される。
提案手法は,様々なベンチマーク最適化関数を用いて検証し,他のグローバル最適化手法との比較を行った。
論文 参考訳(メタデータ) (2023-03-29T18:08:08Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Bayesian Optimization of Function Networks [20.73717187683924]
本稿では,関数ネットワークの出力のベイジアン最適化,親ノードの出力の入力として各関数が要し,ネットワークの評価に要する時間について考察する。
我々の手法は、前者が無視する情報、すなわちネットワーク内の中間出力を活用することにより、クエリ効率を向上する。
提案手法は,いくつかの合成および実世界の問題において,標準的なベイズ最適化手法よりも劇的に優れていることを示す。
論文 参考訳(メタデータ) (2021-12-31T05:35:21Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - What do you Mean? The Role of the Mean Function in Bayesian Optimisation [0.03305438525880806]
収束速度は平均関数の選択に敏感に依存できることを示す。
設計次元について、最低の観測値に等しい定数平均関数を使用する$ge5$が、常に最良の選択であることがわかった。
論文 参考訳(メタデータ) (2020-04-17T17:10:17Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。