論文の概要: Uncertainty Quantification for Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2002.01569v2
- Date: Fri, 5 May 2023 12:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 18:47:08.517709
- Title: Uncertainty Quantification for Bayesian Optimization
- Title(参考訳): ベイズ最適化のための不確かさ定量化
- Authors: Rui Tuo, Wenjia Wang
- Abstract要約: 目的関数の最大点(あるいは値)の信頼領域を構築することにより、ベイズ最適化アルゴリズムの出力不確実性を評価する新しい手法を提案する。
我々の理論は、既存のシーケンシャルサンプリングポリシーと停止基準に対する統一的な不確実性定量化フレームワークを提供する。
- 参考スコア(独自算出の注目度): 12.433600693422235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization is a class of global optimization techniques. In
Bayesian optimization, the underlying objective function is modeled as a
realization of a Gaussian process. Although the Gaussian process assumption
implies a random distribution of the Bayesian optimization outputs,
quantification of this uncertainty is rarely studied in the literature. In this
work, we propose a novel approach to assess the output uncertainty of Bayesian
optimization algorithms, which proceeds by constructing confidence regions of
the maximum point (or value) of the objective function. These regions can be
computed efficiently, and their confidence levels are guaranteed by the uniform
error bounds for sequential Gaussian process regression newly developed in the
present work. Our theory provides a unified uncertainty quantification
framework for all existing sequential sampling policies and stopping criteria.
- Abstract(参考訳): ベイズ最適化はグローバル最適化手法のクラスである。
ベイズ最適化では、対象関数はガウス過程の実現としてモデル化される。
ガウス過程の仮定はベイズ最適化出力のランダム分布を意味するが、この不確かさの定量化が文献で研究されることは滅多にない。
本研究では,目的関数の最大点(または値)の信頼領域を構築することにより,ベイズ最適化アルゴリズムの出力不確実性を評価するための新しい手法を提案する。
これらの領域は効率的に計算でき、本研究で新たに開発された逐次ガウス過程回帰に対する一様誤差境界によって信頼度が保証される。
本理論は、既存の全ての逐次サンプリングポリシーと停止基準の統一不確実性定量化フレームワークを提供する。
関連論文リスト
- Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Stochastic Bayesian Optimization with Unknown Continuous Context
Distribution via Kernel Density Estimation [28.413085548038932]
本稿では,カーネル密度推定を用いて連続文脈変数の確率密度関数(PDF)をオンラインで学習する2つのアルゴリズムを提案する。
理論的結果は、両方のアルゴリズムが期待する目的に対して準線形ベイズ累積後悔を持つことを示している。
論文 参考訳(メタデータ) (2023-12-16T11:32:28Z) - Quantization-Based Optimization: Alternative Stochastic Approximation of
Global Optimization [0.0]
NP-hard問題における目的関数のエネルギーレベルを定量化するための大域的最適化アルゴリズムを提案する。
数値実験により,提案アルゴリズムはNP-ハード最適化問題の解法において従来の学習法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-08T03:01:45Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Relaxed Gaussian process interpolation: a goal-oriented approach to
Bayesian optimization [0.0]
本研究では,ガウス過程(GP)モデリングの文脈で予測分布を求める新しい手法を提案する。
緩和ガウス過程(reGP)と呼ばれる手法は、興味の範囲でより良い予測分布を提供する。
これはゴール指向の方法と見なすことができ、ベイズ最適化において特に興味深いものとなる。
論文 参考訳(メタデータ) (2022-06-07T06:26:46Z) - Bayesian Optimization of Function Networks [20.73717187683924]
本稿では,関数ネットワークの出力のベイジアン最適化,親ノードの出力の入力として各関数が要し,ネットワークの評価に要する時間について考察する。
我々の手法は、前者が無視する情報、すなわちネットワーク内の中間出力を活用することにより、クエリ効率を向上する。
提案手法は,いくつかの合成および実世界の問題において,標準的なベイズ最適化手法よりも劇的に優れていることを示す。
論文 参考訳(メタデータ) (2021-12-31T05:35:21Z) - Near-Optimal High Probability Complexity Bounds for Non-Smooth
Stochastic Optimization with Heavy-Tailed Noise [63.304196997102494]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
既存の非滑らか凸最適化法は、負のパワーまたは対数的な信頼度に依存する境界の複雑さを持つ。
クリッピングを用いた2つの勾配法に対して, 新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Randomised Gaussian Process Upper Confidence Bound for Bayesian
Optimisation [60.93091603232817]
改良されたガウス過程上信頼境界(GP-UCB)取得関数を開発した。
これは、分布から探索・探索トレードオフパラメータをサンプリングすることによって行われる。
これにより、期待されるトレードオフパラメータが、関数のベイズ的後悔に縛られることなく、問題によりよく適合するように変更できることが証明される。
論文 参考訳(メタデータ) (2020-06-08T00:28:41Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。