論文の概要: Bayesian Optimization with Informative Covariance
- arxiv url: http://arxiv.org/abs/2208.02704v2
- Date: Sat, 1 Apr 2023 17:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:06:33.502863
- Title: Bayesian Optimization with Informative Covariance
- Title(参考訳): 情報共分散を用いたベイズ最適化
- Authors: Afonso Eduardo, Michael U. Gutmann
- Abstract要約: 探索空間の特定の領域の好みを符号化するために,非定常性を利用した新しい情報共分散関数を提案する。
提案した関数は,より弱い事前情報の下でも,ハイ次元でのベイズ最適化のサンプル効率を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 13.113313427848828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization is a methodology for global optimization of unknown and
expensive objectives. It combines a surrogate Bayesian regression model with an
acquisition function to decide where to evaluate the objective. Typical
regression models are given by Gaussian processes with stationary covariance
functions. However, these functions are unable to express prior input-dependent
information, including possible locations of the optimum. The ubiquity of
stationary models has led to the common practice of exploiting prior
information via informative mean functions. In this paper, we highlight that
these models can perform poorly, especially in high dimensions. We propose
novel informative covariance functions for optimization, leveraging
nonstationarity to encode preferences for certain regions of the search space
and adaptively promote local exploration during optimization. We demonstrate
that the proposed functions can increase the sample efficiency of Bayesian
optimization in high dimensions, even under weak prior information.
- Abstract(参考訳): ベイズ最適化 (Bayesian optimization) は、未知および高価な目的を大域的に最適化するための方法論である。
代理ベイズ回帰モデルと取得関数を組み合わせることで、目的をどこで評価するかを決定する。
典型的な回帰モデルは定常共分散関数を持つガウス過程によって与えられる。
しかし、これらの機能は最適な位置を含む事前の入力依存情報を表現できない。
定常モデルの普及により、情報的平均関数による事前情報の利用が一般的になった。
本稿では,これらのモデルが特に高次元において,性能に乏しいことを強調する。
本研究では,非定常性を利用して探索空間の特定の領域の好みを符号化し,最適化中の局所探索を適応的に促進する新しい情報共分散関数を提案する。
提案する関数は,事前情報が弱い場合でも,ベイズ最適化のサンプル効率を高次元で高めることができることを示す。
関連論文リスト
- Respecting the limit:Bayesian optimization with a bound on the optimal value [3.004066195320147]
我々は、最小値の正確な知識があるか、または、おそらくその値に対するより低いバウンドを持つかのシナリオについて研究する。
本稿では,有界情報を組み込んだ新たなサロゲートモデルであるSlogGPについて述べる。
論文 参考訳(メタデータ) (2024-11-07T14:27:49Z) - Bayesian Optimisation of Functions on Graphs [33.97967750232631]
一般,大規模,潜在的に未知のグラフ上で定義された関数を最適化する新しいベイズ最適化フレームワークを提案する。
グラフ上の適切なカーネルの学習を通じて、我々のフレームワークは対象関数の振る舞いに適応する利点がある。
局所モデリング手法は,提案手法の効率性をさらに保証する。
論文 参考訳(メタデータ) (2023-06-08T15:50:35Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Approximate Bayesian Optimisation for Neural Networks [6.921210544516486]
モデル選択の重要性を強調するために、機械学習アルゴリズムを自動化するための一連の作業が行われた。
理想主義的な方法で解析的トラクタビリティと計算可能性を解決する必要性は、効率と適用性を確保することを可能にしている。
論文 参考訳(メタデータ) (2021-08-27T19:03:32Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z) - Finding Optimal Points for Expensive Functions Using Adaptive RBF-Based
Surrogate Model Via Uncertainty Quantification [11.486221800371919]
本稿では,適応的放射基底関数 (RBF) を用いた不確実性定量化によるサロゲートモデルを用いた新しいグローバル最適化フレームワークを提案する。
まずRBFに基づくベイズ代理モデルを用いて真の関数を近似し、新しい点が探索されるたびにRBFのパラメータを適応的に推定し更新することができる。
次に、モデル誘導選択基準を用いて、関数評価のための候補セットから新しい点を識別する。
論文 参考訳(メタデータ) (2020-01-19T16:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。