論文の概要: Bayesian Quantile and Expectile Optimisation
- arxiv url: http://arxiv.org/abs/2001.04833v2
- Date: Thu, 7 Jul 2022 21:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 04:30:45.837113
- Title: Bayesian Quantile and Expectile Optimisation
- Title(参考訳): ベイズ量子と期待値最適化
- Authors: Victor Picheny, Henry Moss, L\'eonard Torossian and Nicolas Durrande
- Abstract要約: 本研究では,非定常雑音設定に適したベイズ量子と予測回帰の新しい変分モデルを提案する。
我々の戦略は、観測の複製やノイズのパラメトリック形式を仮定することなく、量子と予測を直接最適化することができる。
実験セクションで示されるように、提案手法は異端性非ガウス的ケースにおいて、明らかに芸術の状態を上回ります。
- 参考スコア(独自算出の注目度): 3.3878745408530833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimisation (BO) is widely used to optimise stochastic black box
functions. While most BO approaches focus on optimising conditional
expectations, many applications require risk-averse strategies and alternative
criteria accounting for the distribution tails need to be considered. In this
paper, we propose new variational models for Bayesian quantile and expectile
regression that are well-suited for heteroscedastic noise settings. Our models
consist of two latent Gaussian processes accounting respectively for the
conditional quantile (or expectile) and the scale parameter of an asymmetric
likelihood functions. Furthermore, we propose two BO strategies based on
max-value entropy search and Thompson sampling, that are tailored to such
models and that can accommodate large batches of points. Contrary to existing
BO approaches for risk-averse optimisation, our strategies can directly
optimise for the quantile and expectile, without requiring replicating
observations or assuming a parametric form for the noise. As illustrated in the
experimental section, the proposed approach clearly outperforms the state of
the art in the heteroscedastic, non-Gaussian case.
- Abstract(参考訳): ベイズ最適化(BO)は確率的ブラックボックス関数の最適化に広く用いられている。
ほとんどのBOアプローチは条件付き予測の最適化に重点を置いているが、多くのアプリケーションはリスク回避戦略を必要とし、分布の尾を考慮しなければならない。
本稿では,ヘテロシデスティックノイズ設定に適したベイズ四分位数と期待回帰のための新しい変分モデルを提案する。
本モデルは,条件付き量子量(あるいは期待値)と非対称確率関数のスケールパラメータをそれぞれ考慮した2つの潜在ガウス過程からなる。
さらに,最大値エントロピー探索とトンプソンサンプリングに基づく2つのbo戦略を提案する。
リスク-逆最適化のための既存のBOアプローチとは対照的に、我々の戦略は、観測の複製やノイズのパラメトリック形式を仮定することなく、量子と予測を直接最適化することができる。
実験セクションで示されるように、提案手法は異端性非ガウス的ケースにおいて、明らかに芸術の状態を上回ります。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Simulation Based Bayesian Optimization [0.6526824510982799]
本稿では,獲得関数を最適化するための新しいアプローチとして,シミュレーションベースベイズ最適化(SBBO)を提案する。
SBBOは、離散変数を持つ空間に適した代理モデルを使用することができる。
代理モデルの様々な選択を用いたSBBO法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-01-19T16:56:11Z) - Pseudo-Bayesian Optimization [7.556071491014536]
ブラックボックス最適化の収束を保証するために最小限の要件を課す公理的枠組みについて検討する。
我々は、単純な局所回帰と、不確実性を定量化するために適切な「ランダム化事前」構造を用いることが、収束を保証するだけでなく、常に最先端のベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-15T07:55:28Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Bayesian Optimization with Conformal Prediction Sets [44.565812181545645]
コンフォーマル予測(Conformal prediction)は、不確実な定量化手法であり、不特定モデルに対してもカバレッジを保証する。
本稿では,モデルの妥当性が保証された検索空間の領域にクエリを誘導する共形ベイズ最適化を提案する。
多くの場合、クエリのカバレッジはサンプル効率を損なうことなく大幅に改善できる。
論文 参考訳(メタデータ) (2022-10-22T17:01:05Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Risk-averse Heteroscedastic Bayesian Optimization [45.12421486836736]
リスク回避型ヘテロセダスティックベイズ最適化アルゴリズム(RAHBO)を提案する。
RAHBOは、ハイリターンと低ノイズ分散の解を、ハエの騒音分布を学習しながら同定することを目的としている。
単一のソリューションのみを識別しなければならないアプリケーションに対して、最終的な決定ポイントを報告するための堅牢なルールを提供します。
論文 参考訳(メタデータ) (2021-11-05T17:38:34Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。