論文の概要: Bayesian Optimization over Discrete and Mixed Spaces via Probabilistic
Reparameterization
- arxiv url: http://arxiv.org/abs/2210.10199v1
- Date: Tue, 18 Oct 2022 22:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:32:21.792736
- Title: Bayesian Optimization over Discrete and Mixed Spaces via Probabilistic
Reparameterization
- Title(参考訳): 確率的再パラメータ化による離散・混合空間上のベイズ最適化
- Authors: Samuel Daulton, Xingchen Wan, David Eriksson, Maximilian Balandat,
Michael A. Osborne, Eytan Bakshy
- Abstract要約: 離散的(そして潜在的に連続的な)設計パラメータのブラックボックス関数を最適化することは、科学や工学の応用においてユビキタスな問題である。
本稿では,確率分布に対する獲得関数(AF)の期待を最大化するために確率的再パラメータ化(PR)を提案する。
PRは最近の作業と補完的であり、複数の目的とブラックボックス制約を持った設定に自然に一般化します。
- 参考スコア(独自算出の注目度): 29.178417789839102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing expensive-to-evaluate black-box functions of discrete (and
potentially continuous) design parameters is a ubiquitous problem in scientific
and engineering applications. Bayesian optimization (BO) is a popular,
sample-efficient method that leverages a probabilistic surrogate model and an
acquisition function (AF) to select promising designs to evaluate. However,
maximizing the AF over mixed or high-cardinality discrete search spaces is
challenging standard gradient-based methods cannot be used directly or
evaluating the AF at every point in the search space would be computationally
prohibitive. To address this issue, we propose using probabilistic
reparameterization (PR). Instead of directly optimizing the AF over the search
space containing discrete parameters, we instead maximize the expectation of
the AF over a probability distribution defined by continuous parameters. We
prove that under suitable reparameterizations, the BO policy that maximizes the
probabilistic objective is the same as that which maximizes the AF, and
therefore, PR enjoys the same regret bounds as the original BO policy using the
underlying AF. Moreover, our approach provably converges to a stationary point
of the probabilistic objective under gradient ascent using scalable, unbiased
estimators of both the probabilistic objective and its gradient. Therefore, as
the number of starting points and gradient steps increase, our approach will
recover of a maximizer of the AF (an often-neglected requisite for commonly
used BO regret bounds). We validate our approach empirically and demonstrate
state-of-the-art optimization performance on a wide range of real-world
applications. PR is complementary to (and benefits) recent work and naturally
generalizes to settings with multiple objectives and black-box constraints.
- Abstract(参考訳): 離散的(そして潜在的に連続的な)設計パラメータの高価なブラックボックス関数を最適化することは、科学や工学の応用においてユビキタスな問題である。
ベイズ最適化 (BO) は確率的サロゲートモデルと取得関数 (AF) を利用して将来的な設計を選定し, 評価に有効である。
しかし、混合または高心性離散探索空間上でのAFの最大化は、標準勾配に基づく手法を直接使用したり、検索空間の全ての点でAFを評価することは、計算的に禁止される。
この問題に対処するために,確率的再パラメータ化(PR)を提案する。
離散パラメータを含む探索空間上でのAFを直接最適化するのではなく、連続パラメータで定義される確率分布上でのAFの期待を最大化する。
適切な再パラメータ化の下では、確率的目的を最大化するBOポリシーはAFを最大化するBOポリシーと同じであり、したがってPRは基盤となるAFを用いたBOポリシーと同じ後悔の限界を享受する。
さらに,提案手法は,確率的目標とその勾配の両方のスケーラブルで偏りのない推定器を用いて,勾配上昇下の確率的目標の定常点に確実に収束する。
したがって、出発点数や勾配ステップが増加するにつれて、我々のアプローチはAFの最大値(よく使われるBO後悔境界に対する必要条件)を回復する。
提案手法を実証的に検証し,幅広い実世界のアプリケーションに対して最先端の最適化性能を示す。
PRは最近の作業と補完的であり、複数の目的とブラックボックス制約を持った設定に自然に一般化します。
関連論文リスト
- Information-Theoretic Safe Bayesian Optimization [59.758009422067005]
そこでは、未知の(安全でない)制約に反するパラメータを評価することなく、未知の関数を最適化することを目的としている。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T14:31:10Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Batch Bayesian Optimization via Particle Gradient Flows [0.5735035463793008]
ブラックボックスとしてしか利用できない,あるいは評価に費用がかかる対象関数のグローバルな最適化方法を示す。
確率測度の空間上の多点予測確率に基づく新しい関数を構築する。
論文 参考訳(メタデータ) (2022-09-10T18:10:15Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - Risk-averse Heteroscedastic Bayesian Optimization [45.12421486836736]
リスク回避型ヘテロセダスティックベイズ最適化アルゴリズム(RAHBO)を提案する。
RAHBOは、ハイリターンと低ノイズ分散の解を、ハエの騒音分布を学習しながら同定することを目的としている。
単一のソリューションのみを識別しなければならないアプリケーションに対して、最終的な決定ポイントを報告するための堅牢なルールを提供します。
論文 参考訳(メタデータ) (2021-11-05T17:38:34Z) - Approximate Bayesian Optimisation for Neural Networks [6.921210544516486]
モデル選択の重要性を強調するために、機械学習アルゴリズムを自動化するための一連の作業が行われた。
理想主義的な方法で解析的トラクタビリティと計算可能性を解決する必要性は、効率と適用性を確保することを可能にしている。
論文 参考訳(メタデータ) (2021-08-27T19:03:32Z) - Trusted-Maximizers Entropy Search for Efficient Bayesian Optimization [39.824086260578646]
本稿では,信頼度最大化エントロピー探索(TES)取得関数を提案する。
インプットがクエリの情報ゲインにどの程度貢献するかを、信頼された最大値の有限セット上で測定する。
論文 参考訳(メタデータ) (2021-07-30T07:25:07Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。