論文の概要: MONGOOSE: Path-wise Smooth Bayesian Optimisation via Meta-learning
- arxiv url: http://arxiv.org/abs/2302.11533v1
- Date: Wed, 22 Feb 2023 18:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 14:19:08.733656
- Title: MONGOOSE: Path-wise Smooth Bayesian Optimisation via Meta-learning
- Title(参考訳): mongoose: メタラーニングによるパスワイズスムースベイズ最適化
- Authors: Adam X. Yang, Laurence Aitchison, Henry B. Moss
- Abstract要約: ブラックボックスの客観的関数を評価するコストの主な貢献は、しばしば測定のためのシステムを作成するのに必要な労力である。
本稿では, 連続評価の間隔が大きくなるにつれて, 準備コストが増大する一般的なシナリオについて考察する。
我々のアルゴリズムMONGOOSEは、メタリアントパラメトリックポリシーを用いてスムーズな最適化軌道を生成する。
- 参考スコア(独自算出の注目度): 32.61414806771112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Bayesian optimisation, we often seek to minimise the black-box objective
functions that arise in real-world physical systems. A primary contributor to
the cost of evaluating such black-box objective functions is often the effort
required to prepare the system for measurement. We consider a common scenario
where preparation costs grow as the distance between successive evaluations
increases. In this setting, smooth optimisation trajectories are preferred and
the jumpy paths produced by the standard myopic (i.e.\ one-step-optimal)
Bayesian optimisation methods are sub-optimal. Our algorithm, MONGOOSE, uses a
meta-learnt parametric policy to generate smooth optimisation trajectories,
achieving performance gains over existing methods when optimising functions
with large movement costs.
- Abstract(参考訳): ベイズ最適化では、実世界の物理システムで発生するブラックボックスの客観的関数を最小化しようとすることが多い。
このようなブラックボックスの客観的関数を評価するコストの主な貢献は、しばしば測定のためのシステムを作成するのに必要な労力である。
我々は, 連続評価間の距離が大きくなると, 準備コストが増加するという共通のシナリオを考える。
この設定では、スムーズな最適化軌道が好まれ、標準ミオピック(すなわち1ステップ最適化)ベイズ最適化法によって生成される跳躍経路が準最適である。
私たちのアルゴリズムであるmongooseは、メタ学習パラメトリックポリシを使用して、スムーズな最適化トラジェクタを生成し、大きな移動コストで関数を最適化する場合、既存の方法よりもパフォーマンスが向上する。
関連論文リスト
- qPOTS: Efficient batch multiobjective Bayesian optimization via Pareto
optimal Thompson sampling [0.0]
多目的最適化を解くためのサンプル効率のアプローチはプロセス・オラクル・サロゲート (GP) を経由する。
本稿では,ランダムGPサンプルのフロンティアから新しい候補を選択する,単純かつ効果的なトンプソンサンプリングに基づくアプローチを提案する。
提案手法は, 実世界の実験だけでなく, 精度, 計算効率の両面において, 高い実験性能を示すものである。
論文 参考訳(メタデータ) (2023-10-24T12:35:15Z) - Deterministic Langevin Unconstrained Optimization with Normalizing Flows [3.988614978933934]
我々は,Fokker-Planck方程式とLangevin方程式にインスパイアされたブラックボックス関数に対するグローバルで自由な代理最適化戦略を導入する。
本研究は,標準合成試験関数の最適目的に向けての競争力の向上を実証する。
論文 参考訳(メタデータ) (2023-10-01T17:46:20Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Batch Bayesian Optimization via Particle Gradient Flows [0.5735035463793008]
ブラックボックスとしてしか利用できない,あるいは評価に費用がかかる対象関数のグローバルな最適化方法を示す。
確率測度の空間上の多点予測確率に基づく新しい関数を構築する。
論文 参考訳(メタデータ) (2022-09-10T18:10:15Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Calibration Improves Bayesian Optimization [7.184701179854522]
目的関数に対する後続分布の不確かさを校正する簡単なアルゴリズムを提案する。
キャリブレーションによる後方分布の不確実性推定を改善することにより、ベイズ最適化がより良い決定を下すことを示す。
論文 参考訳(メタデータ) (2021-12-08T23:26:23Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。