論文の概要: A General Framework for User-Guided Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2311.14645v1
- Date: Fri, 24 Nov 2023 18:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 14:08:03.509953
- Title: A General Framework for User-Guided Bayesian Optimization
- Title(参考訳): ユーザガイドベイズ最適化のための汎用フレームワーク
- Authors: Carl Hvarfner and Frank Hutter and Luigi Nardi
- Abstract要約: コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
- 参考スコア(独自算出の注目度): 51.96352579696041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The optimization of expensive-to-evaluate black-box functions is prevalent in
various scientific disciplines. Bayesian optimization is an automatic, general
and sample-efficient method to solve these problems with minimal knowledge of
the underlying function dynamics. However, the ability of Bayesian optimization
to incorporate prior knowledge or beliefs about the function at hand in order
to accelerate the optimization is limited, which reduces its appeal for
knowledgeable practitioners with tight budgets. To allow domain experts to
customize the optimization routine, we propose ColaBO, the first
Bayesian-principled framework for incorporating prior beliefs beyond the
typical kernel structure, such as the likely location of the optimizer or the
optimal value. The generality of ColaBO makes it applicable across different
Monte Carlo acquisition functions and types of user beliefs. We empirically
demonstrate ColaBO's ability to substantially accelerate optimization when the
prior information is accurate, and to retain approximately default performance
when it is misleading.
- Abstract(参考訳): 高価なブラックボックス関数の最適化は、様々な科学分野において一般的である。
ベイズ最適化(英: bayesian optimization)は、基本関数のダイナミクスを最小限の知識で解く自動的、一般的、サンプル効率の良い手法である。
しかし、最適化を加速するために、事前の知識や目の前の機能についての信念を組み込むベイズ最適化の能力は限られており、予算の厳しい知識のある実践者へのアピールを減少させる。
ドメインエキスパートが最適化ルーチンをカスタマイズできるようにするため、最適化器の位置や最適値などの典型的なカーネル構造を超えて、事前の信念を組み込む最初のベイズ原理フレームワークであるColaBOを提案する。
ColaBOの一般性は、モンテカルロの様々な獲得関数やユーザー信念の種類に応用できる。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
関連論文リスト
- Cost-aware Bayesian Optimization via the Pandora's Box Gittins Index [57.045952766988925]
我々は,コストを意識したベイズ最適化と,経済学の意思決定問題であるPandoraのBox問題との間に,従来未解決の接続関係を構築した。
我々の研究は、Gittinsインデックス理論からベイズ最適化への技術統合に向けた第一歩となる。
論文 参考訳(メタデータ) (2024-06-28T17:20:13Z) - Enhanced Bayesian Optimization via Preferential Modeling of Abstract
Properties [49.351577714596544]
本研究では,非測定抽象特性に関する専門家の嗜好を代理モデルに組み込むための,人間とAIの協調型ベイズフレームワークを提案する。
優先判断において、誤った/誤解を招く専門家バイアスを処理できる効率的な戦略を提供する。
論文 参考訳(メタデータ) (2024-02-27T09:23:13Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Bayesian Optimization with a Prior for the Optimum [41.41323474440455]
BOPrO (Preside for the Optimum) を用いたベイズ最適化について紹介する。
BOPrOは、入力空間のどの部分が最高のパフォーマンスをもたらすかという事前の形式で、最適化プロセスに自分の知識を注入することを可能にする。
BOPrOは、一般的なベンチマークスイートの最先端メソッドよりも約6.67倍高速であることを示す。
論文 参考訳(メタデータ) (2020-06-25T17:49:24Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。