論文の概要: Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information
- arxiv url: http://arxiv.org/abs/2104.09460v1
- Date: Mon, 19 Apr 2021 17:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:45:42.523551
- Title: Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information
- Title(参考訳): ベイズアルゴリズムの実行:相互情報を用いたブラックボックス関数の計算可能特性の推定
- Authors: Willie Neiswanger, Ke Alexander Wang, Stefano Ermon
- Abstract要約: 多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
- 参考スコア(独自算出の注目度): 78.78486761923855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many real world problems, we want to infer some property of an expensive
black-box function f, given a budget of T function evaluations. One example is
budget constrained global optimization of f, for which Bayesian optimization is
a popular method. Other properties of interest include local optima, level
sets, integrals, or graph-structured information induced by f. Often, we can
find an algorithm A to compute the desired property, but it may require far
more than T queries to execute. Given such an A, and a prior distribution over
f, we refer to the problem of inferring the output of A using T evaluations as
Bayesian Algorithm Execution (BAX). To tackle this problem, we present a
procedure, InfoBAX, that sequentially chooses queries that maximize mutual
information with respect to the algorithm's output. Applying this to Dijkstra's
algorithm, for instance, we infer shortest paths in synthetic and real-world
graphs with black-box edge costs. Using evolution strategies, we yield variants
of Bayesian optimization that target local, rather than global, optima. On
these problems, InfoBAX uses up to 500 times fewer queries to f than required
by the original algorithm. Our method is closely connected to other Bayesian
optimal experimental design procedures such as entropy search methods and
optimal sensor placement using Gaussian processes.
- Abstract(参考訳): 実世界の多くの問題では、t 関数の評価の予算を考えると、高価なブラックボックス関数 f のいくつかの性質を推測したい。
例えば、予算制約付き f のグローバル最適化であり、ベイズ最適化は一般的な方法である。
しばしば、所望のプロパティを計算するアルゴリズムAを見つけることができるが、実行にはTクエリよりもはるかに多く必要である。
このような A と f 上の事前分布が与えられた場合、ベイズアルゴリズム実行(BAX)として評価された A を用いて A の出力を推定する問題を参照する。
そこで本研究では,アルゴリズムの出力に対して相互情報を最大化するクエリを順次選択する手法であるinfobaxを提案する。
これをdijkstraのアルゴリズムに適用すると、例えば、ブラックボックスのエッジコストを伴う合成および実世界のグラフにおける最短経路を推測する。
進化戦略を用いることで、グローバルではなく局所を対象とするベイズ最適化の変種が得られる。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
本手法は、エントロピー探索法やガウス過程を用いた最適センサ配置法などのベイズ最適実験設計手法と密接な関係がある。
関連論文リスト
- Practical First-Order Bayesian Optimization Algorithms [0.0]
本稿では,勾配GPからの情報を効率よく活用して,ゼロ勾配の潜在的な問合せ点を同定する,実用的なFOBOアルゴリズムのクラスを提案する。
提案アルゴリズムの性能をいくつかのテスト関数で検証し,提案アルゴリズムが最先端のFOBOアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-19T10:05:41Z) - Experience in Engineering Complex Systems: Active Preference Learning
with Multiple Outcomes and Certainty Levels [1.5257326975704795]
ブラックボックス最適化とは、目的関数と/または制約集合が未知、到達不能、あるいは存在しない問題を指す。
この特定の情報を活用するために、いわゆるActive Preference Learningと呼ばれるアルゴリズムが開発された。
我々のアプローチは、さらなる情報を効果的に活用できるような方法でアルゴリズムを拡張することを目的としている。
論文 参考訳(メタデータ) (2023-02-27T15:55:37Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Efficient computation of the Knowledge Gradient for Bayesian
Optimization [1.0497128347190048]
One-shot Hybrid KGは、これまで提案されていたアイデアをいくつか組み合わせた新しいアプローチであり、計算が安価で、強力で効率的である。
すべての実験はBOTorchで実施され、同等または改善された性能で計算オーバーヘッドを劇的に削減した。
論文 参考訳(メタデータ) (2022-09-30T10:39:38Z) - Ada-BKB: Scalable Gaussian Process Optimization on Continuous Domain by
Adaptive Discretization [21.859940486704264]
GPUCBのようなアルゴリズムは計算の複雑さを禁止している。
関数のノアアルゴリズムは、連続最適化の真の問題を裏付ける。
論文 参考訳(メタデータ) (2021-06-16T07:55:45Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Aligning Partially Overlapping Point Sets: an Inner Approximation
Algorithm [80.15123031136564]
変換の値に関する事前情報がない点集合を整列するロバストな手法を提案する。
我々のアルゴリズムは変換の正規化を必要とせず、変換の値に関する事前情報がない状況に対処できる。
実験により,提案手法が最先端のアルゴリズムよりも高いロバスト性を示した。
論文 参考訳(メタデータ) (2020-07-05T15:23:33Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。