論文の概要: Testing Surrogate-Based Optimization with the Fortified Branin-Hoo
Extended to Four Dimensions
- arxiv url: http://arxiv.org/abs/2107.08035v1
- Date: Fri, 16 Jul 2021 17:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 03:04:15.477840
- Title: Testing Surrogate-Based Optimization with the Fortified Branin-Hoo
Extended to Four Dimensions
- Title(参考訳): 4次元に拡張したブラニンフーオのサロゲート最適化試験
- Authors: Charles F. Jekel, Raphael T. Haftka
- Abstract要約: 本稿では,Branin-Hoo関数の強化がサロゲート最適化に及ぼす影響について検討する。
その結果, 通常の関数と要塞化された関数との差は, 4次元関数に対してはるかに顕著であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some popular functions used to test global optimization algorithms have
multiple local optima, all with the same value, making them all global optima.
It is easy to make them more challenging by fortifying them via adding a
localized bump at the location of one of the optima. In previous work the
authors illustrated this for the Branin-Hoo function and the popular
differential evolution algorithm, showing that the fortified Branin-Hoo
required an order of magnitude more function evaluations. This paper examines
the effect of fortifying the Branin-Hoo function on surrogate-based
optimization, which usually proceeds by adaptive sampling. Two algorithms are
considered. The EGO algorithm, which is based on a Gaussian process (GP) and an
algorithm based on radial basis functions (RBF). EGO is found to be more frugal
in terms of the number of required function evaluations required to identify
the correct basin, but it is expensive to run on a desktop, limiting the number
of times the runs could be repeated to establish sound statistics on the number
of required function evaluations. The RBF algorithm was cheaper to run,
providing more sound statistics on performance. A four-dimensional version of
the Branin-Hoo function was introduced in order to assess the effect of
dimensionality. It was found that the difference between the ordinary function
and the fortified one was much more pronounced for the four-dimensional
function compared to the two dimensional one.
- Abstract(参考訳): グローバル最適化アルゴリズムをテストするために使われるいくつかの一般的な関数は、複数の局所最適化を持ち、全て同じ値を持ち、全てグローバル最適化である。
一つのオプティマの位置で局所的なバンプを追加することで、それらを強化することがより困難になる。
以前の研究で、著者らはこれをブラン・フー関数と一般的な微分進化アルゴリズムに応用し、要塞化されたブラン・フーは1桁以上の関数評価を必要としたことを示した。
本稿では,ブラニンフー関数の強化がサロゲートに基づく最適化に与える影響について検討する。
2つのアルゴリズムが考えられる。
egoアルゴリズムはガウス過程(gp)と放射基底関数(rbf)に基づくアルゴリズムに基づいている。
EGOは、正しい流域を特定するのに必要な関数評価の数に関してより厳密であることがわかったが、デスクトップ上で実行することは高価であり、必要な関数評価の数に関する音声統計を確立するために、実行回数を制限することができる。
RBFアルゴリズムはより安価に動作し、性能に関するより正確な統計を提供する。
次元効果を評価するために, ブラン・フー関数の4次元版が導入された。
その結果, 通常の関数と要塞化された関数との差は, 2次元関数に比べ, 4次元関数の方がはるかに顕著であった。
関連論文リスト
- Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - Bayesian Optimization over Permutation Spaces [30.650753803587794]
BOPS (Permutation Spaces) に対する2つのアルゴリズムの提案と評価を行った。
BOPS-Tの性能を理論的に解析し,その後悔がサブリニアに増加することを示す。
複数の合成および実世界のベンチマーク実験により、BOPS-TとBOPS-Hは、空間に対する最先端のBOアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-12-02T08:20:50Z) - Ada-BKB: Scalable Gaussian Process Optimization on Continuous Domain by
Adaptive Discretization [21.859940486704264]
GPUCBのようなアルゴリズムは計算の複雑さを禁止している。
関数のノアアルゴリズムは、連続最適化の真の問題を裏付ける。
論文 参考訳(メタデータ) (2021-06-16T07:55:45Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Revisiting Bayesian Optimization in the light of the COCO benchmark [1.4467794332678539]
本稿では,共通かつあまり一般的ではない設計選択のbo(gaussian process based)の性能への影響について,大規模な調査を行う。
この研究のために開発されたコードは、RパッケージDiceOptimの新バージョン(v2.1.1)をCRANで利用可能にしている。
論文 参考訳(メタデータ) (2021-03-30T19:45:18Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - A Domain-Shrinking based Bayesian Optimization Algorithm with
Order-Optimal Regret Performance [16.0251555430107]
これはGPに基づく最初のアルゴリズムであり、順序最適化された後悔の保証がある。
GP-UCB系のアルゴリズムと比較して,提案アルゴリズムは計算複雑性を$O(T2d-1)$で低減する。
論文 参考訳(メタデータ) (2020-10-27T02:15:15Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。