論文の概要: Bayesian Optimization that Limits Search Region to Lower Dimensions
Utilizing Local GPR
- arxiv url: http://arxiv.org/abs/2403.08331v1
- Date: Wed, 13 Mar 2024 08:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:16:13.374527
- Title: Bayesian Optimization that Limits Search Region to Lower Dimensions
Utilizing Local GPR
- Title(参考訳): 探索領域を低次元に制限するベイズ最適化
ローカルGPRの利用
- Authors: Yasunori Taguchi and Hiro Gangi
- Abstract要約: 本稿では,探索領域を低次元に制限し,局所ガウス過程回帰(LGPR)を用いてBOを高次元に拡張するBOを提案する。
LGPRは低次元の探索領域を「局所的」として扱い、予測精度を向上させる。
従来法よりも25%,LGPRを使わずに3.4%の比抵抗化を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization of product and system characteristics is required in many
fields, including design and control. Bayesian optimization (BO) is often used
when there are high observing costs, because BO theoretically guarantees an
upper bound on regret. However, computational costs increase exponentially with
the number of parameters to be optimized, decreasing search efficiency. We
propose a BO that limits the search region to lower dimensions and utilizes
local Gaussian process regression (LGPR) to scale the BO to higher dimensions.
LGPR treats the low-dimensional search region as "local," improving prediction
accuracies there. The LGPR model is trained on a local subset of data specific
to that region. This improves prediction accuracy and search efficiency and
reduces the time complexity of matrix inversion in the Gaussian process
regression. In evaluations with 20D Ackley and Rosenbrock functions, search
efficiencies are equal to or higher than those of the compared methods,
improved by about 69% and 40% from the case without LGPR. We apply our method
to an automatic design task for a power semiconductor device. We successfully
reduce the specific on-resistance to 25% better than a conventional method and
3.4% better than without LGPR.
- Abstract(参考訳): 製品およびシステム特性の最適化は、設計や制御を含む多くの分野において必要である。
ベイズ最適化(BO)は、理論上は後悔の上限を保証しているため、観測コストが高いときにしばしば用いられる。
しかし、最適化すべきパラメータの数によって計算コストが指数関数的に増加し、探索効率が低下する。
本稿では,探索領域を低次元に制限し,局所ガウス過程回帰(LGPR)を用いてBOを高次元に拡張するBOを提案する。
LGPRは低次元の探索領域を「局所的」として扱い、予測精度を向上させる。
LGPRモデルは、その領域固有のデータのローカルサブセットに基づいてトレーニングされる。
これにより予測精度と探索効率が向上し、ガウス過程回帰における行列逆転の時間的複雑さが低減される。
20D Ackley と Rosenbrock 関数を用いた評価では, 探索効率は比較手法と同等かそれ以上であり, LGPR のない場合に比べて約69%, 40%向上した。
本手法をパワー半導体デバイスのための自動設計タスクに適用する。
従来法よりも25%,LGPRを使わずに3.4%の比抵抗化を実現した。
関連論文リスト
- LABCAT: Locally adaptive Bayesian optimization using principal-component-aligned trust regions [0.0]
信頼領域に基づくBOを拡張した LABCAT アルゴリズムを提案する。
このアルゴリズムは、最先端のBOや他のブラックボックス最適化アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-19T13:56:24Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Accelerating genetic optimization of nonlinear model predictive control
by learning optimal search space size [0.8057006406834467]
本稿では,最適空間サイズを学習することで,NMPCの最適化を高速化する手法を提案する。
提案手法を2つの非線形システムで比較し,他の2つのNMPC手法と比較した。
論文 参考訳(メタデータ) (2023-05-14T08:10:49Z) - LassoBench: A High-Dimensional Hyperparameter Optimization Benchmark
Suite for Lasso [84.6451154376526]
LassoBenchは、Lassoコミュニティで重要なオープンリサーチトピックに適した、新しいベンチマークスイートである。
我々は5つの最先端HPO法と3つのベースラインを評価し、ベイズ最適化が、特にスパース回帰によく用いられる手法よりも改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-04T12:05:09Z) - Testing Surrogate-Based Optimization with the Fortified Branin-Hoo
Extended to Four Dimensions [0.0]
本稿では,Branin-Hoo関数の強化がサロゲート最適化に及ぼす影響について検討する。
その結果, 通常の関数と要塞化された関数との差は, 4次元関数に対してはるかに顕著であった。
論文 参考訳(メタデータ) (2021-07-16T17:56:32Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - A Domain-Shrinking based Bayesian Optimization Algorithm with
Order-Optimal Regret Performance [16.0251555430107]
これはGPに基づく最初のアルゴリズムであり、順序最適化された後悔の保証がある。
GP-UCB系のアルゴリズムと比較して,提案アルゴリズムは計算複雑性を$O(T2d-1)$で低減する。
論文 参考訳(メタデータ) (2020-10-27T02:15:15Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。