論文の概要: OPBO: Order-Preserving Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2512.18980v1
- Date: Mon, 22 Dec 2025 02:45:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.594755
- Title: OPBO: Order-Preserving Bayesian Optimization
- Title(参考訳): OPBO:順序保存ベイズ最適化
- Authors: Wei Peng, Jianchen Hu, Kang Liu, Qiaozhu Zhai,
- Abstract要約: 我々は,ブラックボックスの目的関数の値の代わりにサロゲートモデルが順序を保存する,単純な順序保存ベイズ最適化(OPBO)法を提案する。
実験の結果,高次元(500以上)のブラックボックス最適化問題に対して,提案したOPBOは従来のBO法よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 16.234096837420235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization is an effective method for solving expensive black-box optimization problems. Most existing methods use Gaussian processes (GP) as the surrogate model for approximating the black-box objective function, it is well-known that it can fail in high-dimensional space (e.g., dimension over 500). We argue that the reliance of GP on precise numerical fitting is fundamentally ill-suited in high-dimensional space, where it leads to prohibitive computational complexity. In order to address this, we propose a simple order-preserving Bayesian optimization (OPBO) method, where the surrogate model preserves the order, instead of the value, of the black-box objective function. Then we can use a simple but effective OP neural network (NN) to replace GP as the surrogate model. Moreover, instead of searching for the best solution from the acquisition model, we select good-enough solutions in the ordinal set to reduce computational cost. The experimental results show that for high-dimensional (over 500) black-box optimization problems, the proposed OPBO significantly outperforms traditional BO methods based on regression NN and GP. The source code is available at https://github.com/pengwei222/OPBO.
- Abstract(参考訳): ベイズ最適化は高価なブラックボックス最適化問題の解決に有効な方法である。
既存の手法の多くは、ブラックボックスの目的関数を近似する代理モデルとしてガウス過程(GP)を用いており、高次元空間(例えば、次元500以上)で失敗することはよく知られている。
GPの精密な数値フィッティングへの依存は、高次元空間において基本的に不適合であり、計算複雑性が禁止される。
そこで本研究では,ブラックボックスの目的関数の値の代わりにサロゲートモデルが順序を保存する,単純な順序保存ベイズ最適化(OPBO)手法を提案する。
次に、単純なが効果的なOPニューラルネットワーク(NN)を用いて、代理モデルとしてGPを置き換えることができる。
さらに, 獲得モデルから最良の解を求める代わりに, 計算コストを削減するために, 順序集合の良質な解を選択する。
実験の結果,高次元(500以上)のブラックボックス最適化問題に対して,提案したOPBOは回帰NNとGPに基づく従来のBO法よりも有意に優れていた。
ソースコードはhttps://github.com/pengwei222/OPBOで入手できる。
関連論文リスト
- Efficient optimization of expensive black-box simulators via marginal means, with application to neutrino detector design [1.5749416770494706]
本稿では,BOMM(Marginal Means)アプローチによるブラックボックス最適化を提案する。
BOMMはグローバル$mathbfx*$の新しい推定器を使用し、高次元の限られたランで効率的に推論できる。
BOMMは最適化に一貫性があることが示されるが、既存の手法が直面する「次元の商」を誘惑する最適化率も示している。
論文 参考訳(メタデータ) (2025-08-03T16:44:05Z) - Training Deep Learning Models with Norm-Constrained LMOs [56.00317694850397]
線形最小化オラクル(LMO)を用いて問題の幾何学に適応する新しいアルゴリズム群を提案する。
我々は,Adamに頼らずに,我々のアルゴリズムであるScionを用いたナノGPTトレーニングの大幅な高速化を示す。
論文 参考訳(メタデータ) (2025-02-11T13:10:34Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Polynomial-Model-Based Optimization for Blackbox Objectives [0.0]
ブラックボックス最適化は、事前定義された目的関数が最小化されるようなシステムに対して最適なパラメータを求める。
PMBOは目的関数にサロゲートを合わせることで最小値を求める新しいブラックボックスである。
PMBOは、与えられた人工的解析関数のセットに対して、他の最先端のアルゴリズムとベンチマークされる。
論文 参考訳(メタデータ) (2023-09-01T14:11:03Z) - Predictive Modeling through Hyper-Bayesian Optimization [60.586813904500595]
本稿では,モデル選択とBOを統合する新しい手法を提案する。
このアルゴリズムは、モデル空間のBOと関数空間のBOの間を行き来する。
サンプル効率の改善に加えて、ブラックボックス機能に関する情報も出力する。
論文 参考訳(メタデータ) (2023-08-01T04:46:58Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Black Box Optimization Using QUBO and the Cross Entropy Method [11.091089276821716]
ブラックボックス最適化は、解析形式が不明な関数の最適化に使用できる。
BBOを実現するための一般的なアプローチは、ターゲットのブラックボックス関数を近似する代理モデルを学ぶことである。
本稿では,代理モデルがQUBO行列であるBOX-QUBOを提案する。
論文 参考訳(メタデータ) (2022-06-24T22:57:24Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Neural Process for Black-Box Model Optimization Under Bayesian Framework [7.455546102930911]
ブラックボックスモデルは、内部動作の知識がなくても、入力と出力の観点でしか見ることができないため、一般に名前がつけられる。
そのような問題を解決するための強力なアルゴリズムの1つは、最高のパフォーマンスにつながるモデルパラメータを効果的に推定できるベイズ最適化です。
GPが多くの観測やパラメーターを持つ必要のあるブラックボックスモデルを最適化することは困難である。
ニューラルプロセスを用いたベイズ最適化アルゴリズムをサーロゲートモデルとして提案し,ブラックボックスモデル最適化を行う。
論文 参考訳(メタデータ) (2021-04-03T23:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。