論文の概要: Kernel Learning for Sample Constrained Black-Box Optimization
- arxiv url: http://arxiv.org/abs/2507.20533v1
- Date: Mon, 28 Jul 2025 05:32:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.872176
- Title: Kernel Learning for Sample Constrained Black-Box Optimization
- Title(参考訳): サンプル制約付きブラックボックス最適化のためのカーネル学習
- Authors: Rajalaxmi Rajagopalan, Yu-Lin Wei, Romit Roy Choudhury,
- Abstract要約: 本稿では,ガウス過程のカーネルを学習するための新しい手法を提案する。
我々の考えは、変分オートエンコーダの潜在空間に連続的なカーネル空間を作成し、最適なカーネルを特定するための補助最適化を実行することである。
結果は、合成ベンチマーク関数だけでなく、実際のアプリケーションにも当てはまる。
- 参考スコア(独自算出の注目度): 7.054093620465401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Black box optimization (BBO) focuses on optimizing unknown functions in high-dimensional spaces. In many applications, sampling the unknown function is expensive, imposing a tight sample budget. Ongoing work is making progress on reducing the sample budget by learning the shape/structure of the function, known as kernel learning. We propose a new method to learn the kernel of a Gaussian Process. Our idea is to create a continuous kernel space in the latent space of a variational autoencoder, and run an auxiliary optimization to identify the best kernel. Results show that the proposed method, Kernel Optimized Blackbox Optimization (KOBO), outperforms state of the art by estimating the optimal at considerably lower sample budgets. Results hold not only across synthetic benchmark functions but also in real applications. We show that a hearing aid may be personalized with fewer audio queries to the user, or a generative model could converge to desirable images from limited user ratings.
- Abstract(参考訳): ブラックボックス最適化(BBO)は、高次元空間における未知関数の最適化に焦点を当てている。
多くのアプリケーションにおいて、未知の関数のサンプリングは高価であり、厳密なサンプル予算を課している。
現在進行中の作業は、カーネル学習として知られる関数の形状や構造を学ぶことで、サンプル予算の削減に進んでいる。
本稿では,ガウス過程のカーネルを学習するための新しい手法を提案する。
我々の考えは、変分オートエンコーダの潜在空間に連続的なカーネル空間を作成し、最適なカーネルを特定するための補助最適化を実行することである。
提案手法であるKernel Optimized Blackbox Optimization (KOBO) は, かなり低いサンプル予算で最適度を推定することにより, 最先端技術よりも優れていることを示す。
結果は、合成ベンチマーク関数だけでなく、実際のアプリケーションにも当てはまる。
補聴器はユーザに対してより少ない音声クエリでパーソナライズされるか,あるいは生成モデルが限られたユーザ評価から望ましい画像に収束する可能性があることを示す。
関連論文リスト
- Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Conditional mean embeddings and optimal feature selection via positive
definite kernels [0.0]
条件付き条件埋め込み(CME)に対する演算子理論的アプローチの検討
本研究は,スペクトル解析に基づく最適化手法と,カーネル,プロセス,構築学習アルゴリズムを併用する。
論文 参考訳(メタデータ) (2023-05-14T08:29:15Z) - Neural-BO: A Black-box Optimization Algorithm using Deep Neural Networks [12.218039144209017]
ニューラルネットワークを用いてブラックボックス関数をモデル化する新しいブラックボックス最適化アルゴリズムを提案する。
我々のアルゴリズムは予測の不確実性を推定するためにベイズニューラルネットワークを必要としないので、計算に有利である。
論文 参考訳(メタデータ) (2023-03-03T02:53:56Z) - Target-based Surrogates for Stochastic Optimization [26.35752393302125]
我々は(おそらく)勾配を計算するのに費用がかかる関数の最小化を考える。
このような機能は、計算強化学習、模倣学習、および敵の訓練で広く用いられている。
我々のフレームワークは、最適化アルゴリズムを用いて、効率的に最小化できるサロゲートを構築することができる。
論文 参考訳(メタデータ) (2023-02-06T08:08:34Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。