論文の概要: Generative Bayesian Optimization: Generative Models as Acquisition Functions
- arxiv url: http://arxiv.org/abs/2510.25240v1
- Date: Wed, 29 Oct 2025 07:42:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.205266
- Title: Generative Bayesian Optimization: Generative Models as Acquisition Functions
- Title(参考訳): 生成ベイズ最適化:獲得関数としての生成モデル
- Authors: Rafael Oliveira, Daniel M. Steinberg, Edwin V. Bonilla,
- Abstract要約: 本稿では、生成モデルをバッチ最適化(BO)のための候補解サンプリングに変換する戦略を提案する。
BOのための生成モデルを使用することで、大規模なバッチスケーリングを生成的サンプリング、非連続的な設計空間の最適化、高次元および高次元の設計を可能にする。
- 参考スコア(独自算出の注目度): 13.375195089272685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a general strategy for turning generative models into candidate solution samplers for batch Bayesian optimization (BO). The use of generative models for BO enables large batch scaling as generative sampling, optimization of non-continuous design spaces, and high-dimensional and combinatorial design. Inspired by the success of direct preference optimization (DPO), we show that one can train a generative model with noisy, simple utility values directly computed from observations to then form proposal distributions whose densities are proportional to the expected utility, i.e., BO's acquisition function values. Furthermore, this approach is generalizable beyond preference-based feedback to general types of reward signals and loss functions. This perspective avoids the construction of surrogate (regression or classification) models, common in previous methods that have used generative models for black-box optimization. Theoretically, we show that the generative models within the BO process approximately follow a sequence of distributions which asymptotically concentrate at the global optima under certain conditions. We also demonstrate this effect through experiments on challenging optimization problems involving large batches in high dimensions.
- Abstract(参考訳): 本稿では,生成モデルをバッチベイズ最適化(BO)のための候補解サンプリング器に変換するための一般的な戦略を提案する。
BOのための生成モデルを使用することで、大規模なバッチスケーリングを生成的サンプリング、非連続設計空間の最適化、高次元および組合せ設計を可能にする。
直接選好最適化(DPO)の成功に触発されて、観測結果から直接計算されたノイズの多い単純なユーティリティ値で生成モデルを訓練し、その密度が期待されるユーティリティ、すなわちBOの取得関数値に比例する提案分布を形成することができることを示す。
さらに、このアプローチは、一般的な報酬信号や損失関数に対する嗜好に基づくフィードバックを超えて一般化可能である。
この観点は、ブラックボックス最適化に生成モデルを使用した以前の方法に共通する代理モデル(回帰モデルまたは分類モデル)の構築を避ける。
理論的には、BOプロセス内の生成モデルは、特定の条件下でのグローバルオプティマに漸近的に集中する分布列にほぼ従っていることを示す。
また、この効果を高次元での大規模バッチを含む挑戦的な最適化問題の実験を通じて実証する。
関連論文リスト
- Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Bayesian Experimental Design via Contrastive Diffusions [2.2186678387006435]
実験設計(BOED)は、一連の実験の実行コストを削減する強力なツールである。
コスト効率の良いサンプリング特性を持つプール勾配分布を導入し、新しいEIG式によるEIGコントラスト後部へのトラクタアクセスを提供する。
BOEDフレームワークに生成モデルを組み込むことで、適用範囲を拡大し、非現実的なシナリオでの利用を拡大する。
論文 参考訳(メタデータ) (2024-10-15T17:53:07Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Predictive Modeling through Hyper-Bayesian Optimization [60.586813904500595]
本稿では,モデル選択とBOを統合する新しい手法を提案する。
このアルゴリズムは、モデル空間のBOと関数空間のBOの間を行き来する。
サンプル効率の改善に加えて、ブラックボックス機能に関する情報も出力する。
論文 参考訳(メタデータ) (2023-08-01T04:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。