論文の概要: Generative Adversarial Bayesian Optimization for Surrogate Objectives
- arxiv url: http://arxiv.org/abs/2402.06532v1
- Date: Fri, 9 Feb 2024 16:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 16:00:19.759808
- Title: Generative Adversarial Bayesian Optimization for Surrogate Objectives
- Title(参考訳): 代理目的に対する生成的逆ベイズ最適化
- Authors: Michael S. Yao, Yimeng Zeng, Hamsa Bastani, Jacob Gardner, James C.
Gee, Osbert Bastani
- Abstract要約: 本稿では,適応的情報源批判正規化を用いたGABO(Generative adversarial Bayesian Optimization)を提案する。
GABOは、サロゲート関数が信頼できる領域に最適化軌道を制約する。
また,本アルゴリズムはソース評論家の正則化の強度を動的に調整することを示した。
- 参考スコア(独自算出の注目度): 26.697858345250115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Offline model-based policy optimization seeks to optimize a learned surrogate
objective function without querying the true oracle objective during
optimization. However, inaccurate surrogate model predictions are frequently
encountered along the optimization trajectory. To address this limitation, we
propose generative adversarial Bayesian optimization (GABO) using adaptive
source critic regularization, a task-agnostic framework for Bayesian
optimization that employs a Lipschitz-bounded source critic model to constrain
the optimization trajectory to regions where the surrogate function is
reliable. We show that under certain assumptions for the continuous input space
prior, our algorithm dynamically adjusts the strength of the source critic
regularization. GABO outperforms existing baselines on a number of different
offline optimization tasks across a variety of scientific domains. Our code is
available at https://github.com/michael-s-yao/gabo
- Abstract(参考訳): オフラインモデルに基づくポリシー最適化は、最適化中に真のオラクルの目的を問うことなく、学習した代理対象関数を最適化しようとする。
しかし、最適化軌道に沿って不正確な代理モデル予測が頻繁に発生する。
そこで本研究では,リプシッツ境界付きソース批評家モデルを用いたベイズ最適化のためのタスク非依存フレームワークであるadaptive source critic regularizationを用いて,gabo(generative adversarial bayesian optimization)を提案する。
連続的な入力空間に対する前提条件下では,本アルゴリズムはソース批判正規化の強度を動的に調整する。
GABOは、さまざまな科学的領域にわたるさまざまなオフライン最適化タスクにおいて、既存のベースラインを上回っている。
私たちのコードはhttps://github.com/michael-s-yao/gaboで利用可能です。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Towards Efficient and Exact Optimization of Language Model Alignment [97.41422112912574]
本稿では、アライメント目的の効率的な精度最適化(EXO)を提案する。
我々は,EXOがRLアルゴリズムと同じ方向に最適化されることを証明した。
さらに、現実的な人間の嗜好データに対する既存のアプローチよりも、提案手法の利点を実証する。
論文 参考訳(メタデータ) (2024-02-01T18:51:54Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Bayesian Optimization with Informative Covariance [13.113313427848828]
探索空間の特定の領域の好みを符号化するために,非定常性を利用した新しい情報共分散関数を提案する。
提案した関数は,より弱い事前情報の下でも,ハイ次元でのベイズ最適化のサンプル効率を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-04T15:05:11Z) - Combining Genetic Programming and Particle Swarm Optimization to
Simplify Rugged Landscapes Exploration [7.25130576615102]
元の関数のスムーズな代理モデルを構築するための新しい手法を提案する。
GP-FST-PSOサロゲートモデル(GP-FST-PSO Surrogate Model)と呼ばれる提案アルゴリズムは,グローバルな最適探索と,元のベンチマーク関数の視覚的近似の生成の両方において満足な結果が得られる。
論文 参考訳(メタデータ) (2022-06-07T12:55:04Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - BOSH: Bayesian Optimization by Sampling Hierarchically [10.10241176664951]
本稿では,階層的なガウス過程と情報理論の枠組みを組み合わせたBOルーチンを提案する。
BOSHは, ベンチマーク, シミュレーション最適化, 強化学習, ハイパーパラメータチューニングタスクにおいて, 標準BOよりも効率的で高精度な最適化を実現する。
論文 参考訳(メタデータ) (2020-07-02T07:35:49Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。