論文の概要: Offline Stochastic Optimization of Black-Box Objective Functions
- arxiv url: http://arxiv.org/abs/2412.02089v1
- Date: Tue, 03 Dec 2024 02:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:22.840677
- Title: Offline Stochastic Optimization of Black-Box Objective Functions
- Title(参考訳): ブラックボックス目的関数のオフライン確率最適化
- Authors: Juncheng Dong, Zihao Wu, Hamid Jafarkhani, Ali Pezeshki, Vahid Tarokh,
- Abstract要約: 複雑なブラックボックス関数の高価なアクティブクエリを避けるために、既存のデータを活用することが不可欠である。
ブラックボックスの目的と制御不能な不確実性の両方に対処するオフラインBBO(SOBBO)を導入する。
シミュレーション実験により,本手法が実環境と実環境の両方のタスクに与える影響を実証した。
- 参考スコア(独自算出の注目度): 47.74033738624514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many challenges in science and engineering, such as drug discovery and communication network design, involve optimizing complex and expensive black-box functions across vast search spaces. Thus, it is essential to leverage existing data to avoid costly active queries of these black-box functions. To this end, while Offline Black-Box Optimization (BBO) is effective for deterministic problems, it may fall short in capturing the stochasticity of real-world scenarios. To address this, we introduce Stochastic Offline BBO (SOBBO), which tackles both black-box objectives and uncontrolled uncertainties. We propose two solutions: for large-data regimes, a differentiable surrogate allows for gradient-based optimization, while for scarce-data regimes, we directly estimate gradients under conservative field constraints, improving robustness, convergence, and data efficiency. Numerical experiments demonstrate the effectiveness of our approach on both synthetic and real-world tasks.
- Abstract(参考訳): 薬物発見や通信ネットワーク設計のような科学と工学における多くの課題は、膨大な検索空間にわたって複雑で高価なブラックボックス機能を最適化することである。
したがって、これらのブラックボックス関数の高価なアクティブクエリを避けるために、既存のデータを活用することが不可欠である。
この目的のために、オフラインブラックボックス最適化(BBO)は決定論的問題に有効であるが、現実のシナリオの確率性を捉えるには不十分である。
これを解決するために,ブラックボックスの目的と制御不能な不確実性に対処するStochastic Offline BBO(SOBBO)を導入する。
大規模データレギュレーションでは、微分可能なサロゲートは勾配に基づく最適化を可能にするが、希少データレギュレーションでは、保守的なフィールド制約下での勾配を直接推定し、堅牢性、収束性、データ効率を向上する。
シミュレーション実験により,本手法が実環境と実環境の両方のタスクに与える影響を実証した。
関連論文リスト
- Offline Model-Based Optimization: Comprehensive Review [61.91350077539443]
オフライン最適化は、オフラインデータセットのみを使用してブラックボックス機能の最適化を目標とする、科学とエンジニアリングの基本的な課題である。
モデルベース最適化の最近の進歩は、オフライン固有の代理モデルと生成モデルを開発するために、ディープニューラルネットワークの一般化能力を活用している。
科学的な発見を加速させる効果が増大しているにもかかわらず、この分野は包括的なレビューを欠いている。
論文 参考訳(メタデータ) (2025-03-21T16:35:02Z) - Posterior Inference with Diffusion Models for High-dimensional Black-box Optimization [17.92257026306603]
生成モデルはブラックボックス最適化の問題を解決するために登場した。
我々は、高次元のブラックボックス最適化問題を解決するための新しいフレームワーク、textbfDiBOを紹介する。
提案手法は,様々な合成および実世界のブラックボックス最適化タスクにおいて,最先端のベースラインよりも優れる。
論文 参考訳(メタデータ) (2025-02-24T04:19:15Z) - Offline Learning for Combinatorial Multi-armed Bandits [56.96242764723241]
Off-CMABはCMABの最初のオフライン学習フレームワークである。
Off-CMABは悲観的な報酬推定と解法を組み合わせる。
合成および実世界のデータセットの実験は、CLCBの優れた性能を強調している。
論文 参考訳(メタデータ) (2025-01-31T16:56:18Z) - Diff-BBO: Diffusion-Based Inverse Modeling for Black-Box Optimization [20.45482366024264]
Black-box Optimization (BBO) は、ブラックボックスのオラクルをサンプル効率よく反復的にクエリすることで、目的関数を最適化することを目的としている。
対象空間を条件付き拡散モデルで設計空間にマッピングする最近の逆モデリング手法は、データ多様体を学習する際の印象的な能力を実証している。
オンラインBBO問題に対する拡散モデルを利用した逆アプローチであるDiff-BBOを提案する。
論文 参考訳(メタデータ) (2024-06-30T06:58:31Z) - CAGES: Cost-Aware Gradient Entropy Search for Efficient Local Multi-Fidelity Bayesian Optimization [0.0]
我々は,多要素ブラックボックス関数の局所BOのための新しいアルゴリズムであるCost-Aware Gradient Entropy Search (CAGES)を提案する。
我々は,CAGESが様々な合成およびベンチマークRL問題において,他の最先端手法と比較して,大幅な性能向上を達成できることを実証した。
論文 参考訳(メタデータ) (2024-05-13T14:00:02Z) - OTClean: Data Cleaning for Conditional Independence Violations using
Optimal Transport [51.6416022358349]
sysは、条件付き独立性(CI)制約下でのデータ修復に最適な輸送理論を利用するフレームワークである。
我々はSinkhornの行列スケーリングアルゴリズムにインスパイアされた反復アルゴリズムを開発し、高次元および大規模データを効率的に処理する。
論文 参考訳(メタデータ) (2024-03-04T18:23:55Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - Large-Batch, Iteration-Efficient Neural Bayesian Design Optimization [37.339567743948955]
本稿では,BOの限界に対処するための新しいベイズ最適化フレームワークを提案する。
我々の重要な貢献は、高度にスケーラブルでサンプルベースの取得機能であり、非支配的な目的のソートを実行する。
我々は,ベイズ型ニューラルネットワークサロゲートと組み合わせることで,最小限の反復数でデータ集約環境に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T19:10:57Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Multi-Fidelity Bayesian Optimization via Deep Neural Networks [19.699020509495437]
多くのアプリケーションでは、目的関数を複数の忠実度で評価することで、コストと精度のトレードオフを可能にする。
本稿では,DNN-MFBO(Deep Neural Network Multi-Fidelity Bayesian Optimization)を提案する。
本手法の利点は, 総合的なベンチマークデータセットと, 工学設計における実世界の応用の両方にある。
論文 参考訳(メタデータ) (2020-07-06T23:28:40Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。