論文の概要: VBO-MI: A Fully Gradient-Based Bayesian Optimization Framework Using Variational Mutual Information Estimation
- arxiv url: http://arxiv.org/abs/2601.08172v1
- Date: Tue, 13 Jan 2026 03:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.03604
- Title: VBO-MI: A Fully Gradient-Based Bayesian Optimization Framework Using Variational Mutual Information Estimation
- Title(参考訳): VBO-MI:変分相互情報推定を用いた完全勾配型ベイズ最適化フレームワーク
- Authors: Farhad Mirkarimi,
- Abstract要約: VBO-MIは多変量相互情報推定の最近の進歩を生かした,完全な勾配に基づくBOフレームワークである。
提案手法は,高次元合成関数や複雑な実世界のタスクを含む,多種多様なベンチマークを用いて評価する。
- 参考スコア(独自算出の注目度): 1.0829694003408499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world tasks require optimizing expensive black-box functions accessible only through noisy evaluations, a setting commonly addressed with Bayesian optimization (BO). While Bayesian neural networks (BNNs) have recently emerged as scalable alternatives to Gaussian Processes (GPs), traditional BNN-BO frameworks remain burdened by expensive posterior sampling and acquisition function optimization. In this work, we propose {VBO-MI} (Variational Bayesian Optimization with Mutual Information), a fully gradient-based BO framework that leverages recent advances in variational mutual information estimation. To enable end-to-end gradient flow, we employ an actor-critic architecture consisting of an {action-net} to navigate the input space and a {variational critic} to estimate information gain. This formulation effectively eliminates the traditional inner-loop acquisition optimization bottleneck, achieving up to a {$10^2 \times$ reduction in FLOPs} compared to BNN-BO baselines. We evaluate our method on a diverse suite of benchmarks, including high-dimensional synthetic functions and complex real-world tasks such as PDE optimization, the Lunar Lander control problem, and categorical Pest Control. Our experiments demonstrate that VBO-MI consistently provides the same or superior optimization performance and computational scalability over the baselines.
- Abstract(参考訳): 多くの実世界のタスクでは、ノイズ評価によってのみアクセス可能な高価なブラックボックス関数を最適化する必要がある。
ベイジアンニューラルネットワーク(BNN)は近年、ガウスプロセス(GP)に代わるスケーラブルな代替手段として登場したが、従来のBNN-BOフレームワークは高価な後続サンプリングと取得関数最適化によって負担を受け続けている。
本稿では,変分相互情報推定における最近の進歩を生かした完全勾配型BOフレームワークである {VBO-MI} (Variational Bayesian Optimization with Mutual Information) を提案する。
エンドツーエンドの勾配流を実現するために,入力空間をナビゲートする {action-net} と情報ゲインを推定する {variational critic} からなるアクタ批判アーキテクチャを用いる。
この定式化は、従来の内部ループ取得最適化のボトルネックを効果的に排除し、BNN-BOベースラインと比較して、 {$10^2 \times$ reduce in FLOPs} を達成する。
我々は,PDE最適化やLunar Lander制御問題,カテゴリー的害虫制御など,高次元合成関数や複雑な実世界のタスクを含む,多種多様なベンチマークを用いて評価を行った。
我々の実験は、VBO-MIがベースラインよりも同等または優れた最適化性能と計算スケーラビリティを一貫して提供することを示した。
関連論文リスト
- Neural Nonmyopic Bayesian Optimization in Dynamic Cost Settings [73.44599934855067]
LookaHESは、動的で履歴に依存したコスト環境のために設計された非心筋BOフレームワークである。
LookaHESは、$H$-Entropy Searchのマルチステップ版と、パスワイズサンプリングとニューラルポリシー最適化を組み合わせたものだ。
私たちの革新は、構造化されたドメイン固有のアクションスペースを効果的にナビゲートするために、大きな言語モデルを含むニューラルポリシーの統合です。
論文 参考訳(メタデータ) (2026-01-10T09:49:45Z) - PABBO: Preferential Amortized Black-Box Optimization [24.019185659134294]
優先ベイズ最適化(英: Preferential Bayesian Optimization, PBO)は、一対の設計に対する優先的なフィードバックから潜在ユーザユーティリティを学習するためのサンプリング効率のよい手法である。
そこで本研究では,PBOを完全修復し,サロゲートと取得機能の両方をメタラーニングすることで,この問題を回避することを提案する。
提案手法はガウスのプロセスベース戦略よりも数桁高速であり,精度で優れていることが多い。
論文 参考訳(メタデータ) (2025-03-02T14:57:24Z) - Approximation-Aware Bayesian Optimization [34.56666383247348]
高次元ベイズ最適化(BO)タスクは、意味のある結果を得る前に10,000の関数評価を必要とすることが多い。
本稿では,小変動ガウス過程 (SVGP) をBOの目標とよく一致させるために修正する。
ユーティリティ校正変分推論の枠組みを用いて,GP近似とデータ取得を共同最適化問題に統一する。
論文 参考訳(メタデータ) (2024-06-06T17:55:02Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Non-Convex Bilevel Optimization with Time-Varying Objective Functions [57.299128109226025]
本稿では,時間変化の可能なオンライン二段階最適化を提案し,エージェントがオンラインデータを用いて決定を継続的に更新する。
既存のアルゴリズムと比較して、SOBOWは計算効率が良く、以前の関数を知る必要がない。
軽度条件下では,SOBOWはサブリニアな局所的後悔を達成できることを示す。
論文 参考訳(メタデータ) (2023-08-07T06:27:57Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Towards Automated Design of Bayesian Optimization via Exploratory
Landscape Analysis [11.143778114800272]
AFの動的選択はBO設計に有用であることを示す。
我々は,オートML支援のオンザフライBO設計への道を開き,その動作をランニング・バイ・ランで調整する。
論文 参考訳(メタデータ) (2022-11-17T17:15:04Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。