論文の概要: BONSAI: Bayesian Optimization with Natural Simplicity and Interpretability
- arxiv url: http://arxiv.org/abs/2602.07144v1
- Date: Fri, 06 Feb 2026 19:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.468193
- Title: BONSAI: Bayesian Optimization with Natural Simplicity and Interpretability
- Title(参考訳): BONSAI:自然単純性と解釈可能性を備えたベイズ最適化
- Authors: Samuel Daulton, David Eriksson, Maximilian Balandat, Eytan Bakshy,
- Abstract要約: BONSAIは、デフォルト設定から低インパクトな逸脱を誘発する、既定のBOポリシーである。
BONSAIは推奨設定における非デフォルトパラメータの数を著しく削減する。
- 参考スコア(独自算出の注目度): 18.544743636026755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO) is a popular technique for sample-efficient optimization of black-box functions. In many applications, the parameters being tuned come with a carefully engineered default configuration, and practitioners only want to deviate from this default when necessary. Standard BO, however, does not aim to minimize deviation from the default and, in practice, often pushes weakly relevant parameters to the boundary of the search space. This makes it difficult to distinguish between important and spurious changes and increases the burden of vetting recommendations when the optimization objective omits relevant operational considerations. We introduce BONSAI, a default-aware BO policy that prunes low-impact deviations from a default configuration while explicitly controlling the loss in acquisition value. BONSAI is compatible with a variety of acquisition functions, including expected improvement and upper confidence bound (GP-UCB). We theoretically bound the regret incurred by BONSAI, showing that, under certain conditions, it enjoys the same no-regret property as vanilla GP-UCB. Across many real-world applications, we empirically find that BONSAI substantially reduces the number of non-default parameters in recommended configurations while maintaining competitive optimization performance, with little effect on wall time.
- Abstract(参考訳): ベイズ最適化(英: Bayesian Optimization, BO)は、ブラックボックス関数のサンプル効率最適化のための一般的な手法である。
多くのアプリケーションでは、調整されるパラメータには、慎重にエンジニアリングされたデフォルト設定が伴います。
しかし、標準BOはデフォルトから逸脱を最小限に抑えることを目的としておらず、実際は、弱い関連するパラメータを検索空間の境界にプッシュすることが多い。
これにより、重要な変更と急激な変更の区別が難しくなり、最適化目的が関連する運用上の考慮を省略する場合、審査勧告の負担が増大する。
BONSAIは、デフォルト設定から低インパクトな逸脱を誘発し、買収価値の損失を明示的に制御する、デフォルト対応BOポリシーである。
BONSAIは、期待される改善と高信頼境界(GP-UCB)を含む、さまざまな買収機能と互換性がある。
BONSAIが犯した後悔を理論的に拘束し、ある条件下では、バニラGP-UCBと同じ非回帰特性を享受していることを示す。
多くの実世界のアプリケーションにおいて、BONSAIは推奨設定における非デフォルトパラメータの数を大幅に減らし、競合最適化性能を保ちながら、壁面時間にはほとんど影響を与えないことを実証的に見出した。
関連論文リスト
- Task-free Adaptive Meta Black-box Optimization [55.461814601130044]
対象タスクからのみ最適化データを用いてオンラインパラメータ適応を行うアダプティブメタブラックボックス最適化モデル(ABOM)を提案する。
メタトレーニングと最適化フェーズを分離する従来のメタBBOフレームワークとは異なり、ABOMはクローズドループパラメータ学習機構を導入し、パラメータ化された進化演算子を継続的に自己更新する。
このパラダイムシフトはゼロショット最適化を可能にする: 合成BBOベンチマークにおけるABOMの競合性能と、手作りのトレーニングタスクを伴わない現実的な無人飛行路計画問題。
論文 参考訳(メタデータ) (2026-01-29T09:54:10Z) - Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - Cost-aware Stopping for Bayesian Optimization [46.95172329282389]
本稿では,様々な評価コストに適応し,チューニングが不要なベイズ最適化のためのコスト対応停止則を提案する。
我々は,最先端の取得関数と組み合わせた場合,停止規則によって得られる期待累積評価コストを拘束する理論的な保証を証明した。
論文 参考訳(メタデータ) (2025-07-16T17:54:14Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Self-Adjusting Weighted Expected Improvement for Bayesian Optimization [11.955557264002204]
この研究はAFの定義に焦点を当てており、その主な目的は、調査地域と高い不確実性のある地域と、優れたソリューションを約束する地域とのトレードオフをバランスさせることである。
我々は、データ駆動方式で、探索・探索トレードオフを自己調整する自己調整重み付き改善(SAWEI)を提案する。
提案手法は手作りのベースラインと比較して,任意の問題構造に対して堅牢なデフォルト選択として有効である。
論文 参考訳(メタデータ) (2023-06-07T09:00:19Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。