論文の概要: Sparse Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2203.01900v1
- Date: Thu, 3 Mar 2022 18:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 14:37:57.138486
- Title: Sparse Bayesian Optimization
- Title(参考訳): スパースベイズ最適化
- Authors: Sulin Liu, Qing Feng, David Eriksson, Benjamin Letham, Eytan Bakshy
- Abstract要約: よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
- 参考スコア(独自算出の注目度): 16.867375370457438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO) is a powerful approach to sample-efficient
optimization of black-box objective functions. However, the application of BO
to areas such as recommendation systems often requires taking the
interpretability and simplicity of the configurations into consideration, a
setting that has not been previously studied in the BO literature. To make BO
applicable in this setting, we present several regularization-based approaches
that allow us to discover sparse and more interpretable configurations. We
propose a novel differentiable relaxation based on homotopy continuation that
makes it possible to target sparsity by working directly with $L_0$
regularization. We identify failure modes for regularized BO and develop a
hyperparameter-free method, sparsity exploring Bayesian optimization (SEBO)
that seeks to simultaneously maximize a target objective and sparsity. SEBO and
methods based on fixed regularization are evaluated on synthetic and real-world
problems, and we show that we are able to efficiently optimize for sparsity.
- Abstract(参考訳): ベイズ最適化(BO)はブラックボックスの目的関数の標本効率最適化のための強力な手法である。
しかし, 推薦システムなどの分野へのBOの適用には, BO文献ではこれまで研究されてきたような, 構成の解釈可能性や簡易性を考慮に入れなければならない場合が多い。
この設定にBOを適用させるため、よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
我々は,$l_0$正規化で直接動作することにより,スパーシティを目標とするホモトピー継続に基づく新しい微分可能緩和を提案する。
正規化BOの故障モードを特定し,目標目標とスパーシティを同時に最大化するためにベイズ最適化(SEBO)を探索するハイパーパラメータフリーな手法を開発した。
seboと固定正則化に基づく手法は, 合成問題と実世界問題で評価され, スパーシティを効率的に最適化できることを示す。
関連論文リスト
- Batched Bayesian optimization with correlated candidate uncertainties [44.38372821900645]
純粋に活用する qPO (multipoint of Optimality) による離散最適化のための獲得戦略を提案する。
本研究では, 大規模化学ライブラリのモデル誘導探索に適用し, バッチ化ベイズ最適化における最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-08T20:13:12Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Parallel Bayesian Optimization Using Satisficing Thompson Sampling for
Time-Sensitive Black-Box Optimization [0.0]
本稿では,Thompsonサンプリングに基づく並列BO手法を提案する。
ターゲットを最適なソリューションから、学習しやすい満足できるソリューションにシフトします。
リチウムイオン電池の高速充電設計問題に対して提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-10-19T07:03:51Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Neighbor Regularized Bayesian Optimization for Hyperparameter
Optimization [12.544312247050236]
そこで本研究では,近隣正規化ベイズ最適化(NRBO)と呼ばれる新しいBOアルゴリズムを提案する。
まず,各試料の観察を円滑に円滑に行うため,余分なトレーニングコストを伴わずに効率よく観測ノイズを低減できる近傍型正規化を提案する。
我々は、ベイズマークベンチマークとImageNetやCOCOのような重要なコンピュータビジョンベンチマークで実験を行う。
論文 参考訳(メタデータ) (2022-10-07T12:08:01Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - A General Recipe for Likelihood-free Bayesian Optimization [115.82591413062546]
我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
論文 参考訳(メタデータ) (2022-06-27T03:55:27Z) - BOSH: Bayesian Optimization by Sampling Hierarchically [10.10241176664951]
本稿では,階層的なガウス過程と情報理論の枠組みを組み合わせたBOルーチンを提案する。
BOSHは, ベンチマーク, シミュレーション最適化, 強化学習, ハイパーパラメータチューニングタスクにおいて, 標準BOよりも効率的で高精度な最適化を実現する。
論文 参考訳(メタデータ) (2020-07-02T07:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。