論文の概要: Bayesian Optimization for Unknown Cost-Varying Variable Subsets with No-Regret Costs
- arxiv url: http://arxiv.org/abs/2412.15863v1
- Date: Fri, 20 Dec 2024 13:00:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:23:12.981803
- Title: Bayesian Optimization for Unknown Cost-Varying Variable Subsets with No-Regret Costs
- Title(参考訳): 非相対的コストをもつ未知のコスト可変部分集合に対するベイズ最適化
- Authors: Vu Viet Hoang, Quoc Anh Hoang Nguyen, Hung Tran The,
- Abstract要約: ランダムで未知のコストでBOCVS問題を拡張するための新しいアルゴリズムを提案する。
提案アルゴリズムは,BOCVS問題の目的を従来よりも効果的に解決し,品質的後悔とコスト的後悔の両面において,サブ線形率を達成する。
- 参考スコア(独自算出の注目度): 3.1269598124014264
- License:
- Abstract: Bayesian Optimization (BO) is a widely-used method for optimizing expensive-to-evaluate black-box functions. Traditional BO assumes that the learner has full control over all query variables without additional constraints. However, in many real-world scenarios, controlling certain query variables may incur costs. Therefore, the learner needs to balance the selection of informative subsets for targeted learning against leaving some variables to be randomly sampled to minimize costs. This problem is known as Bayesian Optimization with cost-varying variable subsets (BOCVS). While the goal of BOCVS is to identify the optimal solution with minimal cost, previous works have only guaranteed finding the optimal solution without considering the total costs incurred. Moreover, these works assume precise knowledge of the cost for each subset, which is often unrealistic. In this paper, we propose a novel algorithm for the extension of the BOCVS problem with random and unknown costs that separates the process into exploration and exploitation phases. The exploration phase will filter out low-quality variable subsets, while the exploitation phase will leverage high-quality ones. Furthermore, we theoretically demonstrate that our algorithm achieves a sub-linear rate in both quality regret and cost regret, addressing the objective of the BOCVS problem more effectively than previous analyses. Finally, we show that our proposed algorithm outperforms comparable baselines across a wide range of benchmarks.
- Abstract(参考訳): ベイズ最適化(英: Bayesian Optimization、BO)は、高価なブラックボックス関数を最適化する手法である。
従来のBOは、学習者が追加の制約なしに全てのクエリ変数を完全に制御できると仮定している。
しかし、現実の多くのシナリオでは、特定のクエリ変数を制御することはコストを発生させる可能性がある。
そのため,学習者は,学習対象とする情報サブセットの選択のバランスをとる必要がある。
この問題は、コスト変動可変部分集合 (BOCVS) を用いたベイズ最適化 (Bayesian Optimization) として知られている。
BOCVSの目標は、最適解を最小限のコストで識別することにあるが、以前の研究では、全体のコストを考慮せずに最適解を見つけることしか保証されていない。
さらに、これらの研究は各部分集合のコストの正確な知識を前提としており、しばしば非現実的である。
本稿では,BOCVS問題を無作為かつ未知のコストで拡張するための新しいアルゴリズムを提案する。
探索フェーズは低品質な変数サブセットをフィルタリングし、エクスプロイトフェーズは高品質なサブセットを活用する。
さらに,提案アルゴリズムは,BOCVS問題の目的を従来よりも効果的に解決し,品質的後悔とコスト的後悔の両面において,サブ線形率を達成することを理論的に実証した。
最後に、提案アルゴリズムは、幅広いベンチマークにおいて、同等のベースラインよりも優れていることを示す。
関連論文リスト
- Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - An adaptive approach to Bayesian Optimization with switching costs [0.8246494848934447]
逐次実験設計の資源制約設定に対するベイズ最適化の修正について検討する。
この逐次的問題定式化にプロセス制約付きバッチアルゴリズムを2つ適用し,コスト認識とコスト非依存の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T21:55:02Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - A Near-Optimal Algorithm for Univariate Zeroth-Order Budget Convex
Optimization [4.608510640547952]
我々は、Dy Searchのほぼ最適最適化誤差を保証する。
誤差境界における大域リプシッツ定数への古典的依存は、予算の粒度のアーティファクトであることを示す。
論文 参考訳(メタデータ) (2022-08-13T19:57:04Z) - Multi-Step Budgeted Bayesian Optimization with Unknown Evaluation Costs [28.254408148839644]
不均一な評価コストの設定に古典的な期待改善を一般化する非筋力的獲得関数を提案する。
我々の獲得関数は、様々な合成問題や実問題において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2021-11-12T02:18:26Z) - Breaking the Sample Complexity Barrier to Regret-Optimal Model-Free
Reinforcement Learning [52.76230802067506]
漸進的強化学習における後悔を最小限に抑えるために,新しいモデルフリーアルゴリズムを提案する。
提案アルゴリズムは、2つのQ-ラーニングシーケンスの助けを借りて、初期設定された参照更新ルールを用いる。
初期の分散還元法の設計原理は、他のRL設定とは独立した関心を持つかもしれない。
論文 参考訳(メタデータ) (2021-10-09T21:13:48Z) - A Nonmyopic Approach to Cost-Constrained Bayesian Optimization [10.078368988372247]
コスト制約付きBOを制約付きマルコフ決定過程(CMDP)として定式化する。
コストと将来のイテレーションを考慮に入れた最適CMDPポリシーに対する効率的なロールアウト近似を開発する。
論文 参考訳(メタデータ) (2021-06-10T22:44:37Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Cost-aware Bayesian Optimization [6.75013674088437]
コストを意識したBOは、時間、エネルギー、お金といった他のコスト指標との収束を測定します。
我々は,目標関数をできるだけ少ないコストで最小化しようとするコスト調整BO(CArBO)を導入する。
論文 参考訳(メタデータ) (2020-03-22T14:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。