論文の概要: Bayesian Optimization of Robustness Measures Using Randomized GP-UCB-based Algorithms under Input Uncertainty
- arxiv url: http://arxiv.org/abs/2504.03172v1
- Date: Fri, 04 Apr 2025 05:01:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:31.773599
- Title: Bayesian Optimization of Robustness Measures Using Randomized GP-UCB-based Algorithms under Input Uncertainty
- Title(参考訳): 入力不確実性を考慮したランダム化GP-UCBアルゴリズムによるロバストネス対策のベイズ最適化
- Authors: Yu Inatsu,
- Abstract要約: ランダム化ロバストネス尺度GP-UCB(RRGP-UCB)と呼ばれる新しい手法を提案する。
RRGP-UCBは、カイ二乗分布に基づいて確率分布からトレードオフパラメータ$beta$をサンプリングし、明示的に$beta$を指定することを避ける。
RRGP-UCBは、最適解と推定解に基づいて、後悔の期待値に厳密な制約を与えることを示す。
- 参考スコア(独自算出の注目度): 3.8979646385036175
- License:
- Abstract: Bayesian optimization based on Gaussian process upper confidence bound (GP-UCB) has a theoretical guarantee for optimizing black-box functions. Black-box functions often have input uncertainty, but even in this case, GP-UCB can be extended to optimize evaluation measures called robustness measures. However, GP-UCB-based methods for robustness measures include a trade-off parameter $\beta$, which must be excessively large to achieve theoretical validity, just like the original GP-UCB. In this study, we propose a new method called randomized robustness measure GP-UCB (RRGP-UCB), which samples the trade-off parameter $\beta$ from a probability distribution based on a chi-squared distribution and avoids explicitly specifying $\beta$. The expected value of $\beta$ is not excessively large. Furthermore, we show that RRGP-UCB provides tight bounds on the expected value of regret based on the optimal solution and estimated solutions. Finally, we demonstrate the usefulness of the proposed method through numerical experiments.
- Abstract(参考訳): ガウス過程上信頼境界(GP-UCB)に基づくベイズ最適化はブラックボックス関数を最適化する理論的保証を持つ。
ブラックボックス関数は入力の不確実性を持つことが多いが、この場合でさえ、GP-UCBはロバストネス測度と呼ばれる評価測度を最適化するために拡張することができる。
しかし、堅牢性測定のためのGP-UCBベースの手法にはトレードオフパラメータ$\beta$が含まれており、これは元々のGP-UCBと同様、理論上の妥当性を達成するために過度に大きくなければならない。
本研究では, 確率分布からトレードオフパラメータ $\beta$ を抽出し, $\beta$ を明示的に指定しないランダム化ロバストネス尺度 GP-UCB (RRGP-UCB) を提案する。
$\beta$の期待値は過大ではない。
さらに、RRGP-UCBは、最適解と推定解に基づいて、後悔の期待値に厳密な制約を与えることを示した。
最後に,提案手法の有用性を数値実験により示す。
関連論文リスト
- Mean-Field Bayesian Optimisation [11.624033826631448]
我々は、多数の協調エージェントに対する平均ペイオフを最適化する問題に対処し、そのペイオフ関数が未知であり、ブラックボックスとして扱われる。
本稿では,エージェントペイオフを最適化する新しいアルゴリズムであるMF-GP-UCBを紹介する。
MF-GP-UCBは既存のベンチマークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-02-17T20:34:29Z) - Regret Analysis for Randomized Gaussian Process Upper Confidence Bound [9.967062483758632]
本稿では,GP-UCBの改良型であるGP-UCBのランダム化変異を解析する。
両方の後悔解析において、IRGP-UCBは入力領域が有限であれば信頼パラメータを増大させることなく、サブ線形後悔上限を達成する。
論文 参考訳(メタデータ) (2024-09-02T06:49:29Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Randomized Gaussian Process Upper Confidence Bound with Tighter Bayesian
Regret Bounds [9.89553853547974]
本研究はまず,RGP-UCBの後悔解析をガンマ分布を含むより広範な分布に一般化する。
本稿では,2パラメータ指数分布に基づく改良されたRGP-UCBを提案する。
IRGP-UCBの広汎な実験による有効性を示す。
論文 参考訳(メタデータ) (2023-02-03T02:48:48Z) - Misspecified Gaussian Process Bandit Optimization [59.30399661155574]
カーネル化されたバンディットアルゴリズムは、この問題に対して強い経験的および理論的性能を示した。
本稿では、未知関数を$epsilon$-一様近似で近似できるエンフェミス特定カーネル化帯域設定を、ある再生カーネルヒルベルト空間(RKHS)において有界ノルムを持つ関数で導入する。
提案アルゴリズムは,不特定性に関する事前知識を伴わず,$epsilon$への最適依存を実現する。
論文 参考訳(メタデータ) (2021-11-09T09:00:02Z) - Adversarial Robustness Guarantees for Gaussian Processes [22.403365399119107]
ガウス過程(GP)は、モデルの不確実性の原理的計算を可能にし、安全性に重要なアプリケーションに魅力的です。
境界付き摂動に対するモデル決定の不変性として定義されるGPの対向的堅牢性を分析するためのフレームワークを提案する。
我々は境界を洗練し、任意の$epsilon > 0$に対して、我々のアルゴリズムが有限個の反復で実際の値に$epsilon$-closeの値に収束することを保証していることを示す分岐とバウンドのスキームを開発する。
論文 参考訳(メタデータ) (2021-04-07T15:14:56Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Uncertainty quantification using martingales for misspecified Gaussian
processes [52.22233158357913]
本稿では,ガウス過程(GP)の不確定な定量化を,不特定先行条件下で解決する。
マルティンゲール法を用いて未知関数に対する信頼シーケンス(CS)を構築する。
我々のCSは統計的に有効であり、実証的に標準GP法より優れています。
論文 参考訳(メタデータ) (2020-06-12T17:58:59Z) - Near-linear Time Gaussian Process Optimization with Adaptive Batching
and Resparsification [119.41129787351092]
BBKBは非回帰GP最適化アルゴリズムで、ほぼ直線的に実行し、バッチで候補を選択する。
また,同じバウンダリを用いて,スパルスGP近似の更新コストを適応的に遅延させることで,ステップ毎の償却コストをほぼ一定に抑えることができることを示した。
論文 参考訳(メタデータ) (2020-02-23T17:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。