論文の概要: Gaussian Process Bandit Optimization with Machine Learning Predictions and Application to Hypothesis Generation
- arxiv url: http://arxiv.org/abs/2601.22315v1
- Date: Thu, 29 Jan 2026 20:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.060906
- Title: Gaussian Process Bandit Optimization with Machine Learning Predictions and Application to Hypothesis Generation
- Title(参考訳): 機械学習予測を用いたガウス過程帯域最適化と仮説生成への応用
- Authors: Xin Jennifer Chen, Yunjin Tong,
- Abstract要約: 予測拡張ガウス過程 アッパー信頼境界(PA-GP-UCB)は、新しいベイズ最適化アルゴリズムである。
本稿では, PA-GP-UCBがVanilla GP-UCBよりも高速に収束し, GP-UCBベースラインを合成ベンチマークで予測した。
これらの結果から,PA-GP-UCBは高額なフィードバックの下で仮説生成のための汎用的でサンプル効率のよいフレームワークとして確立された。
- 参考スコア(独自算出の注目度): 0.28647133890966986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world optimization problems involve an expensive ground-truth oracle (e.g., human evaluation, physical experiments) and a cheap, low-fidelity prediction oracle (e.g., machine learning models, simulations). Meanwhile, abundant offline data (e.g., past experiments and predictions) are often available and can be used to pretrain powerful predictive models, as well as to provide an informative prior. We propose Prediction-Augmented Gaussian Process Upper Confidence Bound (PA-GP-UCB), a novel Bayesian optimization algorithm that leverages both oracles and offline data to achieve provable gains in sample efficiency for the ground-truth oracle queries. PA-GP-UCB employs a control-variates estimator derived from a joint Gaussian process posterior to correct prediction bias and reduce uncertainty. We prove that PA-GP-UCB preserves the standard regret rate of GP-UCB while achieving a strictly smaller leading constant that is explicitly controlled by prediction quality and offline data coverage. Empirically, PA-GP-UCB converges faster than Vanilla GP-UCB and naive prediction-augmented GP-UCB baselines on synthetic benchmarks and on a real-world hypothesis evaluation task grounded in human behavioral data, where predictions are provided by large language models. These results establish PA-GP-UCB as a general and sample-efficient framework for hypothesis generation under expensive feedback.
- Abstract(参考訳): 多くの実世界の最適化問題には、高価な地道オラクル(例えば、人間の評価、物理実験)と安価で低忠実な予測オラクル(例えば、機械学習モデル、シミュレーション)が含まれる。
一方、豊富なオフラインデータ(例えば過去の実験や予測)がしばしば利用可能であり、強力な予測モデルの事前学習や、情報的事前提供に使用できる。
提案手法は, オーラクルとオフラインデータの両方を利用した新しいベイズ最適化アルゴリズムで, オーラクルクエリのサンプル効率向上を実現している。
PA-GP-UCBは、共同ガウス過程の後部から導かれる制御変量推定器を用いて予測バイアスを補正し、不確実性を低減している。
PA-GP-UCBはGP-UCBの標準後悔率を維持しつつ、予測品質とオフラインデータカバレッジによって明示的に制御されるリード定数を厳密に小さくすることを示す。
実証的に、PA-GP-UCBはVanilla GP-UCBよりも早く収束し、人工ベンチマークや人間の行動データに基づく実世界の仮説評価タスクにおいて、予測が大きな言語モデルによって提供される。
これらの結果から,PA-GP-UCBは高額なフィードバックの下で仮説生成のための汎用的でサンプル効率のよいフレームワークとして確立された。
関連論文リスト
- Prediction-Powered Adaptive Shrinkage Estimation [0.22917707112773592]
予測パワー適応収縮(英: Prediction-Powered Adaptive Shrinkage、PAS)は、PPIを実証的なベイズ収縮で橋渡しし、複数の手段の推定を改善する手法である。
PASはML予測の信頼性に適応し、大規模アプリケーションにおいて従来のベースラインと現代的なベースラインを上回っている。
論文 参考訳(メタデータ) (2025-02-20T00:24:05Z) - Adaptive Sampling to Reduce Epistemic Uncertainty Using Prediction Interval-Generation Neural Networks [0.0]
本稿では,予測モデルにおけるてんかんの不確実性を低減するための適応サンプリング手法を提案する。
我々の主な貢献は、潜在的なてんかんの不確実性を推定する計量の開発である。
ガウス過程(GP)に基づくバッチサンプリング戦略も提案する。
本研究では, 実験肥料の施肥率を選択するために, 3つの一次元合成問題と, 農業分野に基づく多次元データセットについて検討した。
論文 参考訳(メタデータ) (2024-12-13T21:21:47Z) - Another look at inference after prediction [0.3457963934920459]
予測ベース(PB)推論は,大量の予測を用いた統計的解析に適合するように設計されている。
提案手法は, 簡易な修正により, 有効性の向上を保証できることを実証する。
本提案の実用性は,広範囲なシミュレーション研究と,英国バイオバンクの実データへの適用を通じて実証された。
論文 参考訳(メタデータ) (2024-11-29T18:12:50Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Robust and Adaptive Temporal-Difference Learning Using An Ensemble of
Gaussian Processes [70.80716221080118]
本稿では、時間差学習(TD)による政策評価の世代的視点について考察する。
OS-GPTDアプローチは、状態-逆ペアのシーケンスを観測することにより、与えられたポリシーの値関数を推定するために開発された。
1つの固定カーネルに関連する限られた表現性を緩和するために、GP前の重み付けアンサンブル(E)を用いて代替のスキームを生成する。
論文 参考訳(メタデータ) (2021-12-01T23:15:09Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。