論文の概要: Fast, Precise Thompson Sampling for Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2411.17071v1
- Date: Tue, 26 Nov 2024 03:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:37:14.705823
- Title: Fast, Precise Thompson Sampling for Bayesian Optimization
- Title(参考訳): ベイズ最適化のための高速高精度トンプソンサンプリング
- Authors: David Sweet,
- Abstract要約: トンプソンサンプリング(TS)は、多腕バンディット問題において最適な後悔と優れた経験的性能を有する。
最近のアルゴリズムでは、P-Star Sampler (PSS) がHit-and-Runを介してそのようなサンプリングを行う。
改良版であるStagger Thompson Sampler (STS) を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Thompson sampling (TS) has optimal regret and excellent empirical performance in multi-armed bandit problems. Yet, in Bayesian optimization, TS underperforms popular acquisition functions (e.g., EI, UCB). TS samples arms according to the probability that they are optimal. A recent algorithm, P-Star Sampler (PSS), performs such a sampling via Hit-and-Run. We present an improved version, Stagger Thompson Sampler (STS). STS more precisely locates the maximizer than does TS using less computation time. We demonstrate that STS outperforms TS, PSS, and other acquisition methods in numerical experiments of optimizations of several test functions across a broad range of dimension. Additionally, since PSS was originally presented not as a standalone acquisition method but as an input to a batching algorithm called Minimal Terminal Variance (MTV), we also demon-strate that STS matches PSS performance when used as the input to MTV.
- Abstract(参考訳): トンプソンサンプリング(TS)は、多腕バンディット問題において最適な後悔と優れた経験的性能を有する。
しかし、ベイズ最適化では、TSは一般的な取得関数(例えば、EI、UCB)を過小評価する。
TSは最適な確率に応じて腕をサンプリングする。
最近のアルゴリズムであるPSS (P-Star Sampler) は、Hit-and-Runを介してそのようなサンプリングを行う。
改良版であるStagger Thompson Sampler (STS) を提示する。
STSでは、演算時間が少ないため、TSよりも正確に最大値を見つけることができる。
STS は TS や PSS などの取得手法より, 広範囲にわたるテスト関数の最適化の数値実験において優れていることを示す。
さらに,PSSはもともとスタンドアロンの取得方式ではなく,MTV(Minimal Terminal Variance)と呼ばれるバッチアルゴリズムの入力として提供されていたため,STSがMSVの入力として使用する場合,PSSの性能と一致することが実証された。
関連論文リスト
- Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - VITS : Variational Inference Thompson Sampling for contextual bandits [10.028119153832346]
我々は、文脈的帯域幅に対するトンプソンサンプリング(TS)アルゴリズムの変種を導入・解析する。
ガウス変分推論に基づく新しいアルゴリズムであるValational Inference Thompson sample VITSを提案する。
我々は,VITS が線形文脈帯域に対して従来の TS の次元とラウンド数で同じ順序のサブ線形後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2023-07-19T17:53:22Z) - Optimality of Thompson Sampling with Noninformative Priors for Pareto
Bandits [81.45853204922795]
トンプソンサンプリングは、いくつかの報酬モデルにおいて問題依存の低い境界を達成することが示されている。
重い尾を持つパレートモデルに対するTSの最適性は、2つの未知のパラメータによってパラメータ化される。
ジェフリーズおよび参照先行値を持つTSは、トラルニケート手順を使用すると、下界を達成できる。
論文 参考訳(メタデータ) (2023-02-03T04:47:14Z) - Thompson Sampling for High-Dimensional Sparse Linear Contextual Bandits [17.11922027966447]
この研究は、高次元およびスパースな文脈的包帯におけるトンプソンサンプリングの理論的な保証を提供する。
より高速な計算のために、MCMCの代わりに未知のパラメータと変分推論をモデル化するために、スパイク・アンド・スラブを用いる。
論文 参考訳(メタデータ) (2022-11-11T02:23:39Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Algorithms for Adaptive Experiments that Trade-off Statistical Analysis
with Reward: Combining Uniform Random Assignment and Reward Maximization [50.725191156128645]
トンプソンサンプリングのようなマルチアームバンディットアルゴリズムは適応的な実験を行うのに利用できる。
統計的解析のための一様ランダム化の利点を組み合わせた2つのアルゴリズムを探索する2つのアーム実験のシミュレーションを提案する。
論文 参考訳(メタデータ) (2021-12-15T22:11:58Z) - COAST: COntrollable Arbitrary-Sampling NeTwork for Compressive Sensing [27.870537087888334]
本研究では,任意のサンプリング(サンプリング行列を含む)の問題を1つのモデルで解くために,COAST(Arbitrary-Sampling neTwork)を提案する。
COASTは1つのモデルで任意のサンプリング行列を処理でき、高速で最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-07-15T10:05:00Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Scalable Thompson Sampling using Sparse Gaussian Process Models [9.460149673477153]
ガウス過程(GP)モデルからのトンプソンサンプリング(TS)はブラックボックス関数の最適化のための強力なツールである。
分散GPモデルに基づくスケーラブルTS法は、TSのスコープを増やすために提案されている。
理論的な保証と,拡張性TSの計算複雑性の劇的な低減が,標準TSに対する後悔性能を損なうことなく実現可能であることを示す。
論文 参考訳(メタデータ) (2020-06-09T15:42:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。