論文の概要: Sample-Then-Optimize Batch Neural Thompson Sampling
- arxiv url: http://arxiv.org/abs/2210.06850v1
- Date: Thu, 13 Oct 2022 09:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:39:41.843935
- Title: Sample-Then-Optimize Batch Neural Thompson Sampling
- Title(参考訳): サンプルテーマ最適化バッチニューラルトンプソンサンプリング
- Authors: Zhongxiang Dai, Yao Shu, Bryan Kian Hsiang Low, Patrick Jaillet
- Abstract要約: 我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
- 参考スコア(独自算出の注目度): 50.800944138278474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO), which uses a Gaussian process (GP) as a surrogate
to model its objective function, is popular for black-box optimization.
However, due to the limitations of GPs, BO underperforms in some problems such
as those with categorical, high-dimensional or image inputs. To this end,
recent works have used the highly expressive neural networks (NNs) as the
surrogate model and derived theoretical guarantees using the theory of neural
tangent kernel (NTK). However, these works suffer from the limitations of the
requirement to invert an extremely large parameter matrix and the restriction
to the sequential (rather than batch) setting. To overcome these limitations,
we introduce two algorithms based on the Thompson sampling (TS) policy named
Sample-Then-Optimize Batch Neural TS (STO-BNTS) and STO-BNTS-Linear. To choose
an input query, we only need to train an NN (resp. a linear model) and then
choose the query by maximizing the trained NN (resp. linear model), which is
equivalently sampled from the GP posterior with the NTK as the kernel function.
As a result, our algorithms sidestep the need to invert the large parameter
matrix yet still preserve the validity of the TS policy. Next, we derive regret
upper bounds for our algorithms with batch evaluations, and use insights from
batch BO and NTK to show that they are asymptotically no-regret under certain
conditions. Finally, we verify their empirical effectiveness using practical
AutoML and reinforcement learning experiments.
- Abstract(参考訳): 目的関数をモデル化するためのサロゲートとしてガウス過程(gp)を使用するベイズ最適化(bo)はブラックボックス最適化に人気がある。
しかし、GPの限界のため、BOは分類的、高次元、画像入力といったいくつかの問題では性能が劣る。
この目的のために、近年の研究では、高表現性ニューラルネットワーク(nns)をサロゲートモデルとして使用し、神経接核(ntk)の理論を用いた理論的保証を導出している。
しかしながら、これらの作業は、非常に大きなパラメータ行列を反転させる要件の制限と、シーケンシャルな(バッチではなく)設定の制限に悩まされる。
これらの制限を克服するために,STO-BNTS(Sample-Then-Optimize Batch Neural TS)とSTO-BNTS-Linear(STO-BNTS)という,トンプソンサンプリング(TS)ポリシーに基づく2つのアルゴリズムを導入する。
入力クエリを選択するには、NN(リニアモデル参照)をトレーニングし、トレーニングされたNN(リニアモデル参照)を最大化してクエリを選択するだけでよい。
その結果、我々のアルゴリズムは大きなパラメータ行列を逆転する必要性を回避しつつもTSポリシーの有効性を保っている。
次に, バッチ評価によるアルゴリズム上界の後悔を招き, バッチBOとNTKからの洞察を用いて, 特定の条件下では漸近的に非回帰的であることを示す。
最後に,実践的なAutoMLと強化学習実験を用いて実験の有効性を検証する。
関連論文リスト
- Quantum Bayesian Optimization [64.58749619145908]
本稿では,量子ガウスプロセスアップパー信頼度境界(Q-GP-UCB)アルゴリズムを提案する。
O(polylog T) は古典的設定における Omega(sqrt(T)) の左下限よりもかなり小さい。
線形核を持つQ-GP-UCBは、新しい信頼楕円体解析により、量子線形 UCB アルゴリズムよりも小さな後悔を実現する。
論文 参考訳(メタデータ) (2023-10-09T03:10:42Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Bayesian Kernelized Tensor Factorization as Surrogate for Bayesian
Optimization [13.896697187967545]
カーネル最適化(BO)は主にガウス過程(GP)をキーサロゲートモデルとして用いている。
本稿では,BOにおける新しい代理モデルとしてベイズ因子化(BKTF)を提案する。
BKTFは、不確実量化を伴う複素関数を特徴づけるための柔軟で効果的なアプローチを提供する。
論文 参考訳(メタデータ) (2023-02-28T12:00:21Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Misspecified Gaussian Process Bandit Optimization [59.30399661155574]
カーネル化されたバンディットアルゴリズムは、この問題に対して強い経験的および理論的性能を示した。
本稿では、未知関数を$epsilon$-一様近似で近似できるエンフェミス特定カーネル化帯域設定を、ある再生カーネルヒルベルト空間(RKHS)において有界ノルムを持つ関数で導入する。
提案アルゴリズムは,不特定性に関する事前知識を伴わず,$epsilon$への最適依存を実現する。
論文 参考訳(メタデータ) (2021-11-09T09:00:02Z) - An Empirical Study of Neural Kernel Bandits [17.92492092034792]
ニューラルネットワーク(NK)の研究は、最近、NNのすべてのパラメータを考慮に入れたディープネットワークとGPの対応を確立した。
NK帯域幅は,非線形構造データ上での最先端性能を示す。
論文 参考訳(メタデータ) (2021-11-05T15:06:05Z) - Neural Contextual Bandits without Regret [47.73483756447701]
ニューラルネットワークを用いて未知の報酬関数を近似する文脈的帯域幅のアルゴリズムを提案する。
我々のアプローチは、$tildemathcalO(T-1/2d)$ rateで最適ポリシーに収束し、$d$は文脈の次元であることを示す。
論文 参考訳(メタデータ) (2021-07-07T11:11:34Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。