論文の概要: Hyper-parameter Tuning for the Contextual Bandit
- arxiv url: http://arxiv.org/abs/2005.02209v1
- Date: Mon, 4 May 2020 17:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:21:07.638893
- Title: Hyper-parameter Tuning for the Contextual Bandit
- Title(参考訳): コンテキスト帯域に対するハイパーパラメータチューニング
- Authors: Djallel Bouneffouf and Emmanuelle Claeys
- Abstract要約: 本稿では,線形報酬関数の設定によるコンテキスト的帯域問題における探索的エクスプロイトトレードオフの学習問題について検討する。
提案アルゴリズムは,観測された文脈に基づいて,適切な探索パラメータをオンラインで選択することを学ぶ。
ここでは,文脈的帯域幅アルゴリズムの最適探索を求めるために,帯域幅を用いた2つのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.721128745617076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study here the problem of learning the exploration exploitation trade-off
in the contextual bandit problem with linear reward function setting. In the
traditional algorithms that solve the contextual bandit problem, the
exploration is a parameter that is tuned by the user. However, our proposed
algorithm learn to choose the right exploration parameters in an online manner
based on the observed context, and the immediate reward received for the chosen
action. We have presented here two algorithms that uses a bandit to find the
optimal exploration of the contextual bandit algorithm, which we hope is the
first step toward the automation of the multi-armed bandit algorithm.
- Abstract(参考訳): 本稿では,線形報酬関数を用いたコンテキストバンディット問題における探索的利用トレードオフの学習の問題について検討する。
文脈的帯域幅問題を解決する従来のアルゴリズムでは、探索はユーザが調整したパラメータである。
しかし,提案アルゴリズムは,観察された状況と,選択した行動に対する即時報酬に基づいて,適切な探索パラメータをオンラインで選択する。
本稿では,バンディットを用いてコンテキストバンディットアルゴリズムの最適探索を行う2つのアルゴリズムを提示し,マルチアーム付きバンディットアルゴリズムの自動化に向けた第一歩を期待する。
関連論文リスト
- Online Continuous Hyperparameter Optimization for Contextual Bandits [82.18146534971156]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において一貫してより良い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Thompson Sampling with Virtual Helping Agents [0.0]
我々は、オンラインのシーケンシャルな意思決定の問題、すなわち、現在の知識を活用して即時パフォーマンスを最大化し、新しい情報を探索して長期的な利益を得るというトレードオフに対処する。
本稿では,マルチアームバンディット問題に対する2つのアルゴリズムを提案し,累積的後悔に関する理論的境界を提供する。
論文 参考訳(メタデータ) (2022-09-16T23:34:44Z) - Syndicated Bandits: A Framework for Auto Tuning Hyper-parameters in
Contextual Bandit Algorithms [74.55200180156906]
文脈的盗賊問題は、探索と搾取の間のトレードオフをモデル化する。
我々のSyndicated Banditsフレームワークは最適な後悔の上限を達成できることを示す。
論文 参考訳(メタデータ) (2021-06-05T22:30:21Z) - Bias-Robust Bayesian Optimization via Dueling Bandit [57.82422045437126]
ベイジアン最適化は、観測が逆偏りとなるような環境において考慮する。
情報指向サンプリング(IDS)に基づくダリングバンディットの新しい手法を提案する。
これにより、累積的後悔保証を伴う帯域幅の並列化のための、最初の効率的なカーネル化アルゴリズムが得られる。
論文 参考訳(メタデータ) (2021-05-25T10:08:41Z) - An empirical evaluation of active inference in multi-armed bandits [0.0]
アクティブ推論フレームワークは、探索と探索のトレードオフを解決するための洗練された戦略によって区別される。
効率的で近似可能なスケーラブルなアクティブ推論アルゴリズムを導き出し、2つの最先端のバンディットアルゴリズムと比較します。
論文 参考訳(メタデータ) (2021-01-21T16:20:06Z) - Upper Confidence Bounds for Combining Stochastic Bandits [52.10197476419621]
バンディットアルゴリズムを結合する簡単な手法を提案する。
私たちのアプローチは、個々のbanditアルゴリズムのそれぞれを、より高いレベルのn$-armed bandit問題のアームとして扱う"meta-ucb"手順に基づいています。
論文 参考訳(メタデータ) (2020-12-24T05:36:29Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z) - Corralling Stochastic Bandit Algorithms [54.10645564702416]
相関アルゴリズムの後悔は、最も報酬の高い腕を含む最高のアルゴリズムの後悔よりも悪くはないことを示す。
最高報酬と他の報酬の差は、最高報酬と他の報酬の差に依存することを示す。
論文 参考訳(メタデータ) (2020-06-16T15:33:12Z) - Bandit algorithms to emulate human decision making using probabilistic
distortions [20.422725678982726]
報奨分布に歪んだ確率を持つ2つの多重武装バンディット問題を定式化する。
以上のような後悔の最小化の問題と、マルチアームバンディットのための最高の腕識別フレームワークについて考察する。
論文 参考訳(メタデータ) (2016-11-30T17:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。