論文の概要: Regret Analysis of Dyadic Search
- arxiv url: http://arxiv.org/abs/2209.00885v1
- Date: Fri, 2 Sep 2022 08:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:55:07.113594
- Title: Regret Analysis of Dyadic Search
- Title(参考訳): dyadic searchの後悔分析
- Authors: Fran\c{c}ois Bachoc, Tommaso Cesari, Roberto Colomboni, Andrea Paudice
- Abstract要約: Bachoc et al の Dyadic Search アルゴリズムの累積的後悔を解析する。
この記事は最初、ピアツーピアのオンラインジャーナルであるThe Conversationに掲載された。
- 参考スコア(独自算出の注目度): 4.608510640547952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze the cumulative regret of the Dyadic Search algorithm of Bachoc et
al. [2022].
- Abstract(参考訳): BachocらによるDyadic Searchアルゴリズムの累積的後悔を分析した。
[2022].
関連論文リスト
- Regret of exploratory policy improvement and $q$-learning [12.07783627081662]
我々は,Jia と Zhou が導入した$q$-learning および関連アルゴリズムの収束について検討する。
モデルパラメータの成長と規則性に関する適切な条件の下で、探索的政策改善アルゴリズムと$q$-learningアルゴリズムの両方の量的誤りと後悔の分析を行う。
論文 参考訳(メタデータ) (2024-11-02T16:28:34Z) - Finite Sample and Large Deviations Analysis of Stochastic Gradient Algorithm with Correlated Noise [15.724207170366846]
我々は,ステップサイズ勾配アルゴリズムの有限標本残差を解析した。
相関雑音を仮定し,解析の体系的アプローチとして摂動リアプノフ関数を用いる。
論文 参考訳(メタデータ) (2024-10-11T01:38:27Z) - RethinkMCTS: Refining Erroneous Thoughts in Monte Carlo Tree Search for Code Generation [65.5353313491402]
本稿では,モンテカルロ木探索(MCTS)アルゴリズムを用いて,コードを生成する前に思考レベルの探索を行うRethinkMCTSを紹介する。
我々は,検索中の誤った思考を洗練させるために,微動コード実行フィードバックからの言語フィードバックを構築した。
RethinkMCTSは従来の検索ベースおよびフィードバックベースのコード生成ベースラインよりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-09-15T02:07:28Z) - Bregman-divergence-based Arimoto-Blahut algorithm [53.64687146666141]
本稿では,Arimoto-BlahutアルゴリズムをBregman-Diversergenceシステム上で定義された一般関数に一般化する。
本稿では,古典的および量子速度歪み理論に適用可能な凸最適化自由アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T06:16:24Z) - Rectangle Search: An Anytime Beam Search (Extended Version) [9.59799149404787]
任意の検索アルゴリズムは、(潜在的に最適でない)解をできるだけ早く見つけようとする。
本稿では,ビーム探索に基づく新しい長方形探索法を提案する。
論文 参考訳(メタデータ) (2023-12-19T19:50:45Z) - An Optimal Algorithm for the Real-Valued Combinatorial Pure Exploration
of Multi-Armed Bandit [65.268245109828]
多武装バンディット(R-CPE-MAB)の真価純探査問題について検討する。
既存のR-CPE-MABの手法は、いわゆるトランスダクティブ線形帯域の特殊な場合と見なすことができる。
本稿では,差分探索アルゴリズム (CombGapE) を提案する。
論文 参考訳(メタデータ) (2023-06-15T15:37:31Z) - An Analysis of Reinforcement Learning for Malaria Control [1.0323063834827415]
本稿では,マラリア対策の定式化について検討し,文献におけるいくつかの定式化の包括的分析について述べる。
これまでの研究とは対照的に, 上位信頼境界に基づく単純なアルゴリズムは, 優れたマラリア政策を学習するのに十分であることを示す。
論文 参考訳(メタデータ) (2021-07-19T16:00:40Z) - Limited depth bandit-based strategy for Monte Carlo planning in
continuous action spaces [4.1208902102156015]
本稿では,階層最適化(HOO)アルゴリズムの限界深度変種であるLD-HOOを提案する。
提案アルゴリズムは,より高速で,よりメモリ効率のよいオリジナルのHOOと同様の累積的後悔を示す。
次に,最適制御問題に対するLD-HOOに基づくモンテカルロ木探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-29T17:30:01Z) - Regret Analysis in Deterministic Reinforcement Learning [78.31410227443102]
本稿では,最適学習アルゴリズムの分析と設計の中心となる後悔の問題を考察する。
本稿では,システムパラメータに明示的に依存する対数問題固有の後悔の下位境界について述べる。
論文 参考訳(メタデータ) (2021-06-27T23:41:57Z) - Analysis and Design of Thompson Sampling for Stochastic Partial
Monitoring [91.22679787578438]
部分モニタリングのためのトンプソンサンプリングに基づく新しいアルゴリズムを提案する。
局所可観測性を持つ問題の線形化変種に対して,新たなアルゴリズムが対数問題依存の擬似回帰$mathrmO(log T)$を達成することを証明した。
論文 参考訳(メタデータ) (2020-06-17T05:48:33Z) - Greedy Algorithm almost Dominates in Smoothed Contextual Bandits [100.09904315064372]
オンライン学習アルゴリズムは探索と搾取のバランスをとる必要がある。
欲求的アプローチは、他のアルゴリズムのベイズ的後悔率とほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-05-19T18:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。