論文の概要: Sharp analysis of linear ensemble sampling
- arxiv url: http://arxiv.org/abs/2602.08026v1
- Date: Sun, 08 Feb 2026 15:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.937487
- Title: Sharp analysis of linear ensemble sampling
- Title(参考訳): 線形アンサンブルサンプリングのシャープ解析
- Authors: Arya Akhavan, David Janz, Csaba Szepesvári,
- Abstract要約: アンサンブルサイズが$m=(dlog n)$の場合、ES は $tilde O(d3/2sqrt n)$ High-probability regret を達成する。
この証明は、線形包帯におけるランダム化探索の新しい視点をもたらす。
- 参考スコア(独自算出の注目度): 31.13444548932784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyse linear ensemble sampling (ES) with standard Gaussian perturbations in stochastic linear bandits. We show that for ensemble size $m=Θ(d\log n)$, ES attains $\tilde O(d^{3/2}\sqrt n)$ high-probability regret, closing the gap to the Thompson sampling benchmark while keeping computation comparable. The proof brings a new perspective on randomized exploration in linear bandits by reducing the analysis to a time-uniform exceedance problem for $m$ independent Brownian motions. Intriguingly, this continuous-time lens is not forced; it appears natural--and perhaps necessary: the discrete-time problem seems to be asking for a continuous-time solution, and we know of no other way to obtain a sharp ES bound.
- Abstract(参考訳): 確率線形帯域における標準ガウス摂動を用いた線形アンサンブルサンプリング(ES)の解析を行った。
アンサンブルサイズが$m=\(d\log n)$の場合、ES は $\tilde O(d^{3/2}\sqrt n)$ 高確率の後悔を達成し、計算を同等に保ちつつ、トンプソンサンプリングベンチマークとのギャップを埋めることを示した。
この証明は、独立ブラウン運動に対する時間不均一な超越問題に解析を還元することで、線形包帯におけるランダム化探索の新しい視点をもたらす。
興味深いことに、この連続時間レンズは強制的ではなく、自然かつおそらく必要であるように見える:離散時間問題は連続時間解を求めるように見え、鋭いES境界を得る方法が他にない。
関連論文リスト
- Provable Anytime Ensemble Sampling Algorithms in Nonlinear Contextual Bandits [10.131895986034314]
一般化線形帯域に対する一般化線形アンサンブルサンプリング(textttGLM-ES)とニューラルエンサンブルサンプリング(textttNeural-ES)である。
textttGLM-ESの$mathcalO(d3/2 sqrtT + d9/2)$と、テキストの$mathcalO(widetilded sqrtT)$の高確率頻繁な後悔境界を証明します。
論文 参考訳(メタデータ) (2025-10-12T18:05:53Z) - Improved Regret of Linear Ensemble Sampling [9.410437324336275]
アンサンブルサイズを$T$とすると、線形アンサンブルサンプリングは$tildeO(d3/2sqrtT)$の頻繁な後悔境界を達成できる。
本稿では,線形帯域幅アルゴリズムに対する一般的な後悔分析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-06T14:09:11Z) - Faster Diffusion Sampling with Randomized Midpoints: Sequential and Parallel [10.840582511203024]
我々のアルゴリズムは、$widetilde O(log2 d)$ parallel roundsでのみ実行できるように並列化可能であることを示す。
また、我々のアルゴリズムは、$widetilde O(log2 d)$ parallel roundsでしか実行できないことを示す。
論文 参考訳(メタデータ) (2024-06-03T01:34:34Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。