論文の概要: An Asymptotic Law of the Iterated Logarithm for $\mathrm{KL}_{\inf}$
- arxiv url: http://arxiv.org/abs/2602.05259v1
- Date: Thu, 05 Feb 2026 03:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.744217
- Title: An Asymptotic Law of the Iterated Logarithm for $\mathrm{KL}_{\inf}$
- Title(参考訳): $\mathrm{KL}_{\inf}$に対する反復対数の漸近法則
- Authors: Ashwin Ram, Aaditya Ramdas,
- Abstract要約: 人口$mathrmKL_inf$は純粋探索バンディットアルゴリズムの(漸近的に)最適後悔のために下界に現れる。
経験的な$mathrmKL_inf$統計学は、(漸近的に)最適な帯域幅アルゴリズムとシーケンシャルテストの設計に頻繁に使用される。
- 参考スコア(独自算出の注目度): 38.54792440099341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The population $\mathrm{KL}_{\inf}$ is a fundamental quantity that appears in lower bounds for (asymptotically) optimal regret of pure-exploration stochastic bandit algorithms, and optimal stopping time of sequential tests. Motivated by this, an empirical $\mathrm{KL}_{\inf}$ statistic is frequently used in the design of (asymptotically) optimal bandit algorithms and sequential tests. While nonasymptotic concentration bounds for the empirical $\mathrm{KL}_{\inf}$ have been developed, their optimality in terms of constants and rates is questionable, and their generality is limited (usually to bounded observations). The fundamental limits of nonasymptotic concentration are often described by the asymptotic fluctuations of the statistics. With that motivation, this paper presents a tight (upper and lower) law of the iterated logarithm for empirical $\mathrm{KL}_{\inf}$ applying to extremely general (unbounded) data.
- Abstract(参考訳): 人口$\mathrm{KL}_{\inf}$は、純粋探索確率的バンディットアルゴリズムの(漸近的に)最適後悔とシーケンシャルテストの最適停止時間に対して下界に現れる基本量である。
経験的$\mathrm{KL}_{\inf}$ statistic は(漸近的に)最適な帯域幅アルゴリズムとシーケンシャルテストの設計に頻繁に使用される。
経験的$\mathrm{KL}_{\inf}$に対する漸近的濃度境界は発展してきたが、定数とレートの観点でのそれらの最適性は疑問視され、それらの一般性は限定的である(通常は有界観測)。
漸近的濃度の基本的な限界は、しばしば統計の漸近的変動によって説明される。
このモチベーションにより、実証的な$\mathrm{KL}_{\inf}$に対する反復対数の厳密な(上と下)法則を、非常に一般的な(非有界な)データに適用する。
関連論文リスト
- Stochastic Gradient Descent in Non-Convex Problems: Asymptotic Convergence with Relaxed Step-Size via Stopping Time Methods [13.677904140815386]
Gradient Descent (SGD) は機械学習の研究で広く使われている。
本稿では,より緩やかなステップサイズ条件下でのSGDの収束解析法を提案する。
論文 参考訳(メタデータ) (2025-04-17T02:56:20Z) - Nonasymptotic CLT and Error Bounds for Two-Time-Scale Stochastic Approximation [12.69327994479157]
We consider linear two-time-scale approximation algorithm driven by martingale noise。
我々は、PolyakRuppert平均化を用いた2時間スケール近似のためのワッサーシュタイン-1距離に関する最初の漸近的中心極限定理を導出した。
論文 参考訳(メタデータ) (2025-02-14T03:20:30Z) - Beyond likelihood ratio bias: Nested multi-time-scale stochastic approximation for likelihood-free parameter estimation [49.78792404811239]
確率分析形式が不明なシミュレーションベースモデルにおける推論について検討する。
我々は、スコアを同時に追跡し、パラメータ更新を駆動する比率のないネスト型マルチタイムスケール近似(SA)手法を用いる。
我々のアルゴリズムは、オリジナルのバイアス$Obig(sqrtfrac1Nbig)$を排除し、収束率を$Obig(beta_k+sqrtfracalpha_kNbig)$から加速できることを示す。
論文 参考訳(メタデータ) (2024-11-20T02:46:15Z) - Generalization Error Bounds for Noisy, Iterative Algorithms via Maximal
Leakage [24.40306100502023]
我々は,雑音学習アルゴリズムのクラスにおける一般化挙動を解析するために,情報理論の枠組みを採用する。
更新関数の仮定が雑音の最適選択にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-02-28T12:13:57Z) - Estimating Optimal Policy Value in General Linear Contextual Bandits [50.008542459050155]
多くのバンドイット問題において、政策によって達成可能な最大報酬は、前もって不明であることが多い。
我々は,最適政策が学習される前に,サブ線形データ構造における最適政策値を推定する問題を考察する。
V*$で問題依存上界を推定する,より実用的で効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-19T01:09:24Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - ROOT-SGD: Sharp Nonasymptotics and Near-Optimal Asymptotics in a Single Algorithm [71.13558000599839]
第一次アルゴリズムを用いて,厳密な凸と滑らかな非制約最適化問題の解法について検討する。
我々は,過去の勾配を平均化し,実装が容易な小説「Recursive One-Over-T SGD」を考案した。
有限サンプル, 漸近感覚, 感覚の両面において, 最先端の性能を同時に達成できることを実証する。
論文 参考訳(メタデータ) (2020-08-28T14:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。