論文の概要: Online Prediction of Stochastic Sequences with High Probability Regret Bounds
- arxiv url: http://arxiv.org/abs/2602.16236v1
- Date: Wed, 18 Feb 2026 07:26:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.539419
- Title: Online Prediction of Stochastic Sequences with High Probability Regret Bounds
- Title(参考訳): 高確率回帰境界を持つ確率列のオンライン予測
- Authors: Matthias Frey, Jonathan H. Manton, Jingge Zhu,
- Abstract要約: 学習者に知られている有限時間水平線を持つ列の普遍的予測という古典的問題を再検討する。
我々は、高い確率で保持する後悔境界を消滅させ、期待する文献から既存の境界を補完することを提案する。
可算アルファベット上の過程の普遍的な予測の場合、我々の有界状態は$mathcalO(T-1/2 -1/2)$の収束率を少なくとも1-$の確率で表す。
- 参考スコア(独自算出の注目度): 16.68585810113338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit the classical problem of universal prediction of stochastic sequences with a finite time horizon $T$ known to the learner. The question we investigate is whether it is possible to derive vanishing regret bounds that hold with high probability, complementing existing bounds from the literature that hold in expectation. We propose such high-probability bounds which have a very similar form as the prior expectation bounds. For the case of universal prediction of a stochastic process over a countable alphabet, our bound states a convergence rate of $\mathcal{O}(T^{-1/2} δ^{-1/2})$ with probability as least $1-δ$ compared to prior known in-expectation bounds of the order $\mathcal{O}(T^{-1/2})$. We also propose an impossibility result which proves that it is not possible to improve the exponent of $δ$ in a bound of the same form without making additional assumptions.
- Abstract(参考訳): 学習者に知られている有限時間水平線で確率列の普遍的予測の古典的問題を再検討する。
検討する問題は、高い確率で保持する後悔の境界を消滅させ、期待する文献から既存の境界を補うことができるかどうかである。
先述の期待値と非常によく似た形の高確率境界を提案する。
可算アルファベット上の確率過程の普遍的予測の場合、我々の有界状態は$\mathcal{O}(T^{-1/2} δ^{-1/2})$の収束率を少なくとも1-δ$とする。
また、同じ形式の有界における$δ$の指数を、追加の仮定をすることなく改善することは不可能であることを示す不合理性結果も提案する。
関連論文リスト
- A Refinement of Vapnik--Chervonenkis' Theorem [0.0]
Vapnik--Chervonenkisの定理は機械学習のセミナルな結果である。
古典的議論の確率的要素を再考する。
論文 参考訳(メタデータ) (2026-01-23T02:57:29Z) - Convergence of TD(0) under Polynomial Mixing with Nonlinear Function Approximation [49.1574468325115]
時間差分学習(TD(0))は強化学習の基本である。
マルコフデータを混合したバニラTD(0)の最初の高確率有限サンプル解析を行う。
論文 参考訳(メタデータ) (2025-02-08T22:01:02Z) - High Probability Guarantees for Random Reshuffling [4.794366598086316]
最適化問題に対処するためにランダムリシャッフル(mathsfRR$)の勾配法を検討する。
本手法の1次複雑性保証を行う。
我々は、$mathsfp$-$mathsfRR$provably escapes strict point and a high tail.
論文 参考訳(メタデータ) (2023-11-20T15:17:20Z) - A Novel Bayes' Theorem for Upper Probabilities [7.527234046228324]
1990年の論文の中で、ワッサーマンとカダンはベイズの測度集合の後方確率の上限を$A$と定めている。
本稿では,その可能性に関する不確実性に対処することで,それらの結果を一般化する。
論文 参考訳(メタデータ) (2023-07-13T15:50:49Z) - High Probability Convergence of Stochastic Gradient Methods [15.829413808059124]
最適解への初期距離に依存する有界収束を示す。
AdaGrad-Normのハイバウンドが得られることを示す。
論文 参考訳(メタデータ) (2023-02-28T18:42:11Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - A lower confidence sequence for the changing mean of non-negative right
heavy-tailed observations with bounded mean [9.289846887298854]
信頼シーケンスは、時間パラメトリックカバレッジ保証付き予測可能なパラメータシーケンスに対する適応されたセット列を生成する。
この研究は、スラックが0に収束するランニング平均条件付き期待値に対して、漸近的でない低CSを構成する。
論文 参考訳(メタデータ) (2022-10-20T09:50:05Z) - Statistical Inference of Constrained Stochastic Optimization via Sketched Sequential Quadratic Programming [53.63469275932989]
制約付き非線形最適化問題のオンライン統計的推測を考察する。
これらの問題を解決するために、逐次二次計画法(StoSQP)を適用する。
論文 参考訳(メタデータ) (2022-05-27T00:34:03Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Second-Order Information in Non-Convex Stochastic Optimization: Power
and Limitations [54.42518331209581]
私たちは発見するアルゴリズムを見つけます。
epsilon$-approximate stationary point ($|nabla F(x)|le epsilon$) using
$(epsilon,gamma)$surimateランダムランダムポイント。
ここでの私たちの下限は、ノイズのないケースでも新規です。
論文 参考訳(メタデータ) (2020-06-24T04:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。