論文の概要: A quantitative Robbins-Siegmund theorem
- arxiv url: http://arxiv.org/abs/2410.15986v1
- Date: Mon, 21 Oct 2024 13:16:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:15:37.815744
- Title: A quantitative Robbins-Siegmund theorem
- Title(参考訳): 量的ロビンス・ジークムントの定理
- Authors: Morenikeji Neri, Thomas Powell,
- Abstract要約: 我々は、Robins-Siegmund の定理の定量的バージョンを提供し、Tao の意味での転移性の領域を見つけるために、どこまで遠くを見る必要があるかという境界を定めている。
我々の証明は、Doobの定理のメタスタブルな類似で$L_$-supermartingalesと、プロセスの和や積を通じて量的情報がどのように伝播するかを正確に示す一連の技術的補題を含んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Robbins-Siegmund theorem is one of the most important results in stochastic optimization, where it is widely used to prove the convergence of stochastic algorithms. We provide a quantitative version of the theorem, establishing a bound on how far one needs to look in order to locate a region of metastability in the sense of Tao. Our proof involves a metastable analogue of Doob's theorem for $L_1$-supermartingales along with a series of technical lemmas that make precise how quantitative information propagates through sums and products of stochastic processes. In this way, our paper establishes a general methodology for finding metastable bounds for stochastic processes that can be reduced to supermartingales, and therefore for obtaining quantitative convergence information across a broad class of stochastic algorithms whose convergence proof relies on some variation of the Robbins-Siegmund theorem. We conclude by discussing how our general quantitative result might be used in practice.
- Abstract(参考訳): ロビンス=ジークムントの定理は確率最適化における最も重要な結果の1つであり、確率アルゴリズムの収束を証明するために広く用いられている。
我々はこの定理の定量的版を提供し、Tao の意味での転移性のある領域を見つけるためにどこまで遠くを見る必要があるかという境界を定めている。
我々の証明は、Doobの定理のメタスタブルな類似で$L_1$-supermartingalesと、確率過程の和や積を通じて定量的情報がいかに伝播するかを正確に示す一連の技術的補題を含んでいる。
このようにして、超行列に還元できる確率過程の準安定境界を見つけるための一般的な方法論を確立し、従って、収束証明がロビンズ=ジークムントの定理の変分に依存するような、幅広い確率アルゴリズムのクラスにわたる定量的収束情報を得るための方法を確立する。
我々は、我々の一般的な定量的結果が実際にどのように使われるかについて議論することで結論付けた。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - The Dynamics of Riemannian Robbins-Monro Algorithms [101.29301565229265]
本稿では,Robins と Monro のセミナル近似フレームワークを一般化し拡張するリーマンアルゴリズムの族を提案する。
ユークリッドのそれと比較すると、リーマンのアルゴリズムは多様体上の大域線型構造が欠如しているため、はるかに理解されていない。
ユークリッド・ロビンス=モンロスキームの既存の理論を反映し拡張するほぼ確実な収束結果の一般的なテンプレートを提供する。
論文 参考訳(メタデータ) (2022-06-14T12:30:11Z) - A Unified Convergence Theorem for Stochastic Optimization Methods [4.94128206910124]
一連の統一最適化手法に対する収束結果の導出に使用される基本的な統一収束定理を提供する。
直接応用として、一般的な設定下での収束結果をほぼ確実に回復する。
論文 参考訳(メタデータ) (2022-06-08T14:01:42Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Formalization of a Stochastic Approximation Theorem [0.22940141855172028]
近似アルゴリズムは、ターゲットが不明な環境でターゲット値を近似するために使用される反復的な手順である。
もともとは1951年にRobinsとMonroによって発表された論文で、近似の分野は飛躍的に成長し、応用領域に影響を与えている。
論文 参考訳(メタデータ) (2022-02-12T02:31:14Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z) - On the Convergence of Reinforcement Learning with Monte Carlo Exploring
Starts [5.137144629366217]
基本的なシミュレーションに基づく強化学習アルゴリズムはモンテカルロ探索州 (MCES) 法である。
最短経路問題としても知られる未計算コストの場合のこのアルゴリズムの収束性について検討する。
副作用として、近似によく用いられるスーパーマリンゲール収束定理のバージョンの証明も提供する。
論文 参考訳(メタデータ) (2020-07-21T16:19:09Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z) - Probabilistic Contraction Analysis of Iterated Random Operators [10.442391859219807]
バナッハ縮約写像定理は、ある決定論的アルゴリズムの収束を確立するために用いられる。
ランダム化アルゴリズムのクラスでは、各反復において、縮約写像は、ある確率変数の独立分布と同一分布のサンプルを使用する演算子と近似される。
これにより、完備距離空間において初期点に作用する反復ランダム作用素が導かれ、マルコフ連鎖が生成される。
論文 参考訳(メタデータ) (2018-04-04T00:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。