論文の概要: Gradient Descent Algorithm in Hilbert Spaces under Stationary Markov Chains with $φ$- and $β$-Mixing
- arxiv url: http://arxiv.org/abs/2502.03551v2
- Date: Tue, 01 Jul 2025 13:41:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 15:54:40.014437
- Title: Gradient Descent Algorithm in Hilbert Spaces under Stationary Markov Chains with $φ$- and $β$-Mixing
- Title(参考訳): φ$-および$β$-ミキシングによる定常マルコフ鎖下のヒルベルト空間の勾配Descentアルゴリズム
- Authors: Priyanka Roy, Susanne Saminger-Platz,
- Abstract要約: 本稿では,Hilbert空間で動作する厳密な定常マルコフ連鎖降下アルゴリズムについて検討する。
本分析では,基礎となるプロセスの混合係数,特に$phi$-および$$$beta-mixing係数に着目した。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study a strictly stationary Markov chain gradient descent algorithm operating in general Hilbert spaces. Our analysis focuses on the mixing coefficients of the underlying process, specifically the $\phi$- and $\beta$-mixing coefficients. Under these assumptions, we derive probabilistic upper bounds on the convergence behavior of the algorithm based on the exponential as well as the polynomial decay of the mixing coefficients.
- Abstract(参考訳): 本稿では,Hilbert空間内で動作する厳密な定常マルコフ連鎖勾配勾配アルゴリズムについて検討する。
我々の分析は、基礎となるプロセスの混合係数、特に$\phi$-および$\beta$-mixing係数に焦点を当てている。
これらの仮定の下では、指数関数および混合係数の多項式減衰に基づくアルゴリズムの収束挙動に関する確率的上限を導出する。
関連論文リスト
- Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - Uncertainty quantification for Markov chains with application to temporal difference learning [63.49764856675643]
マルコフ連鎖のベクトル値および行列値関数に対する新しい高次元濃度不等式とベリー・エッシー境界を開発する。
我々は、強化学習における政策評価に広く用いられているTD学習アルゴリズムを解析する。
論文 参考訳(メタデータ) (2025-02-19T15:33:55Z) - Covariance estimation using Markov chain Monte Carlo [2.209921757303168]
我々は、$pi$がポアンカーの不等式を満足し、その鎖がスペクトルギャップを持つ場合、MCMCを用いて同様のサンプル複雑性を達成できることを示した。
凸体を均一にサンプリングするための等方的丸め手順に関する保証を提供する。
論文 参考訳(メタデータ) (2024-10-22T16:27:29Z) - Logistic-beta processes for dependent random probabilities with beta marginals [58.91121576998588]
本稿では,ロジスティック・ベータプロセスと呼ばれる新しいプロセスを提案する。
空間や時間などの離散領域と連続領域の両方への依存をモデル化でき、相関カーネルを通じて柔軟な依存構造を持つ。
本研究は,非パラメトリック二分回帰と条件密度推定の例による効果をシミュレーション研究と妊娠結果応用の両方で説明する。
論文 参考訳(メタデータ) (2024-02-10T21:41:32Z) - Ito Diffusion Approximation of Universal Ito Chains for Sampling, Optimization and Boosting [64.0722630873758]
我々は、ある微分方程式のオイラー・マルヤマ離散化のように見える、より一般で幅広いマルコフ連鎖、伊藤鎖を考える。
伊藤鎖の法則と微分方程式の間の$W_2$-距離の有界性を証明する。
論文 参考訳(メタデータ) (2023-10-09T18:38:56Z) - Rosenthal-type inequalities for linear statistics of Markov chains [20.606986885851573]
幾何学的エルゴード的マルコフ鎖の加法関数に対する新しい偏差境界を確立する。
我々は、対応する鎖の混合時間に対する境界の依存に特に注意を払う。
論文 参考訳(メタデータ) (2023-03-10T10:24:46Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Deterministic Gibbs Sampling via Ordinary Differential Equations [77.42706423573573]
本稿では,自律的ODEとツールを用いた決定論的測度保存ダイナミクスの一般構築について述べる。
我々は、ハイブリッドモンテカルロや他の決定論的サンプルが、我々の理論の特別な場合としてどのように従うかを示す。
論文 参考訳(メタデータ) (2021-06-18T15:36:09Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Kernel Autocovariance Operators of Stationary Processes: Estimation and
Convergence [0.5505634045241288]
我々は、ヒルベルト空間を再現するカーネルに埋め込まれたポーランド空間上の定常過程の自己共分散作用素を考える。
これらの演算子の経験的推定が、様々な条件下でのプロセスの実現に沿ってどのように収束するかを考察する。
我々は、依存データを持つカーネルPCAの一貫性と遷移確率の条件平均埋め込みの観点から、我々の理論の応用について述べる。
論文 参考訳(メタデータ) (2020-04-02T09:17:32Z) - Convergence of Recursive Stochastic Algorithms using Wasserstein
Divergence [4.688616907736838]
本研究では, 定常段差RSAの集団の収束が, この枠組みを用いて理解可能であることを示す。
本研究では, 定常段差RSAの集団の収束が, この枠組みを用いて理解可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T13:45:16Z) - Distributed Learning with Dependent Samples [17.075804626858748]
我々は、分散カーネルリッジ回帰のための最適な学習率を、強い混合配列に対して導出する。
本研究は, 分散学習の応用範囲を, サンプルから非I.d.シーケンスまで拡張した。
論文 参考訳(メタデータ) (2020-02-10T14:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。