論文の概要: Online Learning Algorithms in Hilbert Spaces with $β-$ and $φ-$Mixing Sequences
- arxiv url: http://arxiv.org/abs/2502.03551v1
- Date: Wed, 05 Feb 2025 19:09:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.497362
- Title: Online Learning Algorithms in Hilbert Spaces with $β-$ and $φ-$Mixing Sequences
- Title(参考訳): $β-$および$φ-$Mixing系列を持つヒルベルト空間におけるオンライン学習アルゴリズム
- Authors: Priyanka Roy, Susanne Saminger-Platz,
- Abstract要約: 我々は、ミキシングプロセスと呼ばれる依存プロセスのクラスに基づいて、再生カーネルヒルベルト空間におけるオンラインアルゴリズムについて研究する。
本研究では, (β-) と (phi-) の混合係数によって依存構造が特徴づけられる厳密な定常マルコフ連鎖を解析する。
我々の発見は、i.i.d.観測の既存のエラー境界を拡張し、i.i.d.ケースが我々のフレームワークの特別な例であることを実証した。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study an online algorithm in a reproducing kernel Hilbert spaces (RKHS) based on a class of dependent processes, called the mixing process. For such a process, the degree of dependence is measured by various mixing coefficients. As a representative example, we analyze a strictly stationary Markov chain, where the dependence structure is characterized by the \(\beta-\) and \(\phi-\)mixing coefficients. For these dependent samples, we derive nearly optimal convergence rates. Our findings extend existing error bounds for i.i.d. observations, demonstrating that the i.i.d. case is a special instance of our framework. Moreover, we explicitly account for an additional factor introduced by the dependence structure in the Markov chain.
- Abstract(参考訳): 本稿では, 混合プロセスと呼ばれる依存プロセスのクラスに基づいて, 再生カーネルヒルベルト空間(RKHS)におけるオンラインアルゴリズムについて検討する。
このようなプロセスでは、依存度は様々な混合係数によって測定される。
代表的な例として、厳密な定常マルコフ連鎖を解析し、従属構造は \(\beta-\) と \(\phi-\) の混合係数によって特徴づけられる。
これらの依存的なサンプルに対しては、ほぼ最適な収束率を導出する。
我々の発見は、i.i.d.観測の既存のエラー境界を拡張し、i.i.d.ケースが我々のフレームワークの特別な例であることを実証した。
さらに、マルコフ連鎖の依存構造によってもたらされる追加因子を明示的に説明する。
関連論文リスト
- Online Regularized Learning Algorithms in RKHS with $β$- and $φ$-Mixing Sequences [1.1510009152620668]
再現Hilbertカーネル空間(RKHS)におけるオンライン正規化学習アルゴリズムについて検討する。
我々は、(phi)-および(beta)-混合係数によって依存構造が特徴づけられる厳密な定常マルコフ連鎖を解析する。
論文 参考訳(メタデータ) (2025-07-08T12:25:04Z) - Statistical inference for Linear Stochastic Approximation with Markovian Noise [16.136756322711545]
マルコフ雑音によって駆動される線形近似(LSA)アルゴリズムの平均反復量に対して,非漸近Berry-Esseen境界を導出する。
我々の研究は、マルコフ雑音による近似に対するブートストラップに基づく信頼区間の収束率に関する最初の漸近的保証を提供する。
論文 参考訳(メタデータ) (2025-05-25T11:43:28Z) - Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - Uncertainty quantification for Markov chains with application to temporal difference learning [63.49764856675643]
マルコフ連鎖のベクトル値および行列値関数に対する新しい高次元濃度不等式とベリー・エッシー境界を開発する。
我々は、強化学習における政策評価に広く用いられているTD学習アルゴリズムを解析する。
論文 参考訳(メタデータ) (2025-02-19T15:33:55Z) - Covariance estimation using Markov chain Monte Carlo [2.209921757303168]
我々は、$pi$がポアンカーの不等式を満足し、その鎖がスペクトルギャップを持つ場合、MCMCを用いて同様のサンプル複雑性を達成できることを示した。
凸体を均一にサンプリングするための等方的丸め手順に関する保証を提供する。
論文 参考訳(メタデータ) (2024-10-22T16:27:29Z) - Fast Convergence of $Φ$-Divergence Along the Unadjusted Langevin Algorithm and Proximal Sampler [14.34147140416535]
連続空間における2つの一般的な離散時間マルコフ連鎖の混合時間について検討する。
二つの微分可能な厳密凸函数から生じる任意の$Phi$-divergenceが、これらのマルコフ連鎖に沿って指数的に0$に収束することを示す。
論文 参考訳(メタデータ) (2024-10-14T16:41:45Z) - Upper Bounds for Learning in Reproducing Kernel Hilbert Spaces for Non IID Samples [1.1510009152620668]
一般ヒルベルト空間におけるマルコフ連鎖に基づく勾配アルゴリズムについて検討し、二次損失関数の最適解を近似することを目的とした。
我々はこれらの結果を、カーネルヒルベルト空間を再現するオンライン正規化学習アルゴリズムに拡張する。
論文 参考訳(メタデータ) (2024-10-10T20:34:22Z) - Logistic-beta processes for dependent random probabilities with beta marginals [58.91121576998588]
本稿では,ロジスティック・ベータプロセスと呼ばれる新しいプロセスを提案する。
空間や時間などの離散領域と連続領域の両方への依存をモデル化でき、相関カーネルを通じて柔軟な依存構造を持つ。
本研究は,非パラメトリック二分回帰と条件密度推定の例による効果をシミュレーション研究と妊娠結果応用の両方で説明する。
論文 参考訳(メタデータ) (2024-02-10T21:41:32Z) - Ito Diffusion Approximation of Universal Ito Chains for Sampling, Optimization and Boosting [64.0722630873758]
我々は、ある微分方程式のオイラー・マルヤマ離散化のように見える、より一般で幅広いマルコフ連鎖、伊藤鎖を考える。
伊藤鎖の法則と微分方程式の間の$W_2$-距離の有界性を証明する。
論文 参考訳(メタデータ) (2023-10-09T18:38:56Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - Non-asymptotic convergence bounds for Sinkhorn iterates and their
gradients: a coupling approach [10.568851068989972]
本稿では,アルゴリズムの効率的な解法を実現するために,元のOT問題であるエントロピックOT問題の緩和に焦点をあてる。
この定式化はSchr"odinger Bridge問題としても知られ、特に最適制御(SOC)と結びつき、人気のあるシンクホーンアルゴリズムで解くことができる。
論文 参考訳(メタデータ) (2023-04-13T13:58:25Z) - Rosenthal-type inequalities for linear statistics of Markov chains [20.606986885851573]
幾何学的エルゴード的マルコフ鎖の加法関数に対する新しい偏差境界を確立する。
我々は、対応する鎖の混合時間に対する境界の依存に特に注意を払う。
論文 参考訳(メタデータ) (2023-03-10T10:24:46Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Deterministic Gibbs Sampling via Ordinary Differential Equations [77.42706423573573]
本稿では,自律的ODEとツールを用いた決定論的測度保存ダイナミクスの一般構築について述べる。
我々は、ハイブリッドモンテカルロや他の決定論的サンプルが、我々の理論の特別な場合としてどのように従うかを示す。
論文 参考訳(メタデータ) (2021-06-18T15:36:09Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and
Non-Asymptotic Concentration [115.1954841020189]
The inequality and non-asymptotic properties of approximation procedure with Polyak-Ruppert averaging。
一定のステップサイズと無限大となる反復数を持つ平均的反復数に対する中心極限定理(CLT)を証明する。
論文 参考訳(メタデータ) (2020-04-09T17:54:18Z) - Kernel Autocovariance Operators of Stationary Processes: Estimation and
Convergence [0.5505634045241288]
我々は、ヒルベルト空間を再現するカーネルに埋め込まれたポーランド空間上の定常過程の自己共分散作用素を考える。
これらの演算子の経験的推定が、様々な条件下でのプロセスの実現に沿ってどのように収束するかを考察する。
我々は、依存データを持つカーネルPCAの一貫性と遷移確率の条件平均埋め込みの観点から、我々の理論の応用について述べる。
論文 参考訳(メタデータ) (2020-04-02T09:17:32Z) - Convergence of Recursive Stochastic Algorithms using Wasserstein
Divergence [4.688616907736838]
本研究では, 定常段差RSAの集団の収束が, この枠組みを用いて理解可能であることを示す。
本研究では, 定常段差RSAの集団の収束が, この枠組みを用いて理解可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T13:45:16Z) - Distributed Learning with Dependent Samples [17.075804626858748]
我々は、分散カーネルリッジ回帰のための最適な学習率を、強い混合配列に対して導出する。
本研究は, 分散学習の応用範囲を, サンプルから非I.d.シーケンスまで拡張した。
論文 参考訳(メタデータ) (2020-02-10T14:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。