論文の概要: Upper Bounds for Learning in Reproducing Kernel Hilbert Spaces for Non IID Samples
- arxiv url: http://arxiv.org/abs/2410.08361v2
- Date: Thu, 02 Jan 2025 15:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 17:39:02.595562
- Title: Upper Bounds for Learning in Reproducing Kernel Hilbert Spaces for Non IID Samples
- Title(参考訳): 非IIDサンプルのためのカーネルヒルベルト空間の再現学習のための上界
- Authors: Priyanka Roy, Susanne Saminger-Platz,
- Abstract要約: 一般ヒルベルト空間におけるマルコフ連鎖に基づく勾配アルゴリズムについて検討し、二次損失関数の最適解を近似することを目的とした。
我々はこれらの結果を、カーネルヒルベルト空間を再現するオンライン正規化学習アルゴリズムに拡張する。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License:
- Abstract: In this paper, we study a Markov chain-based stochastic gradient algorithm in general Hilbert spaces, aiming to approximate the optimal solution of a quadratic loss function. We establish probabilistic upper bounds on its convergence. We further extend these results to an online regularized learning algorithm in reproducing kernel Hilbert spaces, where the samples are drawn along a Markov chain trajectory hence the samples are of the non i.i.d. type.
- Abstract(参考訳): 本論文では,一般ヒルベルト空間におけるマルコフ連鎖に基づく確率勾配アルゴリズムについて検討し,2次損失関数の最適解を近似することを目的とした。
我々はその収束の確率的上限を確立する。
さらに、これらの結果をカーネルヒルベルト空間の再現におけるオンライン正規化学習アルゴリズムに拡張し、サンプルはマルコフ連鎖軌道に沿って描画されるので、サンプルは非i.i.d.型である。
関連論文リスト
- Mirror Descent on Reproducing Kernel Banach Spaces [12.716091600034543]
本稿では,再生カーネルを用いたバナッハ空間の学習問題に対処する。
再生カーネルを用いてバナッハ空間の双対空間における勾配ステップを利用するアルゴリズムを提案する。
実際にこのアルゴリズムをインスタンス化するために、$p$-normのRKBSの新しいファミリーを導入する。
論文 参考訳(メタデータ) (2024-11-18T02:18:32Z) - Semi-Supervised Laplace Learning on Stiefel Manifolds [48.3427853588646]
グラフベースで教師付きサンプルを低ラベルレートで作成するためのフレームワークSequential Subspaceを開発した。
我々の手法は極めて低いレートで、高いラベルレートで達成できる。
論文 参考訳(メタデータ) (2023-07-31T20:19:36Z) - Decentralized Online Learning for Random Inverse Problems Over Graphs [6.423798607256407]
ヒルベルト空間におけるアルゴリズムの安定性の収束性は、$_$-bounded martingale difference 項で表される。
ネットワークグラフが連結され、フォワード演算子の列が励起条件の無限次元時間持続性を満たすなら、全てのノードの推定は平均平方である。
非定常オンラインデータに基づく分散オンライン学習アルゴリズムをRKHSで提案する。
論文 参考訳(メタデータ) (2023-03-20T08:37:08Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Polynomial convergence of iterations of certain random operators in
Hilbert space [2.732936573198251]
本稿では,SGDアルゴリズムにインスパイアされた無限次元空間上の演算子の族におけるランダム反復列の収束について検討する。
収束率は初期状態に依存するが、ランダム性は最適定数係数の選択においてのみ役割を果たすことを示す。
論文 参考訳(メタデータ) (2022-02-04T17:48:29Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Early stopping and polynomial smoothing in regression with reproducing kernels [2.0411082897313984]
再生カーネルヒルベルト空間(RKHS)における反復学習アルゴリズムの早期停止問題について検討する。
本稿では,いわゆる最小不一致原理に基づく検証セットを使わずに早期停止を行うデータ駆動型ルールを提案する。
提案したルールは、異なるタイプのカーネル空間に対して、ミニマックス最適であることが証明されている。
論文 参考訳(メタデータ) (2020-07-14T05:27:18Z) - Stochastic Gradient Descent in Hilbert Scales: Smoothness,
Preconditioning and Earlier Stopping [0.0]
我々は、カーネルヒルベルト空間(RKHS)の再現における最小二乗学習を検討し、古典的なSGD解析をヒルベルトスケールの学習環境にまで拡張する。
十分に特定されたモデルであっても、従来のベンチマークスムーズ性仮定の違反は学習率に大きな影響を及ぼすことを示す。
さらに、ミス特定モデルに対しては、適切なヒルベルトスケールでのプレコンディショニングが反復回数を減らすのに役立つことを示す。
論文 参考訳(メタデータ) (2020-06-18T20:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。