論文の概要: Online Regularized Learning Algorithm for Functional Data
- arxiv url: http://arxiv.org/abs/2211.13549v1
- Date: Thu, 24 Nov 2022 11:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:06:14.140925
- Title: Online Regularized Learning Algorithm for Functional Data
- Title(参考訳): 関数型データのオンライン正規化学習アルゴリズム
- Authors: Yuan Mao and Zheng-Chu Guo
- Abstract要約: 本稿では,Hilbertカーネル空間におけるオンライン正規化学習アルゴリズムについて考察する。
その結果, 定常的なステップサイズでの予測誤差と推定誤差の収束速度は, 文献と競合することがわかった。
- 参考スコア(独自算出の注目度): 2.5382095320488673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, functional linear models have attracted growing attention in
statistics and machine learning, with the aim of recovering the slope function
or its functional predictor. This paper considers online regularized learning
algorithm for functional linear models in reproducing kernel Hilbert spaces.
Convergence analysis of excess prediction error and estimation error are
provided with polynomially decaying step-size and constant step-size,
respectively. Fast convergence rates can be derived via a capacity dependent
analysis. By introducing an explicit regularization term, we uplift the
saturation boundary of unregularized online learning algorithms when the
step-size decays polynomially, and establish fast convergence rates of
estimation error without capacity assumption. However, it remains an open
problem to obtain capacity independent convergence rates for the estimation
error of the unregularized online learning algorithm with decaying step-size.
It also shows that convergence rates of both prediction error and estimation
error with constant step-size are competitive with those in the literature.
- Abstract(参考訳): 近年,傾斜関数や関数予測器の復元を目的として,関数線形モデルが統計学や機械学習において注目を集めている。
本稿では,カーネルヒルベルト空間を再現する関数線形モデルに対するオンライン正規化学習アルゴリズムについて検討する。
過大予測誤差の収束解析と推定誤差はそれぞれ多項式減衰ステップサイズと定数ステップサイズとを備える。
高速収束速度はキャパシティ依存解析によって導き出すことができる。
明示的な正規化項を導入することにより、ステップサイズが多項式的に減衰する際の非正規化オンライン学習アルゴリズムの飽和境界を引き上げ、キャパシティ仮定なしで推定誤差の高速収束率を確立する。
しかし,非正規化オンライン学習アルゴリズムの分解ステップサイズ推定誤差に対するキャパシティ独立収束率を得ることは未解決問題である。
また, 定常的なステップサイズでの予測誤差と推定誤差の収束速度は, 文献のそれと競合することを示した。
関連論文リスト
- Multivariate Probabilistic Time Series Forecasting with Correlated Errors [17.212396544233307]
本稿では,自動回帰モデルのための複数ステップでエラーの共分散構造を学習するプラグイン・アンド・プレイ手法を提案する。
RNNとTransformerアーキテクチャ上に構築された確率モデルについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-02-01T20:27:19Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Reinforcement Learning with Function Approximation: From Linear to
Nonlinear [4.314956204483073]
本稿では,線形あるいは非線形近似設定における強化学習アルゴリズムの誤差解析に関する最近の結果についてレビューする。
近似誤差に関する諸特性について考察し、遷移確率と報酬関数に関する具体的条件について述べる。
論文 参考訳(メタデータ) (2023-02-20T00:31:18Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Learning Asynchronous and Error-prone Longitudinal Data via Functional
Calibration [4.446626375802735]
本稿では,測定誤差を伴う関数データに基づいて,経時的共変過程を効率的に学習する機能キャリブレーション手法を提案する。
時間不変係数を用いた回帰では、推定器はルート-n一貫性を持ち、ルート-n正規であり、時間可変係数モデルでは、推定器は最適な変動係数モデル収束率を有する。
提案手法の有効性とユーザビリティをシミュレーションにより検証し,全国女性健康研究への応用について検討した。
論文 参考訳(メタデータ) (2022-09-28T03:27:31Z) - Capacity dependent analysis for functional online learning algorithms [8.748563565641279]
本稿では,関数線形モデルに対するオンライン勾配降下アルゴリズムの収束解析について述べる。
キャパシティ仮定は、対象関数の正則性が増加するにつれて収束率の飽和を緩和できることを示す。
論文 参考訳(メタデータ) (2022-09-25T11:21:18Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Error Bounds of the Invariant Statistics in Machine Learning of Ergodic
It\^o Diffusions [8.627408356707525]
エルゴード的伊藤拡散の機械学習の理論的基盤について検討する。
ドリフト係数と拡散係数の学習における誤差に対する1点および2点不変統計量の誤差の線形依存性を導出する。
論文 参考訳(メタデータ) (2021-05-21T02:55:59Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。