論文の概要: Single Trajectory Nonparametric Learning of Nonlinear Dynamics
- arxiv url: http://arxiv.org/abs/2202.08311v1
- Date: Wed, 16 Feb 2022 19:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 06:36:55.757214
- Title: Single Trajectory Nonparametric Learning of Nonlinear Dynamics
- Title(参考訳): 非線形ダイナミクスの単一軌道非パラメトリック学習
- Authors: Ingvar Ziemann, Henrik Sandberg, Nikolai Matni
- Abstract要約: 力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
我々は最近開発された情報理論手法を活用し、非仮説クラスに対するLSEの最適性を確立する。
我々は、リプシッツ力学、一般化線形モデル、再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心のあるいくつかのシナリオを専門とする。
- 参考スコア(独自算出の注目度): 8.438421942654292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a single trajectory of a dynamical system, we analyze the performance
of the nonparametric least squares estimator (LSE). More precisely, we give
nonasymptotic expected $l^2$-distance bounds between the LSE and the true
regression function, where expectation is evaluated on a fresh, counterfactual,
trajectory. We leverage recently developed information-theoretic methods to
establish the optimality of the LSE for nonparametric hypotheses classes in
terms of supremum norm metric entropy and a subgaussian parameter. Next, we
relate this subgaussian parameter to the stability of the underlying process
using notions from dynamical systems theory. When combined, these developments
lead to rate-optimal error bounds that scale as $T^{-1/(2+q)}$ for suitably
stable processes and hypothesis classes with metric entropy growth of order
$\delta^{-q}$. Here, $T$ is the length of the observed trajectory, $\delta \in
\mathbb{R}_+$ is the packing granularity and $q\in (0,2)$ is a complexity term.
Finally, we specialize our results to a number of scenarios of practical
interest, such as Lipschitz dynamics, generalized linear models, and dynamics
described by functions in certain classes of Reproducing Kernel Hilbert Spaces
(RKHS).
- Abstract(参考訳): 力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
より正確には、lse と真の回帰関数の間の非漸近的期待値 $l^2$- distance 界を与える。
我々は最近開発された情報理論手法を利用して、超準ノルム計量エントロピーと準ガウスパラメータを用いて、非パラメトリック仮説クラスに対するLSEの最適性を確立する。
次に、この準ガウスパラメータを力学系理論の概念を用いて基礎プロセスの安定性に関連付ける。
これらの発展が組み合わされると、次数$\delta^{-q}$の計量エントロピー成長を持つ安定なプロセスと仮説クラスに対して、$T^{-1/(2+q)}$としてスケールするレート最適誤差境界が導かれる。
ここで、$T$ は観測軌跡の長さ、$\delta \in \mathbb{R}_+$ はパッケージ粒度、$q\in (0,2)$ は複雑性項である。
最後に、我々は、リプシッツ力学、一般化線形モデル、および再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心事のシナリオを専門とする。
関連論文リスト
- Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - KL-Entropy-Regularized RL with a Generative Model is Minimax Optimal [70.15267479220691]
モデル強化学習のサンプル複雑性を,生成的分散自由モデルを用いて検討・解析する。
我々の分析は、$varepsilon$が十分小さい場合、$varepsilon$-optimal Policyを見つけるのが、ほぼ最小の最適化であることを示している。
論文 参考訳(メタデータ) (2022-05-27T19:39:24Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Optimal and instance-dependent guarantees for Markovian linear
stochastic approximation [77.84027086542827]
標準スキームの最後の繰り返しの2乗誤差に対して、$t_mathrmmix tfracdn$の非漸近境界を示す。
マルコフ雑音による政策評価について,これらの結果のまとめを導出する。
論文 参考訳(メタデータ) (2021-12-23T18:47:50Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Adaptive Online Estimation of Piecewise Polynomial Trends [23.91519151164528]
我々は,2乗誤差損失と雑音勾配フィードバックを伴う非定常最適化の枠組みを考察する。
非パラメトリック回帰理論から動機づけられた新しい変分制約を導入する。
我々は、同じ方針が、他のいくつかの非パラメトリックな関心の族に最適であることを示す。
論文 参考訳(メタデータ) (2020-09-30T19:30:28Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。