論文の概要: Asymptotic consistency of the WSINDy algorithm in the limit of continuum
data
- arxiv url: http://arxiv.org/abs/2211.16000v1
- Date: Tue, 29 Nov 2022 07:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:55:50.199135
- Title: Asymptotic consistency of the WSINDy algorithm in the limit of continuum
data
- Title(参考訳): 連続データの限界におけるwsindyアルゴリズムの漸近的一貫性
- Authors: Daniel A. Messenger and David M. Bortz
- Abstract要約: 非線形力学アルゴリズム(WSINDy)の弱形式スパース同定の整合性について検討する。
弱形式方程式学習の雑音に対する観測されたロバスト性について数学的に厳密な説明を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we study the asymptotic consistency of the weak-form sparse
identification of nonlinear dynamics algorithm (WSINDy) in the identification
of differential equations from noisy samples of solutions. We prove that the
WSINDy estimator is unconditionally asymptotically consistent for a wide class
of models which includes the Navier-Stokes equations and the
Kuramoto-Sivashinsky equation. We thus provide a mathematically rigorous
explanation for the observed robustness to noise of weak-form equation
learning. Conversely, we also show that in general the WSINDy estimator is only
conditionally asymptotically consistent, yielding discovery of spurious terms
with probability one if the noise level is above some critical threshold and
the nonlinearities exhibit sufficiently fast growth. We derive explicit bounds
on the critical noise threshold in the case of Gaussian white noise and provide
an explicit characterization of these spurious terms in the case of
trigonometric and/or polynomial model nonlinearities. However, a silver lining
to this negative result is that if the data is suitably denoised (a simple
moving average filter is sufficient), then we recover unconditional asymptotic
consistency on the class of models with locally-Lipschitz nonlinearities.
Altogether, our results reveal several important aspects of weak-form equation
learning which may be used to improve future algorithms. We demonstrate our
results numerically using the Lorenz system, the cubic oscillator, a viscous
Burgers growth model, and a Kuramoto-Sivashinsky-type higher-order PDE.
- Abstract(参考訳): 本研究では, 非線形力学アルゴリズム (WSINDy) の弱形スパース同定の漸近一貫性について, 解の雑音サンプルからの微分方程式の同定について検討する。
ウォシンディ推定器は、ナヴィエ・ストークス方程式や蔵本・シヴァシンスキー方程式を含む幅広い種類のモデルに対して無条件に漸近的に一致することが証明される。
したがって,弱形式方程式学習の雑音に対する観測ロバスト性について数学的に厳密な説明を与える。
逆に、wsindy推定器は条件的に漸近的に一貫性があり、ノイズレベルが臨界しきい値を超え、非線形性が十分に速い成長を示す場合、確率 1 のスプリアス項の発見をもたらす。
ガウスホワイトノイズの場合の臨界雑音閾値の明示的境界を導出し、三角法および多項式モデル非線形性の場合のこれらのスプリアス項の明示的特徴を与える。
しかし、この負の結果を裏打ちする銀は、データが適切に分解された場合(単純な移動平均フィルタで十分)、局所リプシッツ非線形性を持つモデルの無条件漸近一貫性を回復するということである。
以上の結果から,将来のアルゴリズム改善に有効な弱形式方程式学習の重要な側面が明らかになった。
本稿では,ロレンツ系,立方振動子,粘性バーガース成長モデル,倉本-シヴァシンスキー型高次PDEを用いて数値実験を行った。
関連論文リスト
- Non-asymptotic convergence analysis of the stochastic gradient
Hamiltonian Monte Carlo algorithm with discontinuous stochastic gradient with
applications to training of ReLU neural networks [8.058385158111207]
我々は、勾配ハミルトニアンモンテカルロのWasserstein-1 と Wasserstein-2 距離の目標測度への収束の非漸近解析を提供する。
本研究の主な成果を説明するために、定量推定に関する数値実験と、金融と人工知能に関連するReLUニューラルネットワークに関わるいくつかの問題について考察する。
論文 参考訳(メタデータ) (2024-09-25T17:21:09Z) - Fundamental limits of Non-Linear Low-Rank Matrix Estimation [18.455890316339595]
ベイズ最適性能は、有効前のガウスモデルによって特徴づけられる。
信号を正確に再構成するためには、Nfrac 12 (1-1/k_F)$として増加する信号対雑音比が必要であり、$k_F$は関数の最初のゼロでないフィッシャー情報係数である。
論文 参考訳(メタデータ) (2024-03-07T05:26:52Z) - Max-affine regression via first-order methods [7.12511675782289]
最大アフィンモデルは信号処理と統計学の応用においてユビキタスに現れる。
最大アフィン回帰に対する勾配降下(GD)とミニバッチ勾配降下(SGD)の非漸近収束解析を行った。
論文 参考訳(メタデータ) (2023-08-15T23:46:44Z) - Bayesian Spline Learning for Equation Discovery of Nonlinear Dynamics
with Quantified Uncertainty [8.815974147041048]
本研究では,非線形(時空間)力学の擬似的支配方程式を,定量化された不確実性を伴うスパースノイズデータから同定する枠組みを開発した。
提案アルゴリズムは、正準常微分方程式と偏微分方程式によって制御される複数の非線形力学系に対して評価される。
論文 参考訳(メタデータ) (2022-10-14T20:37:36Z) - Identifiability and Asymptotics in Learning Homogeneous Linear ODE Systems from Discrete Observations [114.17826109037048]
通常の微分方程式(ODE)は、機械学習において最近多くの注目を集めている。
理論的な側面、例えば、統計的推定の識別可能性と特性は、いまだに不明である。
本稿では,1つの軌道からサンプリングされた等間隔の誤差のない観測結果から,同次線形ODE系の同定可能性について十分な条件を導出する。
論文 参考訳(メタデータ) (2022-10-12T06:46:38Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Non-asymptotic estimates for TUSLA algorithm for non-convex learning
with applications to neural networks with ReLU activation function [3.5044892799305956]
Lovas et alで導入された未調整Langevinアルゴリズム(TUSLA)の非漸近解析を行う。
特に、Wassersteinstein-1-2におけるTUSLAアルゴリズムの非漸近誤差境界を確立する。
TUSLAアルゴリズムは最適解に急速に収束することを示す。
論文 参考訳(メタデータ) (2021-07-19T07:13:02Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。