論文の概要: Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory
- arxiv url: http://arxiv.org/abs/2103.07045v1
- Date: Fri, 12 Mar 2021 02:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 22:47:04.234890
- Title: Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory
- Title(参考訳): 単一雑音軌道からの$\ell_1$-regularized PDE同定の漸近理論
- Authors: Yuchen He, Namjoon Suh, Xiaoming Huo, Sungha Kang, Yajun Mei
- Abstract要約: 線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
- 参考スコア(独自算出の注目度): 2.0299248281970956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove the support recovery for a general class of linear and nonlinear
evolutionary partial differential equation (PDE) identification from a single
noisy trajectory using $\ell_1$ regularized Pseudo-Least Squares
model~($\ell_1$-PsLS). In any associative $\mathbb{R}$-algebra generated by
finitely many differentiation operators that contain the unknown PDE operator,
applying $\ell_1$-PsLS to a given data set yields a family of candidate models
with coefficients $\mathbf{c}(\lambda)$ parameterized by the regularization
weight $\lambda\geq 0$. The trace of $\{\mathbf{c}(\lambda)\}_{\lambda\geq 0}$
suffers from high variance due to data noises and finite difference
approximation errors. We provide a set of sufficient conditions which guarantee
that, from a single trajectory data denoised by a Local-Polynomial filter, the
support of $\mathbf{c}(\lambda)$ asymptotically converges to the true
signed-support associated with the underlying PDE for sufficiently many data
and a certain range of $\lambda$. We also show various numerical experiments to
validate our theory.
- Abstract(参考訳): 線形および非線形進化的偏微分方程式(PDE)の一般クラスに対するサポート回復を,$\ell_1$正規化Pseudo-Least Squaresモデル~($\ell_1$-PsLS)を用いて1つの雑音軌道から同定する。
未知の PDE 演算子を含む有限個の微分演算子によって生成される任意の連想 $\mathbb{R}$-代数において、$\ell_1$-PsLS を与えられたデータセットに適用すると、正規化重み $\lambda\geq 0$ によってパラメータ化された係数 $\mathbf{c}(\lambda)$ の候補モデルの族が得られる。
$\{\mathbf{c}(\lambda)\}_{\lambda\geq 0}$のトレースは、データノイズと有限差近似誤差のために高いばらつきに苦しんでいる。
ローカル-ポリノミカルフィルタでデノベートされた単一の軌道データから、$\mathbf{c}(\lambda)$ asymptotically のサポートは、十分に多くのデータと一定の範囲の$\lambda$に対して基礎となる PDE に関連する真の符号付きサポートに収束することを保証する十分な条件のセットを提供する。
また,理論を検証するために様々な数値実験を行う。
関連論文リスト
- A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Exact Fractional Inference via Re-Parametrization & Interpolation
between Tree-Re-Weighted- and Belief Propagation- Algorithms [0.5348370085388683]
分割関数($Z$)を計算するのに必要な推論の努力は、$N$スピンのグラフ上のIsingモデルの$N$の指数関数である可能性が高い。
積として$Z$を表現する方法を示す: Z=Z(lambda)cal Z(lambda)$, ここで乗法補正である$cal Z(lambda)$は、ノードの分数分布から作られるノード独立確率分布に対する期待値である。
論文 参考訳(メタデータ) (2023-01-25T00:50:28Z) - Near-optimal fitting of ellipsoids to random points [68.12685213894112]
楕円体をランダムな点に合わせるという基本的な問題は、低ランク行列分解、独立成分分析、主成分分析に関係している。
我々はこの予想を、ある$n = Omega(, d2/mathrmpolylog(d))$ に対する適合楕円体を構成することで対数的因子まで解決する。
我々の証明は、ある非標準確率行列の便利な分解を用いて、サンダーソン等最小二乗構成の実現可能性を示す。
論文 参考訳(メタデータ) (2022-08-19T18:00:34Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Optimal and instance-dependent guarantees for Markovian linear
stochastic approximation [77.84027086542827]
標準スキームの最後の繰り返しの2乗誤差に対して、$t_mathrmmix tfracdn$の非漸近境界を示す。
マルコフ雑音による政策評価について,これらの結果のまとめを導出する。
論文 参考訳(メタデータ) (2021-12-23T18:47:50Z) - Learning elliptic partial differential equations with randomized linear
algebra [2.538209532048867]
ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
論文 参考訳(メタデータ) (2021-01-31T16:57:59Z) - Convergence of Sparse Variational Inference in Gaussian Processes
Regression [29.636483122130027]
計算コストが$mathcalO(log N)2D(log N)2)$の手法を推論に利用できることを示す。
論文 参考訳(メタデータ) (2020-08-01T19:23:34Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。