論文の概要: Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory
- arxiv url: http://arxiv.org/abs/2103.07045v1
- Date: Fri, 12 Mar 2021 02:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 22:47:04.234890
- Title: Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory
- Title(参考訳): 単一雑音軌道からの$\ell_1$-regularized PDE同定の漸近理論
- Authors: Yuchen He, Namjoon Suh, Xiaoming Huo, Sungha Kang, Yajun Mei
- Abstract要約: 線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
- 参考スコア(独自算出の注目度): 2.0299248281970956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove the support recovery for a general class of linear and nonlinear
evolutionary partial differential equation (PDE) identification from a single
noisy trajectory using $\ell_1$ regularized Pseudo-Least Squares
model~($\ell_1$-PsLS). In any associative $\mathbb{R}$-algebra generated by
finitely many differentiation operators that contain the unknown PDE operator,
applying $\ell_1$-PsLS to a given data set yields a family of candidate models
with coefficients $\mathbf{c}(\lambda)$ parameterized by the regularization
weight $\lambda\geq 0$. The trace of $\{\mathbf{c}(\lambda)\}_{\lambda\geq 0}$
suffers from high variance due to data noises and finite difference
approximation errors. We provide a set of sufficient conditions which guarantee
that, from a single trajectory data denoised by a Local-Polynomial filter, the
support of $\mathbf{c}(\lambda)$ asymptotically converges to the true
signed-support associated with the underlying PDE for sufficiently many data
and a certain range of $\lambda$. We also show various numerical experiments to
validate our theory.
- Abstract(参考訳): 線形および非線形進化的偏微分方程式(PDE)の一般クラスに対するサポート回復を,$\ell_1$正規化Pseudo-Least Squaresモデル~($\ell_1$-PsLS)を用いて1つの雑音軌道から同定する。
未知の PDE 演算子を含む有限個の微分演算子によって生成される任意の連想 $\mathbb{R}$-代数において、$\ell_1$-PsLS を与えられたデータセットに適用すると、正規化重み $\lambda\geq 0$ によってパラメータ化された係数 $\mathbf{c}(\lambda)$ の候補モデルの族が得られる。
$\{\mathbf{c}(\lambda)\}_{\lambda\geq 0}$のトレースは、データノイズと有限差近似誤差のために高いばらつきに苦しんでいる。
ローカル-ポリノミカルフィルタでデノベートされた単一の軌道データから、$\mathbf{c}(\lambda)$ asymptotically のサポートは、十分に多くのデータと一定の範囲の$\lambda$に対して基礎となる PDE に関連する真の符号付きサポートに収束することを保証する十分な条件のセットを提供する。
また,理論を検証するために様々な数値実験を行う。
関連論文リスト
- Conditional regression for the Nonlinear Single-Variable Model [4.565636963872865]
F(X):=f(Pi_gamma):mathbbRdto[0,rmlen_gamma]$ ここで$Pi_gamma: [0,rmlen_gamma]tomathbbRd$と$f:[0,rmlen_gamma]tomathbbR1$を考える。
条件回帰に基づく非パラメトリック推定器を提案し、$one$-dimensionalOptimical min-maxレートを実現できることを示す。
論文 参考訳(メタデータ) (2024-11-14T18:53:51Z) - Near-Optimal and Tractable Estimation under Shift-Invariance [0.21756081703275998]
そのような信号のクラスは、非常にリッチである:$mathbbCn$ 上のすべての指数振動を含み、合計$s$ である。
このクラスの統計複雑性は、$(delta)$-confidence $ell$-ballの半径2乗最小マックス周波数によって測定されるが、$s$-sparse信号のクラス、すなわち$Oleft(slog(en) + log(delta-1)right) cdot log(en/s)とほぼ同じであることを示す。
論文 参考訳(メタデータ) (2024-11-05T18:11:23Z) - Statistical-Computational Trade-offs for Density Estimation [60.81548752871115]
幅広い種類のデータ構造に対して、それらの境界は著しく改善されないことを示す。
これは密度推定のための新しい統計計算トレードオフである。
論文 参考訳(メタデータ) (2024-10-30T15:03:33Z) - Data subsampling for Poisson regression with pth-root-link [53.63838219437508]
ポアソン回帰のためのデータサブサンプリング手法を開発し解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
論文 参考訳(メタデータ) (2024-10-30T10:09:05Z) - A computational transition for detecting correlated stochastic block models by low-degree polynomials [13.396246336911842]
一対のランダムグラフにおける相関性の検出は、近年広く研究されている基本的な統計的および計算上の問題である。
一対の相関ブロックモデル $mathcalS(n,tfraclambdan;k,epsilon;s)$ を共通の親ブロックモデル $mathcalS(n,tfraclambdan;k,epsilon;s)$ からサブサンプリングする。
隣接部のエントリーのエンスロー度に基づくテストに焦点をあてる
論文 参考訳(メタデータ) (2024-09-02T06:14:05Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Further Understanding of a Local Gaussian Process Approximation: Characterising Convergence in the Finite Regime [1.3518297878940662]
非常に正確かつ大規模に拡張可能なGPnn回帰モデルに対するカーネル関数の一般的な選択は、データセットサイズ$n$の増加に伴って徐々に振る舞いに収束することを示す。
同様の境界はモデルの不特定の下で見出され、MSEと重要な校正計量の総合的な収束率を与えるために組み合わせられる。
論文 参考訳(メタデータ) (2024-04-09T10:47:01Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Learning elliptic partial differential equations with randomized linear
algebra [2.538209532048867]
ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
論文 参考訳(メタデータ) (2021-01-31T16:57:59Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。