論文の概要: Learning elliptic partial differential equations with randomized linear
algebra
- arxiv url: http://arxiv.org/abs/2102.00491v1
- Date: Sun, 31 Jan 2021 16:57:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 09:57:15.066243
- Title: Learning elliptic partial differential equations with randomized linear
algebra
- Title(参考訳): ランダム化線形代数による楕円偏微分方程式の学習
- Authors: Nicolas Boull\'e, Alex Townsend
- Abstract要約: ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given input-output pairs of an elliptic partial differential equation (PDE)
in three dimensions, we derive the first theoretically-rigorous scheme for
learning the associated Green's function $G$. By exploiting the hierarchical
low-rank structure of $G$, we show that one can construct an approximant to $G$
that converges almost surely and achieves an expected relative error of
$\epsilon$ using at most
$\mathcal{O}(\epsilon^{-6}\log^4(1/\epsilon)/\Gamma_\epsilon)$ input-output
training pairs, for any $0<\epsilon<1$. The quantity $0<\Gamma_\epsilon\leq 1$
characterizes the quality of the training dataset. Along the way, we extend the
randomized singular value decomposition algorithm for learning matrices to
Hilbert--Schmidt operators and characterize the quality of covariance kernels
for PDE learning.
- Abstract(参考訳): 3次元の楕円偏微分方程式(PDE)の入出力対が与えられたとき、関連するグリーン関数を学習するための理論的に厳密なスキームを導出する。
G$ の階層的低ランク構造を利用することで、$G$ の近似をほぼ確実に収束させ、最大 $\mathcal{O}(\epsilon^{-6}\log^4(1/\epsilon)/\Gamma_\epsilon)$ 入出力トレーニングペアで $0<\epsilon<1$ で $\epsilon$ の相対誤差を達成できることを示す。
0<\gamma_\epsilon\leq 1$ はトレーニングデータセットの品質を特徴付ける。
その過程で、行列を学習するためのランダム化特異値分解アルゴリズムをヒルベルト-シュミット作用素に拡張し、PDE学習のための共分散カーネルの品質を特徴付ける。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Operator learning for hyperbolic partial differential equations [9.434110429069385]
我々は、双曲偏微分方程式(PDE)の解演算子を復元するための、初めて厳密に正当化された確率的アルゴリズムを構築した。
双曲型PDEの解作用素を復元する主な課題は特性の存在であり、それに伴うグリーン関数は不連続である。
双曲型PDEの係数の正則性に関する仮定は、双曲型PDEが楕円型および放物型PDEの「即時平滑化効果」を持たないことを考えると、比較的弱い。
論文 参考訳(メタデータ) (2023-12-29T06:41:50Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Efficient Sampling of Stochastic Differential Equations with Positive
Semi-Definite Models [91.22420505636006]
本稿では, ドリフト関数と拡散行列を考慮し, 微分方程式からの効率的なサンプリング問題を扱う。
1/varepsilonは$m2d log (1/varepsilon)$である。
以上の結果から,真の解がより滑らかになるにつれて,どのような凸性も必要とせず,次元の呪いを回避できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T02:50:49Z) - Learning linear dynamical systems under convex constraints [4.4351901934764975]
線形力学系を単一軌道の$T$サンプルから同定する問題を考察する。
A*$は、制約のない設定に必要な値よりも$T$小さい値を確実に見積もることができる。
論文 参考訳(メタデータ) (2023-03-27T11:49:40Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Learning Green's functions associated with parabolic partial
differential equations [1.5293427903448025]
関連するグリーン函数を学習するための理論的に厳密な最初のスキームを導出する。
我々はベベンドルフとハッカブッシュの低ランク理論を、任意の次元における1leq nleq 3$次元の楕円 PDE から放物的 PDE へと拡張する。
論文 参考訳(メタデータ) (2022-04-27T09:23:39Z) - Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory [2.0299248281970956]
線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
論文 参考訳(メタデータ) (2021-03-12T02:23:04Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。