論文の概要: Learning Green's functions associated with parabolic partial
differential equations
- arxiv url: http://arxiv.org/abs/2204.12789v1
- Date: Wed, 27 Apr 2022 09:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:45:21.168033
- Title: Learning Green's functions associated with parabolic partial
differential equations
- Title(参考訳): 放物型偏微分方程式に関連したグリーン関数の学習
- Authors: Nicolas Boull\'e, Seick Kim, Tianyi Shi, Alex Townsend
- Abstract要約: 関連するグリーン函数を学習するための理論的に厳密な最初のスキームを導出する。
我々はベベンドルフとハッカブッシュの低ランク理論を、任意の次元における1leq nleq 3$次元の楕円 PDE から放物的 PDE へと拡張する。
- 参考スコア(独自算出の注目度): 1.5293427903448025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given input-output pairs from a parabolic partial differential equation (PDE)
in any spatial dimension $n\geq 1$, we derive the first theoretically rigorous
scheme for learning the associated Green's function $G$. Until now, rigorously
learning Green's functions associated with parabolic operators has been a major
challenge in the field of scientific machine learning because $G$ may not be
square-integrable when $n>1$, and time-dependent PDEs have transient dynamics.
By combining the hierarchical low-rank structure of $G$ together with the
randomized singular value decomposition, we construct an approximant to $G$
that achieves a relative error of
$\smash{\mathcal{O}(\Gamma_\epsilon^{-1/2}\epsilon)}$ in the $L^1$-norm with
high probability by using at most
$\smash{\mathcal{O}(\epsilon^{-\frac{n+2}{2}}\log(1/\epsilon))}$ input-output
training pairs, where $\Gamma_\epsilon$ is a measure of the quality of the
training dataset for learning $G$, and $\epsilon>0$ is sufficiently small.
Along the way, we extend the low-rank theory of Bebendorf and Hackbusch from
elliptic PDEs in dimension $1\leq n\leq 3$ to parabolic PDEs in any dimensions,
which shows that Green's functions associated with parabolic PDEs admit a
low-rank structure on well-separated domains.
- Abstract(参考訳): 任意の空間次元$n\geq 1$の放物型偏微分方程式(PDE)から入力出力対が与えられたとき、関連するグリーン関数$G$を学習するための理論的に厳密なスキームを導出する。
これまで、パラボリックな演算子に関連するグリーンの関数を厳密に学習することは、科学的な機械学習の分野において大きな課題だった。
By combining the hierarchical low-rank structure of $G$ together with the randomized singular value decomposition, we construct an approximant to $G$ that achieves a relative error of $\smash{\mathcal{O}(\Gamma_\epsilon^{-1/2}\epsilon)}$ in the $L^1$-norm with high probability by using at most $\smash{\mathcal{O}(\epsilon^{-\frac{n+2}{2}}\log(1/\epsilon))}$ input-output training pairs, where $\Gamma_\epsilon$ is a measure of the quality of the training dataset for learning $G$, and $\epsilon>0$ is sufficiently small.
その過程で、bebendorf と hackbusch の低ランク理論を、次元 1\leq n\leq 3$ の楕円型 pdes から任意の次元の放物型 pdes へと拡張し、放物型 pdes に付随するグリーン関数は、整域上の低ランク構造を許容することを示した。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Interplay between depth and width for interpolation in neural ODEs [0.0]
それらの幅$p$と層遷移数$L$の相互作用について検討する。
高次元設定では、$p=O(N)$ニューロンが正確な制御を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2024-01-18T11:32:50Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Efficient Sampling of Stochastic Differential Equations with Positive
Semi-Definite Models [91.22420505636006]
本稿では, ドリフト関数と拡散行列を考慮し, 微分方程式からの効率的なサンプリング問題を扱う。
1/varepsilonは$m2d log (1/varepsilon)$である。
以上の結果から,真の解がより滑らかになるにつれて,どのような凸性も必要とせず,次元の呪いを回避できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T02:50:49Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Underdetermined Dyson-Schwinger equations [0.0]
本稿では、場の量子論における計算ツールとしてのダイソン=シュウィンガー方程式の有効性について検討する。
truncated DS equations は、制限値にゆっくりと収束する近似式の列を与える。
平均場的近似に基づくより洗練されたトランケーションスキームは、この恐ろしい計算問題を解決しない。
論文 参考訳(メタデータ) (2022-11-23T15:28:34Z) - Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory [2.0299248281970956]
線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
論文 参考訳(メタデータ) (2021-03-12T02:23:04Z) - Learning elliptic partial differential equations with randomized linear
algebra [2.538209532048867]
ほぼ確実に収束する$G$への近似を構築することができることを示す。
0Gamma_epsilonleq 1$はトレーニングデータセットの品質を特徴付ける。
論文 参考訳(メタデータ) (2021-01-31T16:57:59Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。