論文の概要: Neural Stochastic Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2110.10249v1
- Date: Tue, 19 Oct 2021 20:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:37:46.505730
- Title: Neural Stochastic Partial Differential Equations
- Title(参考訳): 神経確率偏微分方程式
- Authors: Cristopher Salvi, Maud Lemercier
- Abstract要約: 物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、一般的な神経-通常、制御され、粗い-微分方程式モデルをすべて拡張し、入ってくる情報を処理することができる。
一方、関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化であるNeural Operatorsを拡張して、複雑なSPDEソリューション演算子を学習することができる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic partial differential equations (SPDEs) are the mathematical tool
of choice to model complex spatio-temporal dynamics of systems subject to the
influence of randomness. We introduce the Neural SPDE model providing an
extension to two important classes of physics-inspired neural architectures. On
the one hand, it extends all the popular neural -- ordinary, controlled,
stochastic, rough -- differential equation models in that it is capable of
processing incoming information even when the latter evolves in an infinite
dimensional state space. On the other hand, it extends Neural Operators --
recent generalizations of neural networks modelling mappings between functional
spaces -- in that it can be used to learn complex SPDE solution operators
$(u_0,\xi) \mapsto u$ depending simultaneously on an initial condition $u_0$
and on a stochastic forcing term $\xi$, while remaining resolution-invariant
and equation-agnostic. A Neural SPDE is constrained to respect real physical
dynamics and consequently requires only a modest amount of data to train,
depends on a significantly smaller amount of parameters and has better
generalization properties compared to Neural Operators. Through various
experiments on semilinear SPDEs with additive and multiplicative noise
(including the stochastic Navier-Stokes equations) we demonstrate how Neural
SPDEs can flexibly be used in a supervised learning setting as well as
conditional generative models to sample solutions of SPDEs conditioned on prior
knowledge, systematically achieving in both cases better performance than all
alternative models.
- Abstract(参考訳): 確率偏微分方程式(Stochastic partial differential equations、SPDE)は、ランダム性の影響を受ける系の複雑な時空間力学をモデル化するための数学的ツールである。
物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、通常の、制御された、確率的な、粗い、微分方程式のモデルを全て拡張し、後者が無限次元の状態空間で進化しても入ってくる情報を処理できる。
一方、ニューラル演算子(関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化)を拡張し、複雑なSPDEソリューション演算子$(u_0,\xi) \mapsto u$を初期条件$u_0$と確率論的強制項$\xi$で同時に学習するために使用できる。
ニューラルSPDEは実際の物理力学を尊重することを制約されており、従ってトレーニングするデータ量はわずかであり、非常に少ないパラメータに依存し、ニューラル演算子よりも優れた一般化特性を持つ。
加法と乗法ノイズ(確率ナビエ-ストークス方程式を含む)を持つ半線形spedの様々な実験を通じて、教師付き学習環境において神経spedが柔軟にどのように使用できるかを示し、また、条件付き生成モデルを用いて事前知識に基づくspedの解をサンプリングし、どちらのモデルよりも優れた性能を体系的に達成するかを実証する。
関連論文リスト
- Individualized Dosing Dynamics via Neural Eigen Decomposition [51.62933814971523]
ニューラル固有微分方程式アルゴリズム(NESDE)を導入する。
NESDEは個別化モデリング、新しい治療ポリシーへの調整可能な一般化、高速で連続的でクローズドな予測を提供する。
本研究は, 総合的・現実的な医療問題におけるNESDEの堅牢性を実証し, 学習力学を用いて, 模擬医療体育環境の公開を行う。
論文 参考訳(メタデータ) (2023-06-24T17:01:51Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - Neural Generalized Ordinary Differential Equations with Layer-varying
Parameters [1.3691539554014036]
層状ニューラルGODEは標準ニューラルGODEよりも柔軟で汎用的であることを示す。
Neural-GODEは、予測精度でResNetsと互換性を持って実行しながら、計算とメモリの利点を享受する。
論文 参考訳(メタデータ) (2022-09-21T20:02:28Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Bayesian Neural Ordinary Differential Equations [0.9422623204346027]
Neural ODEs と Bayesian 推論フレームワークの統合が成功したことを実証します。
10,000枚の画像のテストアンサンブルで、後部のサンプル精度を98.5%達成します。
これにより、不確実性の確率的推定のための科学的機械学習ツールが提供される。
論文 参考訳(メタデータ) (2020-12-14T04:05:26Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。