論文の概要: Monte Carlo Neural Operator for Learning PDEs via Probabilistic
Representation
- arxiv url: http://arxiv.org/abs/2302.05104v1
- Date: Fri, 10 Feb 2023 08:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:21:41.344024
- Title: Monte Carlo Neural Operator for Learning PDEs via Probabilistic
Representation
- Title(参考訳): 確率的表現によるPDE学習のためのモンテカルロニューラル演算子
- Authors: Rui Zhang, Qi Meng, Rongchan Zhu, Yue Wang, Wenlei Shi, Shihua Zhang,
Zhi-Ming Ma, Tie-Yan Liu
- Abstract要約: ニューラルネットワークは、偏微分方程式(PDE)系の解写像を近似するためにディープニューラルネットワークを使用する。
We developed a new loss function based on the Feynman-Kac formula and called the developed Neural operator Monte-Carlo Neural Operator (MCNO)
解析の結果,MCNOは複雑な空間条件や時間的ステップを扱う上で,他の教師なし手法と比較して有利であることがわかった。
- 参考スコア(独自算出の注目度): 73.59112655492976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators, which use deep neural networks to approximate the solution
mappings of partial differential equation (PDE) systems, are emerging as a new
paradigm for PDE simulation. The neural operators could be trained in
supervised or unsupervised ways, i.e., by using the generated data or the PDE
information. The unsupervised training approach is essential when data
generation is costly or the data is less qualified (e.g., insufficient and
noisy). However, its performance and efficiency have plenty of room for
improvement. To this end, we design a new loss function based on the
Feynman-Kac formula and call the developed neural operator Monte-Carlo Neural
Operator (MCNO), which can allow larger temporal steps and efficiently handle
fractional diffusion operators. Our analyses show that MCNO has advantages in
handling complex spatial conditions and larger temporal steps compared with
other unsupervised methods. Furthermore, MCNO is more robust with the
perturbation raised by the numerical scheme and operator approximation.
Numerical experiments on the diffusion equation and Navier-Stokes equation show
significant accuracy improvement compared with other unsupervised baselines,
especially for the vibrated initial condition and long-time simulation
settings.
- Abstract(参考訳): ニューラルネットワークを用いて偏微分方程式(PDE)系の解写像を近似するニューラル演算子が,PDEシミュレーションの新たなパラダイムとして登場した。
神経オペレータは、例えば生成されたデータやPDE情報を使用して、教師なしまたは教師なしの方法で訓練することができる。
教師なしのトレーニングアプローチは、データ生成が費用がかかるか、データの資格が低い場合(例えば、不十分でノイズ)に必須である。
しかし、その性能と効率性は改善の余地が十分にある。
この目的のために、Feynman-Kac式に基づく新たな損失関数を設計し、開発したニューラル演算子 Monte-Carlo Neural Operator (MCNO) を呼び出し、時間ステップを大きくし、分数拡散演算子を効率的に扱うことができる。
解析の結果,MCNOは複雑な空間条件や時間的ステップを扱う上で,他の教師なし手法と比較して有利であることがわかった。
さらに、MCNOは数値スキームと演算子近似によって引き起こされる摂動によりより堅牢である。
拡散方程式とナビエ・ストークス方程式の数値実験は、他の教師なしベースライン、特に振動初期条件と長時間のシミュレーション設定において、有意な精度の向上を示した。
関連論文リスト
- Online Variational Sequential Monte Carlo [56.16884466478886]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Neural Operator Variational Inference based on Regularized Stein
Discrepancy for Deep Gaussian Processes [23.87733307119697]
本稿では,深いガウス過程に対するニューラル演算子変分推論(NOVI)を提案する。
NOVIは、ニューラルジェネレータを使用してサンプリング装置を取得し、生成された分布と真の後部の間のL2空間における正規化スタインの離散性を最小化する。
提案手法が提案するバイアスは定数で発散を乗算することで制御可能であることを示す。
論文 参考訳(メタデータ) (2023-09-22T06:56:35Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Efficient Training of Energy-Based Models Using Jarzynski Equality [13.636994997309307]
エネルギーベースモデル(英: Energy-based model、EBM)は、統計物理学にインスパイアされた生成モデルである。
モデルパラメータに対する勾配の計算には、モデルの分布をサンプリングする必要がある。
ここでは、ジャジンスキーの等式に基づく非平衡熱力学の結果を用いて、この計算を効率的に行う方法を示す。
論文 参考訳(メタデータ) (2023-05-30T21:07:52Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - The Seven-League Scheme: Deep learning for large time step Monte Carlo
simulations of stochastic differential equations [0.0]
微分方程式(SDE)を解くための高精度なデータ駆動数値スキームを提案する。
SDE離散化は、正確に決定された(SC)点に基づいてカオス展開法により構築される。
圧縮圧縮とコロケーションという手法により、学習すべきニューラルネットワーク関数の数を劇的に減らすことができる。
論文 参考訳(メタデータ) (2020-09-07T16:06:20Z) - A Deterministic Approximation to Neural SDEs [38.23826389188657]
本研究では,NSDEから精度の高い不確実性推定値を取得することは,計算的に禁止されていることを示す。
我々は、遷移カーネルを正確に近似する計算的に手頃な決定論的スキームを開発する。
また,決定論的学習の数値的安定性により予測精度も向上する。
論文 参考訳(メタデータ) (2020-06-16T08:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。