論文の概要: Monte Carlo Neural Operator for Learning PDEs via Probabilistic
Representation
- arxiv url: http://arxiv.org/abs/2302.05104v1
- Date: Fri, 10 Feb 2023 08:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:21:41.344024
- Title: Monte Carlo Neural Operator for Learning PDEs via Probabilistic
Representation
- Title(参考訳): 確率的表現によるPDE学習のためのモンテカルロニューラル演算子
- Authors: Rui Zhang, Qi Meng, Rongchan Zhu, Yue Wang, Wenlei Shi, Shihua Zhang,
Zhi-Ming Ma, Tie-Yan Liu
- Abstract要約: ニューラルネットワークは、偏微分方程式(PDE)系の解写像を近似するためにディープニューラルネットワークを使用する。
We developed a new loss function based on the Feynman-Kac formula and called the developed Neural operator Monte-Carlo Neural Operator (MCNO)
解析の結果,MCNOは複雑な空間条件や時間的ステップを扱う上で,他の教師なし手法と比較して有利であることがわかった。
- 参考スコア(独自算出の注目度): 73.59112655492976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators, which use deep neural networks to approximate the solution
mappings of partial differential equation (PDE) systems, are emerging as a new
paradigm for PDE simulation. The neural operators could be trained in
supervised or unsupervised ways, i.e., by using the generated data or the PDE
information. The unsupervised training approach is essential when data
generation is costly or the data is less qualified (e.g., insufficient and
noisy). However, its performance and efficiency have plenty of room for
improvement. To this end, we design a new loss function based on the
Feynman-Kac formula and call the developed neural operator Monte-Carlo Neural
Operator (MCNO), which can allow larger temporal steps and efficiently handle
fractional diffusion operators. Our analyses show that MCNO has advantages in
handling complex spatial conditions and larger temporal steps compared with
other unsupervised methods. Furthermore, MCNO is more robust with the
perturbation raised by the numerical scheme and operator approximation.
Numerical experiments on the diffusion equation and Navier-Stokes equation show
significant accuracy improvement compared with other unsupervised baselines,
especially for the vibrated initial condition and long-time simulation
settings.
- Abstract(参考訳): ニューラルネットワークを用いて偏微分方程式(PDE)系の解写像を近似するニューラル演算子が,PDEシミュレーションの新たなパラダイムとして登場した。
神経オペレータは、例えば生成されたデータやPDE情報を使用して、教師なしまたは教師なしの方法で訓練することができる。
教師なしのトレーニングアプローチは、データ生成が費用がかかるか、データの資格が低い場合(例えば、不十分でノイズ)に必須である。
しかし、その性能と効率性は改善の余地が十分にある。
この目的のために、Feynman-Kac式に基づく新たな損失関数を設計し、開発したニューラル演算子 Monte-Carlo Neural Operator (MCNO) を呼び出し、時間ステップを大きくし、分数拡散演算子を効率的に扱うことができる。
解析の結果,MCNOは複雑な空間条件や時間的ステップを扱う上で,他の教師なし手法と比較して有利であることがわかった。
さらに、MCNOは数値スキームと演算子近似によって引き起こされる摂動によりより堅牢である。
拡散方程式とナビエ・ストークス方程式の数値実験は、他の教師なしベースライン、特に振動初期条件と長時間のシミュレーション設定において、有意な精度の向上を示した。
関連論文リスト
- Dynamical Measure Transport and Neural PDE Solvers for Sampling [77.38204731939273]
本研究では, 対象物へのトラクタブル密度関数の移動として, 確率密度からサンプリングする作業に取り組む。
物理インフォームドニューラルネットワーク(PINN)を用いて各偏微分方程式(PDE)の解を近似する。
PINNはシミュレーションと離散化のない最適化を可能にし、非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2024-07-10T17:39:50Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Noise in the reverse process improves the approximation capabilities of
diffusion models [27.65800389807353]
生成モデリングにおける最先端技術であるスコアベース生成モデリング(SGM)では、リバースプロセスは決定論的手法よりも優れた性能を発揮することが知られている。
本稿では,ニューラル常微分方程式 (ODE) とニューラルディメンション方程式 (SDE) を逆過程として比較し,この現象の核となる。
我々は、Fokker-Planck方程式の軌跡を近似するニューラルSDEの能力を解析し、ニューラルティの利点を明らかにする。
論文 参考訳(メタデータ) (2023-12-13T02:39:10Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - A blob method method for inhomogeneous diffusion with applications to
multi-agent control and sampling [0.6562256987706128]
重み付き多孔質媒質方程式(WPME)に対する決定論的粒子法を開発し,その収束性を時間間隔で証明する。
提案手法は,マルチエージェントカバレッジアルゴリズムや確率測定のサンプリングに自然に応用できる。
論文 参考訳(メタデータ) (2022-02-25T19:49:05Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Physics-Informed Neural Network Method for Solving One-Dimensional
Advection Equation Using PyTorch [0.0]
PINNのアプローチは、最適化の強い制約としてPDEを尊重しながらニューラルネットワークのトレーニングを可能にします。
標準的な小規模循環シミュレーションでは、従来のアプローチは乱流拡散モデルの効果とほぼ同じ大きさの擬似拡散効果を組み込むことが示されている。
テストされた全てのスキームのうち、ピンズ近似のみが結果を正確に予測した。
論文 参考訳(メタデータ) (2021-03-15T05:39:17Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - A Deterministic Approximation to Neural SDEs [38.23826389188657]
本研究では,NSDEから精度の高い不確実性推定値を取得することは,計算的に禁止されていることを示す。
我々は、遷移カーネルを正確に近似する計算的に手頃な決定論的スキームを開発する。
また,決定論的学習の数値的安定性により予測精度も向上する。
論文 参考訳(メタデータ) (2020-06-16T08:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。