論文の概要: Monte Carlo PINNs: deep learning approach for forward and inverse
problems involving high dimensional fractional partial differential equations
- arxiv url: http://arxiv.org/abs/2203.08501v1
- Date: Wed, 16 Mar 2022 09:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 00:12:42.238463
- Title: Monte Carlo PINNs: deep learning approach for forward and inverse
problems involving high dimensional fractional partial differential equations
- Title(参考訳): Monte Carlo PINNs:高次元分数偏微分方程式を含む前・逆問題に対するディープラーニングアプローチ
- Authors: Ling Guo, Hao Wu, Xiaochen Yu, Tao Zhou
- Abstract要約: 我々は、サンプリングに基づく機械学習アプローチ、モンテカルロ物理情報ニューラルネットワーク(MC-PINN)を導入し、前方および逆分数偏微分方程式(FPDE)を解く。
物理情報ニューラルネットワーク(PINN)の一般化として,提案手法は,出力の分数微分を計算するための近似戦略に加えて,ディープニューラルネットワークサロゲートに依存する。
我々は,高次元積分分数ラプラシア方程式,時間空間分数PDEのパラメトリック同定,ランダムな入力を伴う分数拡散方程式などの例を用いて,MC-PINNの性能を検証する。
- 参考スコア(独自算出の注目度): 8.378422134042722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a sampling based machine learning approach, Monte Carlo physics
informed neural networks (MC-PINNs), for solving forward and inverse fractional
partial differential equations (FPDEs). As a generalization of physics informed
neural networks (PINNs), our method relies on deep neural network surrogates in
addition to a stochastic approximation strategy for computing the fractional
derivatives of the DNN outputs. A key ingredient in our MC-PINNs is to
construct an unbiased estimation of the physical soft constraints in the loss
function. Our directly sampling approach can yield less overall computational
cost compared to fPINNs proposed in \cite{pang2019fpinns} and thus provide an
opportunity for solving high dimensional fractional PDEs. We validate the
performance of MC-PINNs method via several examples that include high
dimensional integral fractional Laplacian equations, parametric identification
of time-space fractional PDEs, and fractional diffusion equation with random
inputs. The results show that MC-PINNs is flexible and promising to tackle
high-dimensional FPDEs.
- Abstract(参考訳): 本稿では,サンプリングに基づく機械学習手法であるモンテカルロ物理情報ニューラルネットワーク(MC-PINN)を導入し,FPDEの前方および逆分数偏微分方程式を解く。
物理学的インフォームドニューラルネットワーク(pinns)の一般化として,dnn出力の分数微分を計算するための確率的近似戦略に加えて,ディープニューラルネットワークサロゲートを用いる。
mcピンの重要な要素は、損失関数における物理的ソフト制約の偏りのない推定を構築することである。
直接サンプリング手法は, \cite{pang2019fpinns} で提案されているfpinnに比べて計算コストを低減し,高次元分数 pdes の解法を提供する。
我々は,高次元積分分数ラプラシア方程式,時間空間分数PDEのパラメトリック同定,ランダムな入力を伴う分数拡散方程式などの例を用いて,MC-PINNs法の性能を検証する。
その結果,MC-PINNは柔軟で,高次元FPDEへの取り組みが期待できることがわかった。
関連論文リスト
- Tackling the Curse of Dimensionality in Fractional and Tempered Fractional PDEs with Physics-Informed Neural Networks [24.86574584293979]
物理インフォームドニューラルネットワーク(PINN)は、普遍的な近似、能力一般化、メッシュフリートレーニングのために、有望なソリューションを提供する。
MC-fPINNはこれらの問題に対処するため、MC-tfPINNに拡張し、MC-tfPINN(MC-tfPINN)となる。
分数分数 PDE と分数分数分数分数 PDE の様々な前方および逆問題に対する手法の検証を行い,最大10万次元までスケールする。
論文 参考訳(メタデータ) (2024-06-17T16:26:18Z) - Score-fPINN: Fractional Score-Based Physics-Informed Neural Networks for High-Dimensional Fokker-Planck-Levy Equations [24.86574584293979]
非ブラウン過程のモデリングにおいて、Fokker-Planck-L'evy(FPL)方程式の高次元解法を提案する。
分数点関数と物理インフォームドニューラルネットワーク(PINN)を用いて,次元性(CoD)の呪いを解き放ち,指数関数的に崩壊する解からの数値オーバーフローを軽減する。
論文 参考訳(メタデータ) (2024-06-17T15:57:23Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Replacing Automatic Differentiation by Sobolev Cubatures fastens Physics
Informed Neural Nets and strengthens their Approximation Power [0.6091702876917279]
本稿では,物理インフォームド・ニューラルネット(PINN)のトレーニングに適用可能な,変分損失の新たな近似クラスを提案する。
損失計算は、自動微分(A.D.)を置き換えるソボレフキュウチャー(Sobolev cubatures)と呼ばれるガウス=ルジャンドルキュウチャーの拡張に依存する。
論文 参考訳(メタデータ) (2022-11-23T11:23:08Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。