論文の概要: Monte Carlo PINNs: deep learning approach for forward and inverse
problems involving high dimensional fractional partial differential equations
- arxiv url: http://arxiv.org/abs/2203.08501v1
- Date: Wed, 16 Mar 2022 09:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 00:12:42.238463
- Title: Monte Carlo PINNs: deep learning approach for forward and inverse
problems involving high dimensional fractional partial differential equations
- Title(参考訳): Monte Carlo PINNs:高次元分数偏微分方程式を含む前・逆問題に対するディープラーニングアプローチ
- Authors: Ling Guo, Hao Wu, Xiaochen Yu, Tao Zhou
- Abstract要約: 我々は、サンプリングに基づく機械学習アプローチ、モンテカルロ物理情報ニューラルネットワーク(MC-PINN)を導入し、前方および逆分数偏微分方程式(FPDE)を解く。
物理情報ニューラルネットワーク(PINN)の一般化として,提案手法は,出力の分数微分を計算するための近似戦略に加えて,ディープニューラルネットワークサロゲートに依存する。
我々は,高次元積分分数ラプラシア方程式,時間空間分数PDEのパラメトリック同定,ランダムな入力を伴う分数拡散方程式などの例を用いて,MC-PINNの性能を検証する。
- 参考スコア(独自算出の注目度): 8.378422134042722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a sampling based machine learning approach, Monte Carlo physics
informed neural networks (MC-PINNs), for solving forward and inverse fractional
partial differential equations (FPDEs). As a generalization of physics informed
neural networks (PINNs), our method relies on deep neural network surrogates in
addition to a stochastic approximation strategy for computing the fractional
derivatives of the DNN outputs. A key ingredient in our MC-PINNs is to
construct an unbiased estimation of the physical soft constraints in the loss
function. Our directly sampling approach can yield less overall computational
cost compared to fPINNs proposed in \cite{pang2019fpinns} and thus provide an
opportunity for solving high dimensional fractional PDEs. We validate the
performance of MC-PINNs method via several examples that include high
dimensional integral fractional Laplacian equations, parametric identification
of time-space fractional PDEs, and fractional diffusion equation with random
inputs. The results show that MC-PINNs is flexible and promising to tackle
high-dimensional FPDEs.
- Abstract(参考訳): 本稿では,サンプリングに基づく機械学習手法であるモンテカルロ物理情報ニューラルネットワーク(MC-PINN)を導入し,FPDEの前方および逆分数偏微分方程式を解く。
物理学的インフォームドニューラルネットワーク(pinns)の一般化として,dnn出力の分数微分を計算するための確率的近似戦略に加えて,ディープニューラルネットワークサロゲートを用いる。
mcピンの重要な要素は、損失関数における物理的ソフト制約の偏りのない推定を構築することである。
直接サンプリング手法は, \cite{pang2019fpinns} で提案されているfpinnに比べて計算コストを低減し,高次元分数 pdes の解法を提供する。
我々は,高次元積分分数ラプラシア方程式,時間空間分数PDEのパラメトリック同定,ランダムな入力を伴う分数拡散方程式などの例を用いて,MC-PINNs法の性能を検証する。
その結果,MC-PINNは柔軟で,高次元FPDEへの取り組みが期待できることがわかった。
関連論文リスト
- Replacing Automatic Differentiation by Sobolev Cubatures fastens Physics
Informed Neural Nets and strengthens their Approximation Power [0.6091702876917279]
本稿では,物理インフォームド・ニューラルネット(PINN)のトレーニングに適用可能な,変分損失の新たな近似クラスを提案する。
損失計算は、自動微分(A.D.)を置き換えるソボレフキュウチャー(Sobolev cubatures)と呼ばれるガウス=ルジャンドルキュウチャーの拡張に依存する。
論文 参考訳(メタデータ) (2022-11-23T11:23:08Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Semi-analytic PINN methods for singularly perturbed boundary value
problems [0.8594140167290099]
本稿では,新しい半解析的物理情報ニューラルネットワーク(PINN)を提案し,特異な摂動境界値問題の解法を提案する。
PINNは、偏微分方程式の数値解を見つけるための有望な視点を提供する科学機械学習フレームワークである。
論文 参考訳(メタデータ) (2022-08-19T04:26:40Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks [2.578242050187029]
楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
我々は、PDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いて、PDEの解を近似する。
ブラウンのウォーカーがドメインを探索するにつれ、ディープニューラルネットワークは強化学習の形式で反復的に訓練される。
論文 参考訳(メタデータ) (2020-01-17T03:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。