論文の概要: nPINNs: nonlocal Physics-Informed Neural Networks for a parametrized
nonlocal universal Laplacian operator. Algorithms and Applications
- arxiv url: http://arxiv.org/abs/2004.04276v1
- Date: Wed, 8 Apr 2020 21:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:47:35.623616
- Title: nPINNs: nonlocal Physics-Informed Neural Networks for a parametrized
nonlocal universal Laplacian operator. Algorithms and Applications
- Title(参考訳): npinns: パラメトリズド非局所普遍ラプラシアン作用素のための非局所物理形ニューラルネットワーク。
アルゴリズムと応用
- Authors: Guofei Pang, Marta D'Elia, Michael Parks, George E. Karniadakis
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、スパース、非構造、多忠実なデータを持つ微分方程式と積分方程式に基づく逆問題の解法に有効である。
本稿では,非局所ポアソンおよび非局所乱流の積分方程式のパラメータと関数にPINNを拡張した。
以上の結果から,nPINN はこの関数と$delta$ を併用して推定できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) are effective in solving inverse
problems based on differential and integral equations with sparse, noisy,
unstructured, and multi-fidelity data. PINNs incorporate all available
information into a loss function, thus recasting the original problem into an
optimization problem. In this paper, we extend PINNs to parameter and function
inference for integral equations such as nonlocal Poisson and nonlocal
turbulence models, and we refer to them as nonlocal PINNs (nPINNs). The
contribution of the paper is three-fold. First, we propose a unified nonlocal
operator, which converges to the classical Laplacian as one of the operator
parameters, the nonlocal interaction radius $\delta$ goes to zero, and to the
fractional Laplacian as $\delta$ goes to infinity. This universal operator
forms a super-set of classical Laplacian and fractional Laplacian operators
and, thus, has the potential to fit a broad spectrum of data sets. We provide
theoretical convergence rates with respect to $\delta$ and verify them via
numerical experiments. Second, we use nPINNs to estimate the two parameters,
$\delta$ and $\alpha$. The strong non-convexity of the loss function yielding
multiple (good) local minima reveals the occurrence of the operator mimicking
phenomenon: different pairs of estimated parameters could produce multiple
solutions of comparable accuracy. Third, we propose another nonlocal operator
with spatially variable order $\alpha(y)$, which is more suitable for modeling
turbulent Couette flow. Our results show that nPINNs can jointly infer this
function as well as $\delta$. Also, these parameters exhibit a universal
behavior with respect to the Reynolds number, a finding that contributes to our
understanding of nonlocal interactions in wall-bounded turbulence.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、疎度、雑音、非構造、多要素データを含む微分方程式と積分方程式に基づく逆問題の解法に有効である。
PINNは、利用可能な全ての情報を損失関数に組み込んで、元の問題を最適化問題に再キャストする。
本稿では,非局所ポアソンや非局所乱流モデルのような積分方程式のパラメータや関数推論にピンを拡張し,これを非局所ピン(npinn)と呼ぶ。
論文の貢献は3倍である。
まず、古典ラプラシアンを演算子パラメータの1つとして収束させる統一非局所作用素を提案し、非局所相互作用半径$\delta$は0に、分数ラプラシアンを$\delta$は無限に収束する。
この普遍作用素は古典ラプラシアンおよび分数ラプラシアン作用素の超集合を形成し、従ってデータセットの広いスペクトルに適合するポテンシャルを持つ。
我々は$\delta$に関する理論収束率を提供し、数値実験を通して検証する。
次に、nPINNを使って2つのパラメータ、$\delta$と$\alpha$を推定します。
複数の(良い)局所極小を生じる損失関数の強い非凸性は、演算子の模倣現象の発生を明らかにした: 推定パラメータの異なるペアは、同等の精度で複数の解を生成することができる。
第3に, 乱流クーエット流のモデル化により適した空間変数 $\alpha(y)$ を持つ別の非局所作用素を提案する。
以上の結果から nPINN はこの関数と$\delta$ を共同で推論できることがわかった。
また、これらのパラメータは、壁境界乱流における非局所的相互作用の理解に寄与するレイノルズ数に関する普遍的な振舞いを示す。
関連論文リスト
- On the estimation rate of Bayesian PINN for inverse problems [10.100602879566782]
物理インフォームドニューラルネットワーク(PINN)を用いた偏微分方程式(PDE)とその逆問題の解法は、物理学と機械学習のコミュニティにおいて急速に普及しているアプローチである。
我々は,PDEの解のベイズPINN推定器の挙動を$n$独立雑音測定から検討した。
論文 参考訳(メタデータ) (2024-06-21T01:13:18Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - MgNO: Efficient Parameterization of Linear Operators via Multigrid [4.096453902709292]
我々は、ニューロン間の線形演算子をパラメータ化するために多重格子構造を利用するMgNOを紹介する。
MgNOは、他のCNNベースのモデルと比べてトレーニングの容易さが優れている。
論文 参考訳(メタデータ) (2023-10-16T13:01:35Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Learning Only On Boundaries: a Physics-Informed Neural operator for
Solving Parametric Partial Differential Equations in Complex Geometries [10.250994619846416]
ラベル付きデータなしでパラメータ化境界値問題を解決する物理インフォームド・ニューラル演算子法を提案する。
数値実験により,パラメータ化複素測地と非有界問題の有効性が示された。
論文 参考訳(メタデータ) (2023-08-24T17:29:57Z) - Over-Parameterization Exponentially Slows Down Gradient Descent for
Learning a Single Neuron [49.45105570960104]
ランダム勾配降下のグローバル収束を$Oleft(T-3right)$ rateで証明する。
これら2つの境界は、収束率の正確な特徴づけを与える。
このポテンシャル関数は緩やかに収束し、損失関数の緩やかな収束率を示す。
論文 参考訳(メタデータ) (2023-02-20T15:33:26Z) - Fourier Continuation for Exact Derivative Computation in
Physics-Informed Neural Operators [53.087564562565774]
PINOは、偏微分方程式を学習するための有望な実験結果を示す機械学習アーキテクチャである。
非周期問題に対して、フーリエ継続(FC)を利用して正確な勾配法をPINOに適用するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - $\Delta$-PINNs: physics-informed neural networks on complex geometries [2.1485350418225244]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式を含む前方および逆問題の解法において有望であることを示す。
現在までに、問題が解決されている領域のトポロジについて、PINNに知らせる明確な方法はない。
本稿では,Laplace-Beltrami演算子の固有関数に基づくPINNの新たな位置符号化機構を提案する。
論文 参考訳(メタデータ) (2022-09-08T18:03:19Z) - Data-driven soliton mappings for integrable fractional nonlinear wave
equations via deep learning with Fourier neural operator [7.485410656333205]
フーリエニューラル作用素(FNO)を拡張して、2つの関数空間間のソリトンマッピングを発見する。
具体的には、最近提案された分数次非線形シュル・オーディンガー(fNLS)、分数次コルトヴェーグ・ド・ヴリー(fKdV)、分数次修正コルトヴェーグ・ド・ヴリー(fmKdV)、分数次正弦-ゴルドン(fsineG)方程式について検討した。
論文 参考訳(メタデータ) (2022-08-29T06:48:26Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。