論文の概要: Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations
- arxiv url: http://arxiv.org/abs/2107.07871v1
- Date: Fri, 16 Jul 2021 13:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:26:17.016428
- Title: Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations
- Title(参考訳): Finite Basis Physics-Informed Neural Networks (FBPINNs):微分方程式を解くためのスケーラブルな領域分解アプローチ
- Authors: Ben Moseley, Andrew Markham, Tarje Nissen-Meyer
- Abstract要約: 我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
- 参考スコア(独自算出の注目度): 20.277873724720987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, physics-informed neural networks (PINNs) have offered a powerful
new paradigm for solving problems relating to differential equations. Compared
to classical numerical methods PINNs have several advantages, for example their
ability to provide mesh-free solutions of differential equations and their
ability to carry out forward and inverse modelling within the same optimisation
problem. Whilst promising, a key limitation to date is that PINNs have
struggled to accurately and efficiently solve problems with large domains
and/or multi-scale solutions, which is crucial for their real-world
application. Multiple significant and related factors contribute to this issue,
including the increasing complexity of the underlying PINN optimisation problem
as the problem size grows and the spectral bias of neural networks. In this
work we propose a new, scalable approach for solving large problems relating to
differential equations called Finite Basis PINNs (FBPINNs). FBPINNs are
inspired by classical finite element methods, where the solution of the
differential equation is expressed as the sum of a finite set of basis
functions with compact support. In FBPINNs neural networks are used to learn
these basis functions, which are defined over small, overlapping subdomains.
FBINNs are designed to address the spectral bias of neural networks by using
separate input normalisation over each subdomain, and reduce the complexity of
the underlying optimisation problem by using many smaller neural networks in a
parallel divide-and-conquer approach. Our numerical experiments show that
FBPINNs are effective in solving both small and larger, multi-scale problems,
outperforming standard PINNs in both accuracy and computational resources
required, potentially paving the way to the application of PINNs on large,
real-world problems.
- Abstract(参考訳): 近年,物理インフォームドニューラルネットワーク (PINN) は微分方程式に関する問題を解くための強力な新しいパラダイムを提供している。
古典的な数値法と比較して、PINNは微分方程式のメッシュフリー解を提供する能力や、同じ最適化問題において前方および逆モデリングを行う能力など、いくつかの利点がある。
有望ではあるが、これまでの重要な制限は、pinnが大規模なドメインやマルチスケールソリューションの問題を正確かつ効率的に解決するのに苦労していることだ。
問題のサイズが大きくなると、基礎となるPINN最適化問題の複雑さが増大し、ニューラルネットワークのスペクトルバイアスが増大するなど、複数の重要な要因がこの問題に寄与する。
本研究では,FBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関する大規模問題を解くための,新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
fbpinnsでは、ニューラルネットワークは、小さな重複するサブドメイン上で定義されるこれらの基底関数を学ぶために使用される。
fbinnは、各サブドメインに対して別々の入力正規化を使用することで、ニューラルネットワークのスペクトルバイアスに対処するように設計されている。
数値実験により,FBPINNは,大規模かつ大規模な課題の解決に有効であり,必要な精度と計算資源の両方において標準PINNよりも優れており,大規模かつ現実的な問題に対するPINNの適用への道が開けている可能性が示唆された。
関連論文リスト
- Binary structured physics-informed neural networks for solving equations
with rapidly changing solutions [3.6415476576196055]
偏微分方程式(PDE)を解くための有望なアプローチとして、物理情報ニューラルネットワーク(PINN)が登場した。
本稿では、ニューラルネットワークコンポーネントとしてバイナリ構造化ニューラルネットワーク(BsNN)を用いる、バイナリ構造化物理インフォームドニューラルネットワーク(BsPINN)フレームワークを提案する。
BsPINNは、PINNよりも収束速度と精度が優れている。
論文 参考訳(メタデータ) (2024-01-23T14:37:51Z) - Multifidelity domain decomposition-based physics-informed neural networks and operators for time-dependent problems [40.46280139210502]
多重忠実積層PINNとドメイン分解に基づく有限基底PINNの組み合わせを用いる。
ドメイン分解アプローチは、PINNと重ね合わせのPINNアプローチを明らかに改善する。
FBPINNアプローチは、多要素物理インフォームド・ディープ・オペレーター・ネットワークに拡張可能であることが実証された。
論文 参考訳(メタデータ) (2024-01-15T18:32:53Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - $\Delta$-PINNs: physics-informed neural networks on complex geometries [2.1485350418225244]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式を含む前方および逆問題の解法において有望であることを示す。
現在までに、問題が解決されている領域のトポロジについて、PINNに知らせる明確な方法はない。
本稿では,Laplace-Beltrami演算子の固有関数に基づくPINNの新たな位置符号化機構を提案する。
論文 参考訳(メタデータ) (2022-09-08T18:03:19Z) - Semi-analytic PINN methods for singularly perturbed boundary value
problems [0.8594140167290099]
本稿では,新しい半解析的物理情報ニューラルネットワーク(PINN)を提案し,特異な摂動境界値問題の解法を提案する。
PINNは、偏微分方程式の数値解を見つけるための有望な視点を提供する科学機械学習フレームワークである。
論文 参考訳(メタデータ) (2022-08-19T04:26:40Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。