論文の概要: LSA-PINN: Linear Boundary Connectivity Loss for Solving PDEs on Complex
Geometry
- arxiv url: http://arxiv.org/abs/2302.01518v1
- Date: Fri, 3 Feb 2023 03:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 17:42:06.040993
- Title: LSA-PINN: Linear Boundary Connectivity Loss for Solving PDEs on Complex
Geometry
- Title(参考訳): LSA-PINN:複素幾何学上のPDEを解く線形境界接続損失
- Authors: Jian Cheng Wong, Pao-Hsiung Chiu, Chinchun Ooi, My Ha Dao, Yew-Soon
Ong
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)を用いた複雑な力学の効率的な学習のための新しい損失定式化について述べる。
我々の実験では、PINNの既存バージョンは多くの問題、特に複雑なジオメトリにおいて学習が不十分であることがわかった。
PINNの境界における勾配挙動に対して線形局所構造近似(LSA)を提供する新しい境界結合性(BCXN)損失関数を提案する。
- 参考スコア(独自算出の注目度): 15.583172926806148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel loss formulation for efficient learning of complex
dynamics from governing physics, typically described by partial differential
equations (PDEs), using physics-informed neural networks (PINNs). In our
experiments, existing versions of PINNs are seen to learn poorly in many
problems, especially for complex geometries, as it becomes increasingly
difficult to establish appropriate sampling strategy at the near boundary
region. Overly dense sampling can adversely impede training convergence if the
local gradient behaviors are too complex to be adequately modelled by PINNs. On
the other hand, if the samples are too sparse, existing PINNs tend to overfit
the near boundary region, leading to incorrect solution. To prevent such
issues, we propose a new Boundary Connectivity (BCXN) loss function which
provides linear local structure approximation (LSA) to the gradient behaviors
at the boundary for PINN. Our BCXN-loss implicitly imposes local structure
during training, thus facilitating fast physics-informed learning across entire
problem domains with order of magnitude sparser training samples. This LSA-PINN
method shows a few orders of magnitude smaller errors than existing methods in
terms of the standard L2-norm metric, while using dramatically fewer training
samples and iterations. Our proposed LSA-PINN does not pose any requirement on
the differentiable property of the networks, and we demonstrate its benefits
and ease of implementation on both multi-layer perceptron and convolutional
neural network versions as commonly used in current PINN literature.
- Abstract(参考訳): 本稿では、物理インフォームドニューラルネットワーク(PINN)を用いて、偏微分方程式(PDE)によって記述される複雑な力学の効率的な学習のための新しい損失定式化について述べる。
実験では,多くの問題,特に複雑なジオメトリにおいて,ピンの既存バージョンは,境界付近での適切なサンプリング戦略を確立することがますます困難になるため,学習不足がみられた。
過密サンプリングは、局所勾配挙動が複雑すぎてPINNによって適切にモデル化できない場合、トレーニング収束を阻害する可能性がある。
一方、サンプルが不十分すぎると、既存のピンは境界付近の領域に過剰に適合しがちで、正しくない解が導かれる。
このような問題を回避するために, PINN 境界における勾配挙動に線形局所構造近似(LSA)を提供する新しい境界結合性 (BCXN) 損失関数を提案する。
私たちのBCXN-lossは、トレーニング中に暗黙的に局所構造を課し、マグニチュードスペーサートレーニングサンプルのオーダーで、問題領域全体にわたる高速な物理情報学習を容易にする。
このlsa-pinn法は、標準のl2-normメトリックの点で、既存の方法よりも数桁小さいエラーを示し、トレーニングサンプルとイテレーションを劇的に削減する。
提案する LSA-PINN は,ネットワークの識別性に関する要件を課さず,多層パーセプトロンと畳み込みニューラルネットワークの両バージョンに対する実装のメリットと容易さを,現在の PINN 文献で一般的に用いられているように示す。
関連論文リスト
- General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Learning Traveling Solitary Waves Using Separable Gaussian Neural
Networks [0.9065034043031668]
偏微分方程式(PDE)の様々なファミリをまたいだ走行する孤立波の学習に機械学習アプローチを適用する。
我々のアプローチは、新しい解釈可能なニューラルネットワーク(NN)アーキテクチャを物理情報ニューラルネットワーク(PINN)の枠組みに統合する。
論文 参考訳(メタデータ) (2024-03-07T20:16:18Z) - Adversarial Training for Physics-Informed Neural Networks [4.446564162927513]
本稿では,AT-PINN と呼ばれる PINN に対する敵的訓練戦略を提案する。
AT-PINNは、逆サンプルを用いてモデルを微調整することにより、PINNの堅牢性を高める。
我々は,マルチスケール係数の楕円型方程式,マルチピーク解のポアソン方程式,鋭解のバーガース方程式,アレン・カーンの方程式にAT-PINNを実装した。
論文 参考訳(メタデータ) (2023-10-18T08:28:43Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。