論文の概要: Densely Multiplied Physics Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2402.04390v3
- Date: Fri, 04 Oct 2024 13:50:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:07:43.050769
- Title: Densely Multiplied Physics Informed Neural Networks
- Title(参考訳): 複雑に多重化された物理インフォームニューラルネットワーク
- Authors: Feilong Jiang, Xiaonan Hou, Min Xia,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示している
本稿では,PINNの性能向上のためにニューラルネットワークアーキテクチャを改良する。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.8554335256160261
- License:
- Abstract: Although physics-informed neural networks (PINNs) have shown great potential in dealing with nonlinear partial differential equations (PDEs), it is common that PINNs will suffer from the problem of insufficient precision or obtaining incorrect outcomes. Unlike most of the existing solutions trying to enhance the ability of PINN by optimizing the training process, this paper improved the neural network architecture to improve the performance of PINN. We propose a densely multiply PINN (DM-PINN) architecture, which multiplies the output of a hidden layer with the outputs of all the behind hidden layers. Without introducing more trainable parameters, this effective mechanism can significantly improve the accuracy of PINNs. The proposed architecture is evaluated on four benchmark examples (Allan-Cahn equation, Helmholtz equation, Burgers equation and 1D convection equation). Comparisons between the proposed architecture and different PINN structures demonstrate the superior performance of the DM-PINN in both accuracy and efficiency.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示しているが、PINNが不十分な精度の問題や不正な結果に悩まされることが一般的である。
トレーニングプロセスの最適化によってPINNの能力を向上しようとする既存のソリューションとは異なり、本研究では、PINNの性能向上のためにニューラルネットワークアーキテクチャを改善した。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
より訓練可能なパラメータを導入することなく、この効果的なメカニズムはPINNの精度を大幅に向上させることができる。
提案したアーキテクチャは、Allan-Cahn方程式、Helmholtz方程式、Burgers方程式、および1D対流方程式の4つのベンチマーク例で評価される。
提案アーキテクチャと異なるPINN構造との比較により,DM-PINNの精度と効率の両面において優れた性能を示した。
関連論文リスト
- DiffGrad for Physics-Informed Neural Networks [0.0]
バーガーズ方程式(英: Burgers' equation)は流体力学の基本方程式であり、PINNで広く用いられている。
本稿では,DiffGradをPINNに組み込むことで,バーガースの方程式を解く新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T04:39:35Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。