論文の概要: A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency
- arxiv url: http://arxiv.org/abs/2210.13212v1
- Date: Wed, 19 Oct 2022 15:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 11:44:08.198120
- Title: A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency
- Title(参考訳): 高レベルの精度と効率を有する次元拡張物理インフォームドニューラルネットワーク(DaPINN)
- Authors: Weilong Guan, Kaihan Yang, Yinsheng Chen, Zhong Guan
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
- 参考スコア(独自算出の注目度): 0.20391237204597357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have been widely applied in
different fields due to their effectiveness in solving partial differential
equations (PDEs). However, the accuracy and efficiency of PINNs need to be
considerably improved for scientific and commercial use. To address this issue,
we systematically propose a novel dimension-augmented physics-informed neural
network (DaPINN), which simultaneously and significantly improves the accuracy
and efficiency of the PINN. In the DaPINN model, we introduce inductive bias in
the neural network to enhance network generalizability by adding a special
regularization term to the loss function. Furthermore, we manipulate the
network input dimension by inserting additional sample features and
incorporating the expanded dimensionality in the loss function. Moreover, we
verify the effectiveness of power series augmentation, Fourier series
augmentation and replica augmentation, in both forward and backward problems.
In most experiments, the error of DaPINN is 1$\sim$2 orders of magnitude lower
than that of PINN. The results show that the DaPINN outperforms the original
PINN in terms of both accuracy and efficiency with a reduced dependence on the
number of sample points. We also discuss the complexity of the DaPINN and its
compatibility with other methods.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の解法の有効性から、様々な分野で広く応用されている。
しかし, PINNの精度と効率は, 科学的, 商業的利用において著しく改善される必要がある。
この問題に対処するために,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を体系的に提案し,PINNの精度と効率を大幅に向上させる。
DaPINNモデルでは、損失関数に特別な正規化項を追加することにより、ニューラルネットワークの帰納バイアスを導入し、ネットワークの一般化性を高める。
さらに,追加のサンプル特徴を挿入し,損失関数に拡張次元を組み込むことで,ネットワーク入力次元を操作する。
さらに,前方問題と後方問題の両方において,パワー級数増補,フーリエ級数増補,レプリカ増補の有効性を検証した。
ほとんどの実験において、dapinnの誤差はpinnよりも1$\sim$2桁低い。
その結果,DAPINNは,標本点数に依存しない精度と効率の両方で,元のPINNよりも優れていた。
また、DAPINNの複雑さと他の手法との互換性についても論じる。
関連論文リスト
- Densely Multiplied Physics Informed Neural Networks [1.8554335256160261]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示している
本稿では,PINNの性能向上のためにニューラルネットワークアーキテクチャを改良する。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:45:31Z) - Artificial to Spiking Neural Networks Conversion for Scientific Machine
Learning [24.799635365988905]
物理インフォームドニューラルネットワーク(PINN)をスパイキングニューラルネットワーク(SNN)に変換する手法を提案する。
SNNは従来のニューラルネットワーク(ANN)と比較してエネルギー効率が高いと期待されている
論文 参考訳(メタデータ) (2023-08-31T00:21:27Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-informed Neural Network for Nonlinear Dynamics in Fiber Optics [10.335960060544904]
深層学習と物理を組み合わせる物理インフォームドニューラルネットワーク (PINN) について, 非線形シュリンガー方程式を解くために検討した。
PINNは、効果的な偏微分方程式解法であるだけでなく、光ファイバーにおける科学計算と自動モデリングの進歩にも期待できる技術である。
論文 参考訳(メタデータ) (2021-09-01T12:19:32Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。