論文の概要: Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs
- arxiv url: http://arxiv.org/abs/2207.00377v1
- Date: Fri, 1 Jul 2022 12:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 13:45:51.903519
- Title: Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs
- Title(参考訳): PDEのための異方性・スパース・解釈可能な物理インフォームニューラルネットワーク
- Authors: Amuthan A. Ramabathiran and Prabhu Ramachandran
- Abstract要約: 我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a growing interest in the use of Deep Neural Networks (DNNs)
to solve Partial Differential Equations (PDEs). Despite the promise that such
approaches hold, there are various aspects where they could be improved. Two
such shortcomings are (i) their computational inefficiency relative to
classical numerical methods, and (ii) the non-interpretability of a trained DNN
model. In this work we present ASPINN, an anisotropic extension of our earlier
work called SPINN--Sparse, Physics-informed, and Interpretable Neural
Networks--to solve PDEs that addresses both these issues. ASPINNs generalize
radial basis function networks. We demonstrate using a variety of examples
involving elliptic and hyperbolic PDEs that the special architecture we propose
is more efficient than generic DNNs, while at the same time being directly
interpretable. Further, they improve upon the SPINN models we proposed earlier
in that fewer nodes are require to capture the solution using ASPINN than using
SPINN, thanks to the anisotropy of the local zones of influence of each node.
The interpretability of ASPINN translates to a ready visualization of their
weights and biases, thereby yielding more insight into the nature of the
trained model. This in turn provides a systematic procedure to improve the
architecture based on the quality of the computed solution. ASPINNs thus serve
as an effective bridge between classical numerical algorithms and modern DNN
based methods to solve PDEs. In the process, we also streamline the training of
ASPINNs into a form that is closer to that of supervised learning algorithms.
- Abstract(参考訳): 部分微分方程式(PDE)を解決するためにディープニューラルネットワーク(DNN)を使うことへの関心が高まっている。
このようなアプローチが約束されているにもかかわらず、改善できる側面は様々である。
2つの欠点は
(i)古典的数値手法に対する計算効率の非効率,及び
(II)訓練済みDNNモデルの非解釈可能性。
本稿では,SPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる従来の研究の異方性拡張であるASPINNを紹介する。
ASPINNはラジアル基底関数ネットワークを一般化する。
楕円型および双曲型PDEを含む様々な例を用いて、我々が提案する特別なアーキテクチャは、直接解釈可能であると同時に、一般的なDNNよりも効率的であることを示す。
さらに、各ノードの影響の局所的ゾーンの異方性により、SPINNを使用する場合よりも、ASPINNを用いてソリューションをキャプチャするノードが少なくなるという、先に提案したSPINNモデルを改善する。
ASPINNの解釈性は、その重みとバイアスの可視性に変換され、それによってトレーニングされたモデルの性質に関するより深い洞察が得られる。
これにより、計算されたソリューションの品質に基づいてアーキテクチャを改善するための体系的な手順が提供される。
したがって、ASPINNは古典的な数値アルゴリズムとPDEを解くための現代のDNNベースの手法の効果的なブリッジとして機能する。
その過程では、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
関連論文リスト
- Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Quantum-Inspired Tensor Neural Networks for Partial Differential
Equations [5.963563752404561]
ディープラーニング手法は時間と記憶の訓練によって制約される。これらの欠点に対処するため、ニューラルネットワーク(TNN)を実装している。
我々は、TNNが古典的ニューラルネットワーク(DNN)と同等の精度を保ちながら、重要なパラメータの節約を提供することを示した。
論文 参考訳(メタデータ) (2022-08-03T17:41:11Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - SPINN: Sparse, Physics-based, and Interpretable Neural Networks for PDEs [0.0]
Sparse, Physics-based, and Interpretable Neural Networks (SPINN) のクラスを導入し,一般微分方程式と部分微分方程式を解く。
従来のPDEのソリューションのメッシュレス表現を特別なスパースディープニューラルネットワークとして再解釈することにより、解釈可能なスパースニューラルネットワークアーキテクチャのクラスを開発する。
論文 参考訳(メタデータ) (2021-02-25T17:45:50Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。