論文の概要: Physics-informed radial basis network (PIRBN): A local approximating
neural network for solving nonlinear PDEs
- arxiv url: http://arxiv.org/abs/2304.06234v2
- Date: Thu, 20 Apr 2023 14:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 16:02:27.335735
- Title: Physics-informed radial basis network (PIRBN): A local approximating
neural network for solving nonlinear PDEs
- Title(参考訳): 物理インフォームドラジアル基底ネットワーク(pirbn) : 非線形pdes解のための局所近似ニューラルネットワーク
- Authors: Jinshuai Bai, Gui-Rong Liu, Ashish Gupta, Laith Alzubaidi, Xi-Qiao
Feng, YuanTong Gu
- Abstract要約: 物理インフォームドラジアルベースネットワーク(PIRBN)は、トレーニングプロセス全体を通して局所的な特性を維持することができる。
数値的な例から、PIRBN は PDE の解法において PINN よりも効率的で効率的であることが示されている。
- 参考スコア(独自算出の注目度): 1.9464639759457936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our recent intensive study has found that physics-informed neural networks
(PINN) tend to be local approximators after training. This observation leads to
this novel physics-informed radial basis network (PIRBN), which can maintain
the local property throughout the entire training process. Compared to deep
neural networks, a PIRBN comprises of only one hidden layer and a radial basis
"activation" function. Under appropriate conditions, we demonstrated that the
training of PIRBNs using gradient descendent methods can converge to Gaussian
processes. Besides, we studied the training dynamics of PIRBN via the neural
tangent kernel (NTK) theory. In addition, comprehensive investigations
regarding the initialisation strategies of PIRBN were conducted. Based on
numerical examples, PIRBN has been demonstrated to be more effective and
efficient than PINN in solving PDEs with high-frequency features and ill-posed
computational domains. Moreover, the existing PINN numerical techniques, such
as adaptive learning, decomposition and different types of loss functions, are
applicable to PIRBN. The programs that can regenerate all numerical results can
be found at https://github.com/JinshuaiBai/PIRBN.
- Abstract(参考訳): 最近の集中的な研究によると、物理インフォームドニューラルネットワーク(PINN)は訓練後に局所近似器となる傾向にある。
この観察により、この新しい物理インフォームドラジアルベースネットワーク(PIRBN)が、トレーニングプロセス全体を通して局所的な特性を維持することができる。
ディープニューラルネットワークと比較すると、PIRBNは1つの隠蔽層と放射ベース「活性化」機能のみから構成される。
適切な条件下では,勾配降下法を用いたpirbnの訓練がガウス過程に収束することを示した。
さらに、ニューラルタンジェントカーネル(NTK)理論を用いて、PIRBNのトレーニングダイナミクスについて検討した。
また, PIRBNの初期化戦略に関する包括的調査を行った。
数値的な例に基づき、pirbnはpdesを高周波特徴と不適切な計算領域で解く際、pinnよりも効率的で効率的なことが示されている。
さらに, 適応学習, 分解, 損失関数の種類など既存のpinn数値手法をpirbnに適用する。
すべての数値結果を再生できるプログラムはhttps://github.com/JinshuaiBai/PIRBNで見ることができる。
関連論文リスト
- Binary structured physics-informed neural networks for solving equations
with rapidly changing solutions [3.6415476576196055]
偏微分方程式(PDE)を解くための有望なアプローチとして、物理情報ニューラルネットワーク(PINN)が登場した。
本稿では、ニューラルネットワークコンポーネントとしてバイナリ構造化ニューラルネットワーク(BsNN)を用いる、バイナリ構造化物理インフォームドニューラルネットワーク(BsPINN)フレームワークを提案する。
BsPINNは、PINNよりも収束速度と精度が優れている。
論文 参考訳(メタデータ) (2024-01-23T14:37:51Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Ensemble learning for Physics Informed Neural Networks: a Gradient Boosting approach [10.250994619846416]
段階的強化(GB)と呼ばれる新しい訓練パラダイムを提案する。
与えられたPDEの解を1つのニューラルネットワークで直接学習する代わりに、我々のアルゴリズムは、より優れた結果を得るために、一連のニューラルネットワークを用いています。
この研究は、PINNでアンサンブル学習技術を採用するための扉も開ける。
論文 参考訳(メタデータ) (2023-02-25T19:11:44Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next [5.956366179544257]
physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
論文 参考訳(メタデータ) (2022-01-14T19:05:44Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。