論文の概要: Learning Traveling Solitary Waves Using Separable Gaussian Neural
Networks
- arxiv url: http://arxiv.org/abs/2403.04883v1
- Date: Thu, 7 Mar 2024 20:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:46:54.538309
- Title: Learning Traveling Solitary Waves Using Separable Gaussian Neural
Networks
- Title(参考訳): 分離型ガウスニューラルネットワークによる孤立波の学習
- Authors: Siyuan Xing and Efstathios G. Charalampidis
- Abstract要約: 偏微分方程式(PDE)の様々なファミリをまたいだ走行する孤立波の学習に機械学習アプローチを適用する。
我々のアプローチは、新しい解釈可能なニューラルネットワーク(NN)アーキテクチャを物理情報ニューラルネットワーク(PINN)の枠組みに統合する。
- 参考スコア(独自算出の注目度): 0.9065034043031668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we apply a machine-learning approach to learn traveling
solitary waves across various families of partial differential equations
(PDEs). Our approach integrates a novel interpretable neural network (NN)
architecture, called Separable Gaussian Neural Networks (SGNN) into the
framework of Physics-Informed Neural Networks (PINNs). Unlike the traditional
PINNs that treat spatial and temporal data as independent inputs, the present
method leverages wave characteristics to transform data into the so-called
co-traveling wave frame. This adaptation effectively addresses the issue of
propagation failure in PINNs when applied to large computational domains. Here,
the SGNN architecture demonstrates robust approximation capabilities for
single-peakon, multi-peakon, and stationary solutions within the
(1+1)-dimensional, $b$-family of PDEs. In addition, we expand our
investigations, and explore not only peakon solutions in the $ab$-family but
also compacton solutions in (2+1)-dimensional, Rosenau-Hyman family of PDEs. A
comparative analysis with MLP reveals that SGNN achieves comparable accuracy
with fewer than a tenth of the neurons, underscoring its efficiency and
potential for broader application in solving complex nonlinear PDEs.
- Abstract(参考訳): 本稿では, 偏微分方程式 (PDE) の様々なファミリを横断する単独波を学習するために, 機械学習手法を適用する。
提案手法は,分離型ガウスニューラルネットワーク(SGNN)と呼ばれる新しい解釈可能なニューラルネットワーク(NN)アーキテクチャを物理インフォームドニューラルネットワーク(PINN)のフレームワークに統合する。
空間的・時間的データを独立した入力として扱う従来のPINNとは異なり、本手法は波動特性を利用してデータをいわゆる共振波枠に変換する。
この適応は、大規模計算領域に適用した場合のPINNの伝搬不良の問題に効果的に対処する。
ここで、SGNNアーキテクチャは、(1+1)次元のPDEの$b$ファミリー内の単一ピーク、複数ピーク、および定常解に対する堅牢な近似能力を示す。
さらに、調査を拡張し、$ab$-ファミリーのピークトン解だけでなく、(2+1)次元のコンパクトン解であるPDEのローズナウ・ハイマン族についても調べる。
MLPとの比較分析により、SGNNはニューロンの10分の1未満で同等の精度を達成し、複雑な非線形PDEを解くための効率性と可能性を強調している。
関連論文リスト
- Solving PDEs on Spheres with Physics-Informed Convolutional Neural
Networks [18.98579461397768]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において効率的であることが示されている。
本稿では,物理インフォームド畳み込みニューラルネットワーク(PICNN)の厳密な解析を行い,球面上のPDEを解く。
論文 参考訳(メタデータ) (2023-08-18T14:58:23Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural
Networks [25.1742784555125]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Physics-Aware Neural Networks for Boundary Layer Linear Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、一般偏微分方程式(PDE)の解をニューラルネットワークの損失/コストの観点から何らかの形で加算することによって近似する。
本稿では,1つ以上の境界層が存在する線形PDEに対するPINNについて検討する。
論文 参考訳(メタデータ) (2022-07-15T21:15:06Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations [20.277873724720987]
我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
論文 参考訳(メタデータ) (2021-07-16T13:03:47Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。