論文の概要: Sparse Deep Neural Network for Nonlinear Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2207.13266v1
- Date: Wed, 27 Jul 2022 03:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:58:01.721267
- Title: Sparse Deep Neural Network for Nonlinear Partial Differential Equations
- Title(参考訳): 非線形偏微分方程式に対するスパースディープニューラルネットワーク
- Authors: Yuesheng Xu, Taishan Zeng
- Abstract要約: 本稿では,非線形偏微分方程式の解の適応近似に関する数値的研究について述べる。
特定の特異点を持つ関数を表現するために、複数のパラメータを持つスパース正規化を備えたディープニューラルネットワーク(DNN)を開発する。
数値的な例では、提案したSDNNが生成する解はスパースで正確である。
- 参考スコア(独自算出の注目度): 3.0069322256338906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More competent learning models are demanded for data processing due to
increasingly greater amounts of data available in applications. Data that we
encounter often have certain embedded sparsity structures. That is, if they are
represented in an appropriate basis, their energies can concentrate on a small
number of basis functions. This paper is devoted to a numerical study of
adaptive approximation of solutions of nonlinear partial differential equations
whose solutions may have singularities, by deep neural networks (DNNs) with a
sparse regularization with multiple parameters. Noting that DNNs have an
intrinsic multi-scale structure which is favorable for adaptive representation
of functions, by employing a penalty with multiple parameters, we develop DNNs
with a multi-scale sparse regularization (SDNN) for effectively representing
functions having certain singularities. We then apply the proposed SDNN to
numerical solutions of the Burgers equation and the Schr\"odinger equation.
Numerical examples confirm that solutions generated by the proposed SDNN are
sparse and accurate.
- Abstract(参考訳): アプリケーションで利用可能なデータ量が増えているため、データ処理にはより高度な学習モデルが要求される。
私たちが遭遇するデータは、特定のスパーシティ構造を持つことが多い。
すなわち、それらが適切な基底で表現された場合、それらのエネルギーは少数の基底関数に集中することができる。
本稿では,複数のパラメータを持つ疎正規化を持つディープニューラルネットワーク(dnns)を用いて,解が特異性を持つ非線形偏微分方程式の解の適応近似に関する数値的研究を行う。
DNNは、複数のパラメータを持つペナルティを用いて、関数の適応表現に好適な固有のマルチスケール構造を持ち、特定の特異点を持つ関数を効果的に表現するためのマルチスケールスパース正規化(SDNN)を用いてDNNを開発する。
次に、提案したSDNNをバーガーズ方程式とシュリンガー方程式の数値解に適用する。
数値的な例では、提案したSDNNが生成する解はスパースで正確である。
関連論文リスト
- RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Accelerated Solutions of Coupled Phase-Field Problems using Generative
Adversarial Networks [0.0]
我々は,エンコーダデコーダに基づく条件付きGeneLSTM層を用いたニューラルネットワークに基づく新しいフレームワークを開発し,Cahn-Hilliardマイクロ構造方程式を解く。
トレーニングされたモデルはメッシュとスケールに依存しないため、効果的なニューラル演算子としての応用が保証される。
論文 参考訳(メタデータ) (2022-11-22T08:32:22Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Finite Basis Physics-Informed Neural Networks (FBPINNs): a scalable
domain decomposition approach for solving differential equations [20.277873724720987]
我々はFBPINN(Finite Basis PINNs)と呼ばれる微分方程式に関連する大きな問題を解くための新しいスケーラブルなアプローチを提案する。
FBPINNは古典的有限要素法に着想を得ており、微分方程式の解はコンパクトな支持を持つ基底関数の有限集合の和として表される。
FBPINNでは、ニューラルネットワークを使ってこれらの基底関数を学習する。
論文 参考訳(メタデータ) (2021-07-16T13:03:47Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。