論文の概要: Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2012.02895v1
- Date: Fri, 4 Dec 2020 23:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:30:05.350796
- Title: Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations
- Title(参考訳): 線形および非線形偏微分方程式を解くための局所極値学習機械と領域分解
- Authors: Suchuan Dong, Zongwei Li
- Abstract要約: 本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a neural network-based method for solving linear and nonlinear
partial differential equations, by combining the ideas of extreme learning
machines (ELM), domain decomposition and local neural networks. The field
solution on each sub-domain is represented by a local feed-forward neural
network, and $C^k$ continuity is imposed on the sub-domain boundaries. Each
local neural network consists of a small number of hidden layers, while its
last hidden layer can be wide. The weight/bias coefficients in all hidden
layers of the local neural networks are pre-set to random values and are fixed,
and only the weight coefficients in the output layers are training parameters.
The overall neural network is trained by a linear or nonlinear least squares
computation, not by the back-propagation type algorithms. We introduce a block
time-marching scheme together with the presented method for long-time dynamic
simulations. The current method exhibits a clear sense of convergence with
respect to the degrees of freedom in the neural network. Its numerical errors
typically decrease exponentially or nearly exponentially as the number of
degrees of freedom increases. Extensive numerical experiments have been
performed to demonstrate the computational performance of the presented method.
We compare the current method with the deep Galerkin method (DGM) and the
physics-informed neural network (PINN) in terms of the accuracy and
computational cost. The current method exhibits a clear superiority, with its
numerical errors and network training time considerably smaller (typically by
orders of magnitude) than those of DGM and PINN. We also compare the current
method with the classical finite element method (FEM). The computational
performance of the current method is on par with, and oftentimes exceeds, the
FEM performance.
- Abstract(参考訳): 本稿では,エクストリーム・ラーニング・マシン(elm),ドメイン分割(domain decomposition),局所ニューラルネットワーク(local neural network)のアイデアを組み合わせた,線形および非線形偏微分方程式の解法を提案する。
各サブドメインのフィールドソリューションは、ローカルフィードフォワードニューラルネットワークで表現され、サブドメイン境界に$c^k$連続性が課される。
各ローカルニューラルネットワークは、少数の隠れレイヤで構成されているが、最後の隠れレイヤは幅がある。
局所ニューラルネットワークのすべての隠蔽層における重み/バイアス係数はランダムな値に予め設定されており、出力層内の重み係数のみがトレーニングパラメータである。
全体ニューラルネットワークは、バックプロパゲーション型アルゴリズムではなく、線形または非線形の最小二乗計算によって訓練される。
本稿では,長期動的シミュレーションのためのブロック時間マーチング手法を提案する。
本手法は、ニューラルネットワークにおける自由度に関して明確な収束感を示す。
その数値誤差は通常、自由度が増加するにつれて指数関数的にまたはほぼ指数関数的に減少する。
提案手法の計算性能を実証するために, 広範囲な数値実験を行った。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
現在の手法では,DGM や PINN に比べて,数値誤差やネットワークトレーニング時間(典型的には桁違い)がかなり小さいため,明らかな優位性を示す。
また、現在の手法を古典有限要素法(FEM)と比較する。
現在の手法の計算性能は、FEMの性能と同等であり、しばしば同等である。
関連論文リスト
- A Nonoverlapping Domain Decomposition Method for Extreme Learning Machines: Elliptic Problems [0.0]
エクストリーム・ラーニング・マシン(ELM)は、単一層フィードフォワードニューラルネットワークを用いて偏微分方程式(PDE)を解く手法である。
本稿では,EMMのトレーニング時間を短縮するだけでなく,並列計算にも適する非重複領域分解法(DDM)を提案する。
論文 参考訳(メタデータ) (2024-06-22T23:25:54Z) - Implicit regularization of deep residual networks towards neural ODEs [8.075122862553359]
我々は、ニューラルネットワークに対する深い残留ネットワークの暗黙的な正規化を確立する。
ネットワークがニューラルなODEの離散化であるなら、そのような離散化はトレーニングを通して維持される。
論文 参考訳(メタデータ) (2023-09-03T16:35:59Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Local neural operator for solving transient partial differential
equations on varied domains [8.905324065830861]
そこで本稿では,PDE(Transient partial differential equation)の解法として局所ニューラル演算子(LNO)を提案する。
境界処理を含む便利な戦略が組み合わさり、1つの事前訓練されたLNOが、異なるドメインでのソリューションを予測することができる。
LNO はランダムに生成されたデータサンプルから Navier-Stokes 方程式を学習し、事前学習した LNO を明示的な数値マーチングスキームとして使用する。
論文 参考訳(メタデータ) (2022-03-11T06:41:51Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Cell-average based neural network method for hyperbolic and parabolic
partial differential equations [0.0]
有限体積スキームをベースとしたセル平均ニューラルネットワーク手法を提案する。
セル平均に基づくニューラルネットワーク法は、ほとんどゼロの数値拡散を導入して接触不連続性を急激に進化させることができる。
衝撃波と希薄波は非線形双曲保存法則のためによく捕獲される。
論文 参考訳(メタデータ) (2021-07-02T03:29:45Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。