論文の概要: A Discontinuity Capturing Shallow Neural Network for Elliptic Interface
Problems
- arxiv url: http://arxiv.org/abs/2106.05587v1
- Date: Thu, 10 Jun 2021 08:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:02:33.252383
- Title: A Discontinuity Capturing Shallow Neural Network for Elliptic Interface
Problems
- Title(参考訳): 楕円型インタフェース問題に対する浅層ニューラルネットワークの不連続捕捉
- Authors: Wei-Fan Hu and Te-Sheng Lin and Ming-Chih Lai
- Abstract要約: 連続関数を$d$次元で近似し,楕円型インタフェース問題を解くための不連続キャプチャ・シャローニューラルネットワーク(DCSNN)を開発した。
DCSNNモデルは、トレーニングが必要なパラメータの適度な数だけのために、比較的に効率的である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a new Discontinuity Capturing Shallow Neural Network (DCSNN)
for approximating $d$-dimensional piecewise continuous functions and for
solving elliptic interface problems is developed. There are three novel
features in the present network; namely, (i) jump discontinuity is captured
sharply, (ii) it is completely shallow consisting of only one hidden layer,
(iii) it is completely mesh-free for solving partial differential equations
(PDEs). We first continuously extend the $d$-dimensional piecewise continuous
function in $(d+1)$-dimensional space by augmenting one coordinate variable to
label the pieces of discontinuous function, and then construct a shallow neural
network to express this new augmented function. Since only one hidden layer is
employed, the number of training parameters (weights and biases) scales
linearly with the dimension and the neurons used in the hidden layer. For
solving elliptic interface equations, the network is trained by minimizing the
mean squared error loss that consists of the residual of governing equation,
boundary condition, and the interface jump conditions. We perform a series of
numerical tests to compare the accuracy and efficiency of the present network.
Our DCSNN model is comparably efficient due to only moderate number of
parameters needed to be trained (a few hundreds of parameters used throughout
all numerical examples here), and the result shows better accuracy (and less
parameters) than other method using piecewise deep neural network in
literature. We also compare the results obtained by the traditional grid-based
immersed interface method (IIM) which is designed particularly for elliptic
interface problems. Again, the present results show better accuracy than the
ones obtained by IIM. We conclude by solving a six-dimensional problem to show
the capability of the present network for high-dimensional applications.
- Abstract(参考訳): 本稿では,d$次元の区分的連続関数を近似し,楕円界面問題を解くための,新しい不連続な浅層ニューラルネットワーク(dcsnn)を開発した。
現在のネットワークには3つの新しい特徴がある: (i) ジャンプの不連続性を鋭く捉え、 (ii) 隠れた1つの層のみからなる完全に浅い、 (iii) 偏微分方程式(PDE)を解くために完全にメッシュフリーである。
まず,不連続関数をラベル付けするために1つの座標変数を拡大することにより,$d$次元のピースワイド連続関数を$(d+1)$次元空間で連続的に拡張し,さらに,この新たな拡張関数を表現するために浅いニューラルネットワークを構築した。
隠れた層が1つしかないため、トレーニングパラメータ(重みとバイアス)の数は、隠れた層で使用される次元とニューロンと線形にスケールする。
楕円界面方程式を解くために、ネットワークは、制御方程式の残差、境界条件、および界面跳躍条件からなる平均二乗誤差損失を最小化することによって訓練される。
本稿では,ネットワークの精度と効率を比較するために,一連の数値実験を行う。
我々のDCSNNモデルは、トレーニングされる必要のあるパラメータの適度な数だけ(ここではすべての数値例で使用される数百のパラメータ)のため、比較可能な効率がよい。
また,従来のグリッドベース没入インタフェース法 (IIM) による楕円型インタフェース問題に対する結果との比較を行った。
その結果,IIMの精度はIIMよりも高いことがわかった。
結論として,6次元問題を解くことで,現在のネットワークの高次元応用能力を示す。
関連論文リスト
- A Nonoverlapping Domain Decomposition Method for Extreme Learning Machines: Elliptic Problems [0.0]
エクストリーム・ラーニング・マシン(ELM)は、単一層フィードフォワードニューラルネットワークを用いて偏微分方程式(PDE)を解く手法である。
本稿では,EMMのトレーニング時間を短縮するだけでなく,並列計算にも適する非重複領域分解法(DDM)を提案する。
論文 参考訳(メタデータ) (2024-06-22T23:25:54Z) - Adaptive Multilevel Neural Networks for Parametric PDEs with Error Estimation [0.0]
ニューラルネットワークアーキテクチャは高次元パラメータ依存偏微分方程式(pPDE)を解くために提示される
モデルデータのパラメータを対応する有限要素解にマッピングするために構築される。
適応有限要素法(AFEM)で生成される粗いグリッド解と一連の補正を出力する。
論文 参考訳(メタデータ) (2024-03-19T11:34:40Z) - The Implicit Bias of Minima Stability in Multivariate Shallow ReLU
Networks [53.95175206863992]
本研究では,2次損失を持つ1層多変量ReLUネットワークをトレーニングする際に,勾配勾配勾配が収束する解のタイプについて検討する。
我々は、浅いReLUネットワークが普遍近似器であるにもかかわらず、安定した浅層ネットワークは存在しないことを証明した。
論文 参考訳(メタデータ) (2023-06-30T09:17:39Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - A cusp-capturing PINN for elliptic interface problems [0.0]
ネットワークに付加的な特徴入力としてカスプ強化レベルセット関数を導入し,本質的な解特性を維持する。
提案したニューラルネットワークはメッシュフリーの利点があるため、不規則なドメインでの問題を容易に処理できる。
本研究では,カスプキャプチャ手法の有効性とネットワークモデルの精度を実証するために,一連の数値実験を行った。
論文 参考訳(メタデータ) (2022-10-16T03:05:18Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - A Shallow Ritz Method for elliptic problems with Singular Sources [0.1574941677049471]
我々は,インターフェース上のデルタ関数特異源を用いた楕円問題の解法として,浅いリッツ型ニューラルネットワークを開発した。
インターフェースのレベルセット関数を特徴入力として含み、トレーニング効率と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-26T08:07:19Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。