論文の概要: Finite Volume Least-Squares Neural Network (FV-LSNN) Method for Scalar
Nonlinear Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2110.10895v1
- Date: Thu, 21 Oct 2021 04:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 18:40:43.223165
- Title: Finite Volume Least-Squares Neural Network (FV-LSNN) Method for Scalar
Nonlinear Hyperbolic Conservation Laws
- Title(参考訳): 拡張非線形双曲保存則に対する有限体積最小二乗ニューラルネットワーク(FV-LSNN)法
- Authors: Zhiqiang Cai, Jingshuang Chen, Min Liu
- Abstract要約: 本稿では,不連続解を用いた線形双曲対流の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
LSNNの自由度は従来の手法よりもはるかに少ないことを示す。
- 参考スコア(独自算出の注目度): 3.6525914200522656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In [4], we introduced the least-squares ReLU neural network (LSNN) method for
solving the linear advection-reaction problem with discontinuous solution and
showed that the number of degrees of freedom for the LSNN method is
significantly less than that of traditional mesh-based methods. The LSNN method
is a discretization of an equivalent least-squares (LS) formulation in the
class of neural network functions with the ReLU activation function; and
evaluation of the LS functional is done by using numerical integration and
proper numerical differentiation.
By developing a novel finite volume approximation (FVA) to the divergence
operator, this paper studies the LSNN method for scalar nonlinear hyperbolic
conservation laws. The FVA introduced in this paper is tailored to the LSNN
method and is more accurate than traditional, well-studied FV schemes used in
mesh-based numerical methods. Numerical results of some benchmark test problems
with both convex and non-convex fluxes show that the finite volume LSNN
(FV-LSNN) method is capable of computing the physical solution for problems
with rarefaction waves and capturing the shock of the underlying problem
automatically through the free hyper-planes of the ReLU neural network.
Moreover, the method does not exhibit the common Gibbs phenomena along the
discontinuous interface.
- Abstract(参考訳): 4]では,不連続解を用いた線形随伴反応問題を解くための最小二乗reluニューラルネットワーク (lsnn) 法を導入し,lsnn法の自由度数が従来のメッシュベース法に比べて有意に少ないことを示した。
lsnn法は、relu活性化関数を持つニューラルネットワーク関数のクラスにおける等価な最小二乗(ls)定式化の離散化であり、数値積分と適切な数値微分を用いてls関数の評価を行う。
分散演算子に対する新しい有限体積近似(FVA)を開発することにより、スカラー非線形双曲保存則のLSNN法について検討する。
本論文で導入されたFVAはLSNN法に適合し,メッシュベース数値法で使用される従来のよく研究されたFV方式よりも精度が高い。
凸流束と非凸流束のベンチマーク試験問題の数値結果から、有限体積LSNN法は、レアファクテーション波問題に対する物理解を計算し、ReLUニューラルネットワークの自由超平面を介して、基礎問題の衝撃を自動的に捉えることができることが示された。
さらに、この方法は不連続な界面に沿って共通のギブス現象を示さない。
関連論文リスト
- Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Inverse Problem of Nonlinear Schr\"odinger Equation as Learning of
Convolutional Neural Network [5.676923179244324]
提案手法を用いて,パラメータの相対的精度を推定できることを示す。
深い学習を伴う偏微分方程式の逆問題における自然な枠組みを提供する。
論文 参考訳(メタデータ) (2021-07-19T02:54:37Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Least-Squares ReLU Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Law [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
本手法は,自由度数の観点からメッシュベースの数値法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T02:59:48Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stable Neural Flows [15.318500611972441]
ニューラルネットワークによってパラメータ化されたエネルギー汎関数上で軌道が進化するニューラル常微分方程式(ニューラルODE)の確率的に安定な変種を導入する。
学習手順は最適制御問題としてキャストされ、随伴感性分析に基づいて近似解が提案される。
論文 参考訳(メタデータ) (2020-03-18T06:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。