論文の概要: Least-Squares Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Laws: Discrete Divergence Operator
- arxiv url: http://arxiv.org/abs/2110.10895v3
- Date: Sun, 7 May 2023 06:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 01:20:41.780359
- Title: Least-Squares Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Laws: Discrete Divergence Operator
- Title(参考訳): 非線形双曲保存法における最小二乗ニューラルネットワーク(LSNN)法:離散分散演算子
- Authors: Zhiqiang Cai, Jingshuang Chen, Min Liu
- Abstract要約: スカラー線形双曲保存法を解くために、最小二乗ニューラルネットワーク(LSNN)法が導入された。
本稿では,HCLを時間空間の発散形式に書き換え,新たな発散作用素を導入する。
- 参考スコア(独自算出の注目度): 4.3226069572849966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A least-squares neural network (LSNN) method was introduced for solving
scalar linear and nonlinear hyperbolic conservation laws (HCLs) in [7, 6]. This
method is based on an equivalent least-squares (LS) formulation and uses ReLU
neural network as approximating functions, making it ideal for approximating
discontinuous functions with unknown interface location. In the design of the
LSNN method for HCLs, the numerical approximation of differential operators is
a critical factor, and standard numerical or automatic differentiation along
coordinate directions can often lead to a failed NN-based method. To overcome
this challenge, this paper rewrites HCLs in their divergence form of space and
time and introduces a new discrete divergence operator. As a result, the
proposed LSNN method is free of penalization of artificial viscosity.
Theoretically, the accuracy of the discrete divergence operator is estimated
even for discontinuous solutions. Numerically, the LSNN method with the new
discrete divergence operator was tested for several benchmark problems with
both convex and non-convex fluxes, and was able to compute the correct physical
solution for problems with rarefaction, shock or compound waves. The method is
capable of capturing the shock of the underlying problem without oscillation or
smearing, even without any penalization of the entropy condition, total
variation, and/or artificial viscosity.
- Abstract(参考訳): 7, 6] におけるスカラー線形・非線形双曲保存則(HCL)の解法として, 最小二乗ニューラルネットワーク(LSNN)法を導入した。
この方法は、等価最小二乗法(LS)の定式化に基づいており、ReLUニューラルネットワークを近似関数として使用し、不連続関数を未知のインターフェース位置で近似するのに最適である。
HCLのLSNN法の設計において、微分演算子の数値近似は重要な要素であり、座標方向に沿った標準的な数値や自動微分は、しばしば失敗するNN法につながる。
この課題を克服するため,本稿ではhclを空間と時間の発散形式で書き直し,新たな離散発散演算子を導入する。
その結果,LSNN法は人工粘度のペナル化を伴わないことがわかった。
理論的には、離散発散作用素の精度は不連続解に対しても推定される。
数値的には、新しい離散分散演算子を用いたLSNN法は、凸流と非凸流の双方でいくつかのベンチマーク問題に対して試験され、希薄化、衝撃波、複合波の問題に対する正しい物理解を計算することができた。
エントロピー条件、全変動、および/又は人工粘度をペナライゼーションすることなく、振動やスメアリングをすることなく、基礎となる問題の衝撃を捉えることができる。
関連論文リスト
- Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Inverse Problem of Nonlinear Schr\"odinger Equation as Learning of
Convolutional Neural Network [5.676923179244324]
提案手法を用いて,パラメータの相対的精度を推定できることを示す。
深い学習を伴う偏微分方程式の逆問題における自然な枠組みを提供する。
論文 参考訳(メタデータ) (2021-07-19T02:54:37Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Least-Squares ReLU Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Law [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
本手法は,自由度数の観点からメッシュベースの数値法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T02:59:48Z) - On the Stability Properties and the Optimization Landscape of Training
Problems with Squared Loss for Neural Networks and General Nonlinear Conic
Approximation Schemes [0.0]
ニューラルネットワークと一般的な非線形円錐近似スキームの2乗損失を伴うトレーニング問題の最適化景観と安定性特性について検討する。
これらの不安定性に寄与する同じ効果が、サドル点や急激な局所ミニマの出現の原因でもあることを証明している。
論文 参考訳(メタデータ) (2020-11-06T11:34:59Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stable Neural Flows [15.318500611972441]
ニューラルネットワークによってパラメータ化されたエネルギー汎関数上で軌道が進化するニューラル常微分方程式(ニューラルODE)の確率的に安定な変種を導入する。
学習手順は最適制御問題としてキャストされ、随伴感性分析に基づいて近似解が提案される。
論文 参考訳(メタデータ) (2020-03-18T06:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。