論文の概要: Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation
- arxiv url: http://arxiv.org/abs/2010.12975v1
- Date: Sat, 24 Oct 2020 20:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:45:45.280681
- Title: Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation
- Title(参考訳): legendre-galerkin近似による微分方程式解のためのディープニューラルネットワーク
- Authors: Bryce Chudomelka and Youngjoon Hong and Hyunwoo Kim and Jinyoung Park
- Abstract要約: 線形微分方程式と非線形微分方程式の両方における様々なニューラルネットワークアーキテクチャの性能と精度について検討する。
我々は、微分方程式の解を予測するために、新しいレジェンダ-ガレルキンディープニューラルネットワーク(LGNet)アルゴリズムを実装した。
- 参考スコア(独自算出の注目度): 16.64525769134209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonlinear differential equations are challenging to solve numerically and are
important to understanding the dynamics of many physical systems. Deep neural
networks have been applied to help alleviate the computational cost that is
associated with solving these systems. We explore the performance and accuracy
of various neural architectures on both linear and nonlinear differential
equations by creating accurate training sets with the spectral element method.
Next, we implement a novel Legendre-Galerkin Deep Neural Network (LGNet)
algorithm to predict solutions to differential equations. By constructing a set
of a linear combination of the Legendre basis, we predict the corresponding
coefficients, $\alpha_i$ which successfully approximate the solution as a sum
of smooth basis functions $u \simeq \sum_{i=0}^{N} \alpha_i \varphi_i$. As a
computational example, linear and nonlinear models with Dirichlet or Neumann
boundary conditions are considered.
- Abstract(参考訳): 非線形微分方程式は数値的に解くのが難しく、多くの物理系の力学を理解するのに重要である。
ディープニューラルネットワークは、これらのシステムの解決に関連する計算コストを軽減するために応用されている。
スペクトル要素法による正確なトレーニングセットを作成することにより,線形微分方程式および非線形微分方程式の様々なニューラルネットワークの性能と精度について検討する。
次に, 微分方程式の解を予測するために, 新たなlegendre-galerkin deep neural network (lgnet)アルゴリズムを実装した。
ルジャンドル基底の線型結合の集合を構成することにより、対応する係数 $\alpha_i$ を滑らかな基底関数 $u \simeq \sum_{i=0}^{N} \alpha_i \varphi_i$ の和として解をうまく近似する。
計算の例として、ディリクレあるいはノイマン境界条件を持つ線型および非線形モデルを考える。
関連論文リスト
- Divergence-free algorithms for solving nonlinear differential equations on quantum computers [0.27624021966289597]
量子コンピュータにおける非線形微分方程式の分散自由シミュレーションのアルゴリズムを提案する。
進化時間制約のない非線形微分方程式の解は、量子コンピュータの実用的な応用への扉を開く。
論文 参考訳(メタデータ) (2024-11-25T09:47:24Z) - A backward differential deep learning-based algorithm for solving high-dimensional nonlinear backward stochastic differential equations [0.6040014326756179]
本稿では,高次元非線形逆微分方程式を解くための新しい逆微分深層学習アルゴリズムを提案する。
ディープニューラルネットワーク(DNN)モデルは、入力やラベルだけでなく、対応するラベルの差分に基づいて訓練される。
論文 参考訳(メタデータ) (2024-04-12T13:05:35Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - DEQGAN: Learning the Loss Function for PINNs with Generative Adversarial
Networks [1.0499611180329804]
本研究は、生成逆数ネットワークを用いた微分方程式の解法である微分方程式GAN(DEQGAN)を提案する。
DeQGAN は PINN よりも 平均二乗誤差が桁違いに小さくなることを示す。
また、DECGANは、一般的な数値法と競合する解の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:39:47Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。