論文の概要: GrADE: A graph based data-driven solver for time-dependent nonlinear
partial differential equations
- arxiv url: http://arxiv.org/abs/2108.10639v1
- Date: Tue, 24 Aug 2021 10:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:23:27.839546
- Title: GrADE: A graph based data-driven solver for time-dependent nonlinear
partial differential equations
- Title(参考訳): GrADE:時間依存型非線形偏微分方程式に対するグラフベースデータ駆動解法
- Authors: Yash Kumar and Souvik Chakraborty
- Abstract要約: 本稿では,時間依存非線形PDEを解くためのグラフ注意微分方程式(GrADE)を提案する。
提案するアプローチは、FNN、グラフニューラルネットワークと、最近開発されたNeural ODEフレームワークを結合する。
その結果、PDEのモデリングにおける提案フレームワークの能力と、再トレーニングを必要とせず、より大きなドメインへの拡張性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The physical world is governed by the laws of physics, often represented in
form of nonlinear partial differential equations (PDEs). Unfortunately,
solution of PDEs is non-trivial and often involves significant computational
time. With recent developments in the field of artificial intelligence and
machine learning, the solution of PDEs using neural network has emerged as a
domain with huge potential. However, most of the developments in this field are
based on either fully connected neural networks (FNN) or convolutional neural
networks (CNN). While FNN is computationally inefficient as the number of
network parameters can be potentially huge, CNN necessitates regular grid and
simpler domain. In this work, we propose a novel framework referred to as the
Graph Attention Differential Equation (GrADE) for solving time dependent
nonlinear PDEs. The proposed approach couples FNN, graph neural network, and
recently developed Neural ODE framework. The primary idea is to use graph
neural network for modeling the spatial domain, and Neural ODE for modeling the
temporal domain. The attention mechanism identifies important inputs/features
and assign more weightage to the same; this enhances the performance of the
proposed framework. Neural ODE, on the other hand, results in constant memory
cost and allows trading of numerical precision for speed. We also propose depth
refinement as an effective technique for training the proposed architecture in
lesser time with better accuracy. The effectiveness of the proposed framework
is illustrated using 1D and 2D Burgers' equations. Results obtained illustrate
the capability of the proposed framework in modeling PDE and its scalability to
larger domains without the need for retraining.
- Abstract(参考訳): 物理世界は物理学の法則によって支配され、しばしば非線形偏微分方程式(PDE)の形で表される。
残念ながら、PDEの解は非自明であり、しばしばかなりの計算時間を必要とする。
近年の人工知能と機械学習の分野での進歩により、ニューラルネットワークを用いたPDEのソリューションが、大きな潜在能力を持つドメインとして登場した。
しかし、この分野の開発のほとんどは、完全に接続されたニューラルネットワーク(FNN)または畳み込みニューラルネットワーク(CNN)に基づいている。
FNNは計算的に非効率であり、ネットワークパラメータの数が巨大になる可能性があるが、CNNは通常のグリッドと単純なドメインを必要とする。
本稿では,時間依存非線形pdesを解くためのグラフ注意微分方程式(グレード)と呼ばれる新しい枠組みを提案する。
提案するアプローチは、FNN、グラフニューラルネットワークと、最近開発されたNeural ODEフレームワークを結合する。
第一の考え方は、空間領域をモデル化するためのグラフニューラルネットワークと、時間領域をモデル化するためのニューラルODEである。
注意機構は重要な入力/特徴を特定し、より多くの重み付けを割り当て、提案するフレームワークの性能を高める。
一方、ニューラルODEはメモリコストを一定に抑え、速度の数値的精度の取引を可能にする。
また,提案するアーキテクチャをより少ない時間で精度良く訓練するための効果的な手法として,深度改善を提案する。
提案手法の有効性を1次元および2次元バーガーズ方程式を用いて示す。
その結果、PDEのモデリングにおける提案フレームワークの能力と、再トレーニングを必要とせず、より大きなドメインへの拡張性を示した。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning time-dependent PDE solver using Message Passing Graph Neural
Networks [0.0]
本稿では,メッセージパッシングモデルを用いた学習を通して,効率的なPDE解法を見つけるためのグラフニューラルネットワーク手法を提案する。
グラフを用いて、非構造化メッシュ上でPDEデータを表現し、メッセージパッシンググラフニューラルネットワーク(MPGNN)が支配方程式をパラメータ化できることを示す。
繰り返しグラフニューラルネットワークは,PDEに対する解の時間列を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-04-15T21:10:32Z) - PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving
Spatiotemporal PDEs [8.220908558735884]
偏微分方程式 (Partial differential equation, PDE) は、幅広い分野の問題をモデル化し、シミュレーションする上で基礎的な役割を果たす。
近年のディープラーニングの進歩は、データ駆動逆解析の基盤としてPDEを解くために物理学インフォームドニューラルネットワーク(NN)の大きな可能性を示している。
本稿では,PDEをラベル付きデータなしで解くための物理インフォームド・畳み込み学習アーキテクチャ(PhyCRNetとPhCRyNet-s)を提案する。
論文 参考訳(メタデータ) (2021-06-26T22:22:19Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Fractional Deep Neural Network via Constrained Optimization [0.0]
本稿では,ディープニューラルネットワーク(DNN)のための新しいアルゴリズムフレームワークを提案する。
Fractional-DNNは、時間非線形常微分方程式(ODE)における分数の時間差分化と見なすことができる。
論文 参考訳(メタデータ) (2020-04-01T21:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。