論文の概要: Multipole Graph Neural Operator for Parametric Partial Differential
Equations
- arxiv url: http://arxiv.org/abs/2006.09535v2
- Date: Mon, 19 Oct 2020 20:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:30:35.278244
- Title: Multipole Graph Neural Operator for Parametric Partial Differential
Equations
- Title(参考訳): パラメトリック偏微分方程式に対する多極グラフニューラルネットワーク
- Authors: Zongyi Li, Nikola Kovachki, Kamyar Azizzadenesheli, Burigede Liu,
Kaushik Bhattacharya, Andrew Stuart, Anima Anandkumar
- Abstract要約: 物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
- 参考スコア(独自算出の注目度): 57.90284928158383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main challenges in using deep learning-based methods for
simulating physical systems and solving partial differential equations (PDEs)
is formulating physics-based data in the desired structure for neural networks.
Graph neural networks (GNNs) have gained popularity in this area since graphs
offer a natural way of modeling particle interactions and provide a clear way
of discretizing the continuum models. However, the graphs constructed for
approximating such tasks usually ignore long-range interactions due to
unfavorable scaling of the computational complexity with respect to the number
of nodes. The errors due to these approximations scale with the discretization
of the system, thereby not allowing for generalization under mesh-refinement.
Inspired by the classical multipole methods, we propose a novel multi-level
graph neural network framework that captures interaction at all ranges with
only linear complexity. Our multi-level formulation is equivalent to
recursively adding inducing points to the kernel matrix, unifying GNNs with
multi-resolution matrix factorization of the kernel. Experiments confirm our
multi-graph network learns discretization-invariant solution operators to PDEs
and can be evaluated in linear time.
- Abstract(参考訳): 深層学習に基づく物理システムのシミュレーションと偏微分方程式(pdes)の解法の主な課題の1つは、物理学に基づくデータをニューラルネットワークの所望の構造に定式化することである。
グラフニューラルネットワーク(GNN)は、グラフが粒子相互作用をモデル化し、連続体モデルを識別する自然な方法を提供するため、この分野で人気を集めている。
しかし、そのようなタスクを近似するために構築されたグラフは、通常、ノード数に関して計算複雑性が不利なスケーリングのために長距離相互作用を無視する。
これらの近似による誤差はシステムの離散化とともにスケールし、メッシュリファインメントの下での一般化ができない。
古典的マルチポール法に着想を得て,線形複雑度のみを用いて,あらゆる領域の相互作用を捉える,新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
マルチレベルな定式化は、カーネルマトリックスに帰納的誘導点を付加することと同値であり、gnnをカーネルのマルチレゾリューション行列分解と統合する。
マルチグラフネットワークはpdesに離散化不変な解演算子を学習し,線形時間で評価できる。
関連論文リスト
- Accelerated Solutions of Coupled Phase-Field Problems using Generative
Adversarial Networks [0.0]
我々は,エンコーダデコーダに基づく条件付きGeneLSTM層を用いたニューラルネットワークに基づく新しいフレームワークを開発し,Cahn-Hilliardマイクロ構造方程式を解く。
トレーニングされたモデルはメッシュとスケールに依存しないため、効果的なニューラル演算子としての応用が保証される。
論文 参考訳(メタデータ) (2022-11-22T08:32:22Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Learning the Solution Operator of Boundary Value Problems using Graph
Neural Networks [0.0]
グラフニューラルネットワーク(GNN)とスペクトルグラフ畳み込みを用いた2つの異なる時間非依存PDEに対する一般解演算子を設計する。
我々は、様々な形状と不均一性の有限要素ソルバからシミュレーションデータを用いてネットワークを訓練する。
有限要素メッシュの変動が多岐にわたる多様なデータセット上でのトレーニングが,優れた一般化結果を得るための鍵となる要素であることがわかった。
論文 参考訳(メタデータ) (2022-06-28T15:39:06Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation [16.64525769134209]
線形微分方程式と非線形微分方程式の両方における様々なニューラルネットワークアーキテクチャの性能と精度について検討する。
我々は、微分方程式の解を予測するために、新しいレジェンダ-ガレルキンディープニューラルネットワーク(LGNet)アルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-10-24T20:25:09Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。