論文の概要: NeuralStagger: accelerating physics-constrained neural PDE solver with
spatial-temporal decomposition
- arxiv url: http://arxiv.org/abs/2302.10255v1
- Date: Mon, 20 Feb 2023 19:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 17:19:42.744199
- Title: NeuralStagger: accelerating physics-constrained neural PDE solver with
spatial-temporal decomposition
- Title(参考訳): NeuralStagger: 時空間分解を伴う物理制約型ニューラルPDEソルバ
- Authors: Xinquan Huang, Wenlei Shi, Qi Meng, Yue Wang, Xiaotian Gao, Jia Zhang,
Tie-Yan Liu
- Abstract要約: 本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
- 参考スコア(独自算出の注目度): 67.46012350241969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have shown great potential in accelerating the solution of
partial differential equations (PDEs). Recently, there has been a growing
interest in introducing physics constraints into training neural PDE solvers to
reduce the use of costly data and improve the generalization ability. However,
these physics constraints, based on certain finite dimensional approximations
over the function space, must resolve the smallest scaled physics to ensure the
accuracy and stability of the simulation, resulting in high computational costs
from large input, output, and neural networks. This paper proposes a general
acceleration methodology called NeuralStagger by spatially and temporally
decomposing the original learning tasks into several coarser-resolution
subtasks. We define a coarse-resolution neural solver for each subtask, which
requires fewer computational resources, and jointly train them with the vanilla
physics-constrained loss by simply arranging their outputs to reconstruct the
original solution. Due to the perfect parallelism between them, the solution is
achieved as fast as a coarse-resolution neural solver. In addition, the trained
solvers bring the flexibility of simulating with multiple levels of resolution.
We demonstrate the successful application of NeuralStagger on 2D and 3D fluid
dynamics simulations, which leads to an additional $10\sim100\times$ speed-up.
Moreover, the experiment also shows that the learned model could be well used
for optimal control.
- Abstract(参考訳): ニューラルネットワークは偏微分方程式(PDE)の解を加速する大きな可能性を示している。
近年、コストのかかるデータの使用を減らし、一般化能力を向上させるために、ニューラルネットワークPDEソルバのトレーニングに物理制約を導入することへの関心が高まっている。
しかし、これらの物理制約は関数空間上の有限次元近似に基づいており、シミュレーションの精度と安定性を確保するために最小のスケール物理学を解決し、大きな入力、出力、ニューラルネットワークの計算コストが高くなる。
本稿では,元の学習タスクを複数の粗いサブタスクに空間的および時間的に分解することにより,neuralstaggerと呼ばれる一般的な加速度法を提案する。
計算資源の少ないサブタスク毎に粗分解能ニューラルソルバを定義し、元の解を再構成するために出力をアレンジするだけでバニラ物理制約による損失を共同で訓練する。
それらの間の完全な並列性のため、解法は粗分解性ニューラルソルバと同じくらい早く達成される。
さらに、訓練されたソルバは、複数のレベルの解像度でシミュレートする柔軟性をもたらす。
2次元および3次元流体力学シミュレーションにおけるneuralstaggerの応用の成功を実証し、さらに$10\sim100\times$のスピードアップを実現する。
さらに,実験結果から,学習モデルが最適制御に有効であることが示唆された。
関連論文リスト
- Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Spatio-Temporal Super-Resolution of Dynamical Systems using
Physics-Informed Deep-Learning [0.0]
本稿では,PDE解の空間的・時間的分解能を高める物理インフォームド・ディープ・ラーニング・ベース・フレームワークを提案する。
このフレームワークは、2つの訓練可能なモジュールから成り、独立に超解(空間と時間の両方) PDE ソリューションである。
提案手法は,工学設計における計算複雑性を低減するため,従来の数値手法との統合に適している。
論文 参考訳(メタデータ) (2022-12-08T18:30:18Z) - Exploring Physical Latent Spaces for Deep Learning [27.677428408757763]
偏微分方程式(PDE)を用いた物理シミュレーションによる深部ニューラルネットワークモデルの訓練について検討する。
従来の研究とは対照的に、シミュレーションされた空間に制約を課すのではなく、ニューラルネットワークが使用するツールとして、その自由度を純粋に扱います。
論文 参考訳(メタデータ) (2022-11-21T09:41:18Z) - Physics-informed Deep Super-resolution for Spatiotemporal Data [18.688475686901082]
ディープ・ラーニングは、粗い粒度のシミュレーションに基づいて科学的データを増やすのに使うことができる。
物理インフォームドラーニングにインスパイアされた、豊かで効率的な時間的超解像フレームワークを提案する。
その結果,提案手法の有効性と効率が,ベースラインアルゴリズムと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T13:57:35Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Network Method for Solving One-Dimensional
Advection Equation Using PyTorch [0.0]
PINNのアプローチは、最適化の強い制約としてPDEを尊重しながらニューラルネットワークのトレーニングを可能にします。
標準的な小規模循環シミュレーションでは、従来のアプローチは乱流拡散モデルの効果とほぼ同じ大きさの擬似拡散効果を組み込むことが示されている。
テストされた全てのスキームのうち、ピンズ近似のみが結果を正確に予測した。
論文 参考訳(メタデータ) (2021-03-15T05:39:17Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。