論文の概要: NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition
- arxiv url: http://arxiv.org/abs/2302.10255v2
- Date: Sat, 27 May 2023 23:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:27:35.628911
- Title: NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition
- Title(参考訳): NeuralStagger:時空間分解を用いた物理制約型ニューラルPDEソルバ
- Authors: Xinquan Huang, Wenlei Shi, Qi Meng, Yue Wang, Xiaotian Gao, Jia Zhang,
Tie-Yan Liu
- Abstract要約: 本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
- 参考スコア(独自算出の注目度): 67.46012350241969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have shown great potential in accelerating the solution of
partial differential equations (PDEs). Recently, there has been a growing
interest in introducing physics constraints into training neural PDE solvers to
reduce the use of costly data and improve the generalization ability. However,
these physics constraints, based on certain finite dimensional approximations
over the function space, must resolve the smallest scaled physics to ensure the
accuracy and stability of the simulation, resulting in high computational costs
from large input, output, and neural networks. This paper proposes a general
acceleration methodology called NeuralStagger by spatially and temporally
decomposing the original learning tasks into several coarser-resolution
subtasks. We define a coarse-resolution neural solver for each subtask, which
requires fewer computational resources, and jointly train them with the vanilla
physics-constrained loss by simply arranging their outputs to reconstruct the
original solution. Due to the perfect parallelism between them, the solution is
achieved as fast as a coarse-resolution neural solver. In addition, the trained
solvers bring the flexibility of simulating with multiple levels of resolution.
We demonstrate the successful application of NeuralStagger on 2D and 3D fluid
dynamics simulations, which leads to an additional $10\sim100\times$ speed-up.
Moreover, the experiment also shows that the learned model could be well used
for optimal control.
- Abstract(参考訳): ニューラルネットワークは偏微分方程式(PDE)の解を加速する大きな可能性を示している。
近年、コストのかかるデータの使用を減らし、一般化能力を向上させるために、ニューラルネットワークPDEソルバのトレーニングに物理制約を導入することへの関心が高まっている。
しかし、これらの物理制約は関数空間上の有限次元近似に基づいており、シミュレーションの精度と安定性を確保するために最小のスケール物理学を解決し、大きな入力、出力、ニューラルネットワークの計算コストが高くなる。
本稿では,元の学習タスクを複数の粗いサブタスクに空間的および時間的に分解することにより,neuralstaggerと呼ばれる一般的な加速度法を提案する。
計算資源の少ないサブタスク毎に粗分解能ニューラルソルバを定義し、元の解を再構成するために出力をアレンジするだけでバニラ物理制約による損失を共同で訓練する。
それらの間の完全な並列性のため、解法は粗分解性ニューラルソルバと同じくらい早く達成される。
さらに、訓練されたソルバは、複数のレベルの解像度でシミュレートする柔軟性をもたらす。
2次元および3次元流体力学シミュレーションにおけるneuralstaggerの応用の成功を実証し、さらに$10\sim100\times$のスピードアップを実現する。
さらに,実験結果から,学習モデルが最適制御に有効であることが示唆された。
関連論文リスト
- Metamizer: a versatile neural optimizer for fast and accurate physics simulations [4.717325308876749]
本稿では,広範囲の物理システムを高精度で反復的に解く,新しいニューラルネットワークであるMetamizerを紹介する。
我々は,メタマイザがディープラーニングに基づくアプローチにおいて,前例のない精度で達成できることを実証した。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:54:31Z) - Text2PDE: Latent Diffusion Models for Accessible Physics Simulation [7.16525545814044]
物理シミュレーションに潜時拡散モデルを適用する方法をいくつか紹介する。
提案手法は、現在のニューラルPDEソルバと、精度と効率の両面で競合することを示す。
スケーラブルで正確で使用可能な物理シミュレータを導入することで、ニューラルPDEソルバを実用化に近づけたいと思っています。
論文 参考訳(メタデータ) (2024-10-02T01:09:47Z) - Scaling physics-informed hard constraints with mixture-of-experts [0.0]
我々は、Mixture-of-Experts (MoE) を用いて、ハード物理制約を強制するためのスケーラブルなアプローチを開発する。
MoEは小さなドメインに対する制約を課し、それぞれが微分可能な最適化によって"専門家"によって解決される。
標準的な微分可能最適化と比較して、我々のスケーラブルなアプローチは、ニューラルPDEソルバ設定においてより精度が高い。
論文 参考訳(メタデータ) (2024-02-20T22:45:00Z) - Learning Generic Solutions for Multiphase Transport in Porous Media via
the Flux Functions Operator [0.0]
DeepDeepONetは、レンダリングフラックスDEを高速化する強力なツールとして登場した。
我々は、入力ペア出力の観測を伴わずにこのマッピングを実現するために、Physical-In DeepONets (PI-DeepONets) を用いている。
論文 参考訳(メタデータ) (2023-07-03T21:10:30Z) - Super-resolving sparse observations in partial differential equations: A
physics-constrained convolutional neural network approach [6.85316573653194]
非線形偏微分方程式のスパース観測から高分解能解を推定する物理制約畳み込みニューラルネットワーク(CNN)を提案する。
データセットの事前の物理知識を制約することにより、高解像度のトレーニングを使わずに未解決の物理力学を推測できることが示される。
論文 参考訳(メタデータ) (2023-06-19T15:00:04Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。