論文の概要: Multi-resolution partial differential equations preserved learning
framework for spatiotemporal dynamics
- arxiv url: http://arxiv.org/abs/2205.03990v3
- Date: Sun, 14 Jan 2024 01:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 04:12:38.250297
- Title: Multi-resolution partial differential equations preserved learning
framework for spatiotemporal dynamics
- Title(参考訳): 時空間ダイナミクスのための多分解能偏微分方程式保存学習フレームワーク
- Authors: Xin-Yang Liu and Min Zhu and Lu Lu and Hao Sun and Jian-Xun Wang
- Abstract要約: 物理インフォームドディープラーニング(PiDL)は、物理原理をモデルに組み込むことによって、これらの課題に対処する。
我々は、ニューラルネットワークアーキテクチャに離散化された支配方程式を焼いて、物理の事前知識を活用することを提案する。
離散化されたPDEを畳み込み残差ネットワークを介して多分解能設定に埋め込むことにより、一般化可能性と長期予測を大幅に改善する。
- 参考スコア(独自算出の注目度): 11.981731023317945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional data-driven deep learning models often struggle with high
training costs, error accumulation, and poor generalizability in complex
physical processes. Physics-informed deep learning (PiDL) addresses these
challenges by incorporating physical principles into the model. Most PiDL
approaches regularize training by embedding governing equations into the loss
function, yet this depends heavily on extensive hyperparameter tuning to weigh
each loss term. To this end, we propose to leverage physics prior knowledge by
``baking'' the discretized governing equations into the neural network
architecture via the connection between the partial differential equations
(PDE) operators and network structures, resulting in a PDE-preserved neural
network (PPNN). This method, embedding discretized PDEs through convolutional
residual networks in a multi-resolution setting, largely improves the
generalizability and long-term prediction accuracy, outperforming conventional
black-box models. The effectiveness and merit of the proposed methods have been
demonstrated across various spatiotemporal dynamical systems governed by
spatiotemporal PDEs, including reaction-diffusion, Burgers', and Navier-Stokes
equations.
- Abstract(参考訳): 従来のデータ駆動ディープラーニングモデルは、複雑な物理プロセスにおける高いトレーニングコスト、エラーの蓄積、そして不十分な一般化に苦しむことが多い。
物理インフォームドディープラーニング(PiDL)は、物理原理をモデルに組み込むことによって、これらの課題に対処する。
大半のPiDLは、制御方程式を損失関数に埋め込むことで正規化訓練にアプローチするが、これは損失項を測るために広範囲なハイパーパラメータチューニングに大きく依存する。
そこで本研究では,偏微分方程式(pde)演算子とネットワーク構造との接続を通じて,離散化制御方程式をニューラルネットワークアーキテクチャに‘baking’することで,物理の事前知識を活用し,pde保存ニューラルネットワーク(ppnn)を実現することを提案する。
マルチレゾリューション設定において畳み込み残差ネットワークを介して離散化されたpdesを埋め込み、従来のブラックボックスモデルに匹敵する一般化性と長期予測精度を大幅に向上させる。
提案手法の有効性と有効性は, 反応拡散, バーガーズ, ナビエ・ストークス方程式など, 時空間PDEが支配する様々な時空間力学系で実証されている。
関連論文リスト
- Adversarial Learning for Neural PDE Solvers with Sparse Data [4.226449585713182]
本研究では,ロバストトレーニングのためのシステムモデル拡張(Systematic Model Augmentation for Robust Training)という,ニューラルネットワークPDEの普遍的学習戦略を紹介する。
モデルの弱点に挑戦し改善することに集中することにより、SMARTはデータスカース条件下でのトレーニング中の一般化エラーを低減する。
論文 参考訳(メタデータ) (2024-09-04T04:18:25Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Physics-constrained Unsupervised Learning of Partial Differential
Equations using Meshes [1.066048003460524]
グラフニューラルネットワークは、不規則にメッシュ化されたオブジェクトを正確に表現し、それらのダイナミクスを学ぶことを約束する。
本研究では、メッシュをグラフとして自然に表現し、グラフネットワークを用いてそれらを処理し、物理に基づく損失を定式化し、偏微分方程式(PDE)の教師なし学習フレームワークを提供する。
本フレームワークは, ソフトボディ変形のモデルベース制御など, PDEソルバをインタラクティブな設定に適用する。
論文 参考訳(メタデータ) (2022-03-30T19:22:56Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving
Spatiotemporal PDEs [8.220908558735884]
偏微分方程式 (Partial differential equation, PDE) は、幅広い分野の問題をモデル化し、シミュレーションする上で基礎的な役割を果たす。
近年のディープラーニングの進歩は、データ駆動逆解析の基盤としてPDEを解くために物理学インフォームドニューラルネットワーク(NN)の大きな可能性を示している。
本稿では,PDEをラベル付きデータなしで解くための物理インフォームド・畳み込み学習アーキテクチャ(PhyCRNetとPhCRyNet-s)を提案する。
論文 参考訳(メタデータ) (2021-06-26T22:22:19Z) - Physics-informed attention-based neural network for solving non-linear
partial differential equations [6.103365780339364]
物理情報ニューラルネットワーク(PINN)は、物理プロセスのモデリングにおいて大幅な改善を実現しました。
PINNは単純なアーキテクチャに基づいており、ネットワークパラメータを最適化することで複雑な物理システムの振る舞いを学習し、基礎となるPDEの残余を最小限に抑える。
ここでは、非線形PDEの複雑な振る舞いを学ぶのに、どのネットワークアーキテクチャが最適かという問題に対処する。
論文 参考訳(メタデータ) (2021-05-17T14:29:08Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Learning to Control PDEs with Differentiable Physics [102.36050646250871]
本稿では,ニューラルネットワークが長い時間をかけて複雑な非線形物理系の理解と制御を学べる新しい階層型予測器・相関器手法を提案する。
本手法は,複雑な物理系の理解に成功し,PDEに関わるタスクに対してそれらを制御できることを実証する。
論文 参考訳(メタデータ) (2020-01-21T11:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。