論文の概要: Predicting Change, Not States: An Alternate Framework for Neural PDE Surrogates
- arxiv url: http://arxiv.org/abs/2412.13074v1
- Date: Tue, 17 Dec 2024 16:41:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:44.908649
- Title: Predicting Change, Not States: An Alternate Framework for Neural PDE Surrogates
- Title(参考訳): 変化を予測するNot States: ニューラルネットワークPDEサロゲートの代替フレームワーク
- Authors: Anthony Zhou, Amir Barati Farimani,
- Abstract要約: 本稿では,ニューラルソルバが時間微分を予測し,ODE積分器が時間内に解を前進させる枠組みを提案する。
トレーニング対象を変更するだけで、推論中に数値積分を導入することで、ニューラルネットワークのサロゲートは精度と安定性を得ることができる。
- 参考スコア(独自算出の注目度): 7.136205674624813
- License:
- Abstract: Neural surrogates for partial differential equations (PDEs) have become popular due to their potential to quickly simulate physics. With a few exceptions, neural surrogates generally treat the forward evolution of time-dependent PDEs as a black box by directly predicting the next state. While this is a natural and easy framework for applying neural surrogates, it can be an over-simplified and rigid framework for predicting physics. In this work, we propose an alternative framework in which neural solvers predict the temporal derivative and an ODE integrator forwards the solution in time, which has little overhead and is broadly applicable across model architectures and PDEs. We find that by simply changing the training target and introducing numerical integration during inference, neural surrogates can gain accuracy and stability. Predicting temporal derivatives also allows models to not be constrained to a specific temporal discretization, allowing for flexible time-stepping during inference or training on higher-resolution PDE data. Lastly, we investigate why this new framework can be beneficial and in what situations does it work well.
- Abstract(参考訳): 偏微分方程式(PDE)に対するニューラルサロゲートは、物理を素早くシミュレートする可能性から人気がある。
少数の例外を除いて、ニューラルサロゲートは一般に次の状態を直接予測することで、時間依存PDEの前方進化をブラックボックスとして扱う。
これはニューラルサロゲートを適用するための自然で簡単なフレームワークであるが、物理を予測するための過度に単純化され固いフレームワークである。
本研究では,ニューラルソルバが時間微分を予測し,ODEインテグレータが解を時間的に前進させるフレームワークを提案する。
トレーニング対象を変更するだけで、推論中に数値積分を導入することで、ニューラルネットワークのサロゲートは精度と安定性を得ることができる。
時間的微分を予測することにより、モデルは特定の時間的離散化に制約されず、推論中に柔軟なタイムステッピングや高解像度PDEデータのトレーニングが可能になる。
最後に、この新しいフレームワークがなぜ有益なのか、どのような状況でうまく機能するのかについて検討する。
関連論文リスト
- PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Enhanced Spatiotemporal Prediction Using Physical-guided And Frequency-enhanced Recurrent Neural Networks [17.91230192726962]
本稿では,時空間力学を推定する物理誘導型ニューラルネットワークを提案する。
また、物理状態をより正確にモデル化するための物理制約付き適応二階ルンゲ・クッタ法を提案する。
我々のモデルは最先端の手法より優れ、より少ないパラメータ数でデータセットで最高の性能を発揮する。
論文 参考訳(メタデータ) (2024-05-23T12:39:49Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - PDE-Refiner: Achieving Accurate Long Rollouts with Neural PDE Solvers [40.097474800631]
時間依存偏微分方程式(PDE)は、科学や工学においてユビキタスである。
ディープニューラルネットワークに基づくサロゲートへの関心が高まっている。
論文 参考訳(メタデータ) (2023-08-10T17:53:05Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - GrADE: A graph based data-driven solver for time-dependent nonlinear
partial differential equations [0.0]
本稿では,時間依存非線形PDEを解くためのグラフ注意微分方程式(GrADE)を提案する。
提案するアプローチは、FNN、グラフニューラルネットワークと、最近開発されたNeural ODEフレームワークを結合する。
その結果、PDEのモデリングにおける提案フレームワークの能力と、再トレーニングを必要とせず、より大きなドメインへの拡張性を示した。
論文 参考訳(メタデータ) (2021-08-24T10:49:03Z) - Long-time integration of parametric evolution equations with
physics-informed DeepONets [0.0]
ランダムな初期条件を関連するPDE解に短時間でマッピングする無限次元演算子を学習するための効果的なフレームワークを提案する。
その後、訓練されたモデルを反復的に評価することにより、一連の初期条件にわたるグローバルな長期予測が得られる。
これは時間領域分解に対する新しいアプローチを導入し、正確な長期シミュレーションを実行するのに有効であることを示した。
論文 参考訳(メタデータ) (2021-06-09T20:46:17Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。