論文の概要: Time integration schemes based on neural networks for solving partial
differential equations on coarse grids
- arxiv url: http://arxiv.org/abs/2310.10308v1
- Date: Mon, 16 Oct 2023 11:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 01:37:13.955721
- Title: Time integration schemes based on neural networks for solving partial
differential equations on coarse grids
- Title(参考訳): 粗い格子上の偏微分方程式を解くためのニューラルネットワークに基づく時間積分法
- Authors: Xinxin Yan, Zhideng Zhou, Xiaohan Cheng, Xiaolei Yang
- Abstract要約: 偏微分方程式を解く3段階線形多段階法の学習に焦点をあてる。
学習された完全制約スキームの予測誤差は,Runge-Kutta法やAdams-Bashforth法に近いことを示す。
従来の手法と比較して、学習された制約のない半制約のスキームは粗い格子上の予測誤差を著しく低減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accuracy of solving partial differential equations (PDEs) on coarse grids
is greatly affected by the choice of discretization schemes. In this work, we
propose to learn time integration schemes based on neural networks which
satisfy three distinct sets of mathematical constraints, i.e., unconstrained,
semi-constrained with the root condition, and fully-constrained with both root
and consistency conditions. We focus on the learning of 3-step linear multistep
methods, which we subsequently applied to solve three model PDEs, i.e., the
one-dimensional heat equation, the one-dimensional wave equation, and the
one-dimensional Burgers' equation. The results show that the prediction error
of the learned fully-constrained scheme is close to that of the Runge-Kutta
method and Adams-Bashforth method. Compared to the traditional methods, the
learned unconstrained and semi-constrained schemes significantly reduce the
prediction error on coarse grids. On a grid that is 4 times coarser than the
reference grid, the mean square error shows a reduction of up to an order of
magnitude for some of the heat equation cases, and a substantial improvement in
phase prediction for the wave equation. On a 32 times coarser grid, the mean
square error for the Burgers' equation can be reduced by up to 35% to 40%.
- Abstract(参考訳): 粗い格子上の偏微分方程式(pdes)の解の精度は、離散化スキームの選択に大きく影響される。
そこで本研究では,3つの異なる数学的制約セット,すなわち根条件と半拘束され,根条件と一貫性条件の両方で完全に拘束された,ニューラルネットワークに基づく時間統合スキームを学習することを提案する。
我々は3段階線形多段階法の学習に焦点をあて、その後3つのモデルPDE、すなわち1次元熱方程式、1次元波動方程式、および1次元バーガーズ方程式を解いた。
その結果,学習された完全制約スキームの予測誤差は,Runge-Kutta法やAdams-Bashforth法に近いことがわかった。
従来の方法と比較すると、学習未拘束と半拘束のスキームは粗い格子の予測誤差を大幅に低減させる。
基準格子の4倍の粗い格子上では、平均二乗誤差は、いくつかの熱方程式の場合の最大等級の減少と、波動方程式の位相予測の大幅な改善を示す。
32倍の粗い格子では、バーガースの方程式の平均平方誤差を最大35%から40%まで減少させることができる。
関連論文リスト
- Polynomial-Time Solutions for ReLU Network Training: A Complexity
Classification via Max-Cut and Zonotopes [70.52097560486683]
我々は、ReLUネットワークの近似の難しさがマックス・カッツ問題の複雑さを反映しているだけでなく、特定の場合において、それと完全に一致することを証明した。
特に、$epsilonleqsqrt84/83-1approx 0.006$とすると、目的値に関して相対誤差$epsilon$でReLUネットワーク対象の近似グローバルデータセットを見つけることはNPハードであることが示される。
論文 参考訳(メタデータ) (2023-11-18T04:41:07Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Learning Subgrid-scale Models with Neural Ordinary Differential
Equations [0.39160947065896795]
偏微分方程式(PDE)をシミュレートする際のサブグリッドスケールモデル学習のための新しい手法を提案する。
このアプローチでは、ニューラルネットワークは粗大から細小のグリッドマップを学習するために使用され、これはサブグリッドスケールのパラメータ化と見なすことができる。
提案手法はNODEの利点を継承し,サブグリッドスケールのパラメータ化,近似結合演算子,低次解法の効率向上に利用することができる。
論文 参考訳(メタデータ) (2022-12-20T02:45:09Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Parsimonious Physics-Informed Random Projection Neural Networks for
Initial-Value Problems of ODEs and index-1 DAEs [0.0]
非線形ODEのIDPの線形単純形式とインデックス-1DAEの数値解に対するランダムな投影に基づく物理インフォームニューラルネットワークに対処する。
従来のランダムなプロジェクションに関する研究に基づいて、正準形式におけるODEのスキームと半明示形式におけるインデックス-1DAEの近似能力を証明した。
論文 参考訳(メタデータ) (2022-03-10T12:34:46Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Actor-Critic Algorithm for High-dimensional Partial Differential
Equations [1.5644600570264835]
我々は高次元非線形放物型偏微分方程式を解くためのディープラーニングモデルを開発した。
BSDEのマルコフ的特性は、ニューラルネットワークアーキテクチャの設計に利用されています。
PDEのいくつかのよく知られたクラスを解くことで、これらの改善を実証する。
論文 参考訳(メタデータ) (2020-10-07T20:53:24Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - FiniteNet: A Fully Convolutional LSTM Network Architecture for
Time-Dependent Partial Differential Equations [0.0]
我々は、PDEのダイナミクスを利用するために、完全に畳み込みLSTMネットワークを使用する。
ベースラインアルゴリズムと比較して,ネットワークの誤差を2~3倍に削減できることを示す。
論文 参考訳(メタデータ) (2020-02-07T21:18:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。