論文の概要: Learning Subgrid-scale Models with Neural Ordinary Differential
Equations
- arxiv url: http://arxiv.org/abs/2212.09967v1
- Date: Tue, 20 Dec 2022 02:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:27:32.912264
- Title: Learning Subgrid-scale Models with Neural Ordinary Differential
Equations
- Title(参考訳): 神経常微分方程式を用いたサブグリッドスケールモデルの学習
- Authors: Shinhoo Kang, Emil M. Constantinescu
- Abstract要約: 偏微分方程式(PDE)をシミュレートする際のサブグリッドスケールモデル効果の学習方法を提案する。
このアプローチでは、ニューラルネットワークは粗大から細小のグリッドマップを学習するために使用され、これはサブグリッドスケールのパラメータ化と見なすことができる。
提案手法はNODEの利点を継承し,サブグリッドスケールのパラメータ化,近似結合演算子,低次解法の効率向上に利用することができる。
- 参考スコア(独自算出の注目度): 0.39160947065896795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new approach to learning the subgrid-scale model effects when
simulating partial differential equations (PDEs) solved by the method of lines
and their representation in chaotic ordinary differential equations, based on
neural ordinary differential equations (NODEs). Solving systems with fine
temporal and spatial grid scales is an ongoing computational challenge, and
closure models are generally difficult to tune. Machine learning approaches
have increased the accuracy and efficiency of computational fluid dynamics
solvers. In this approach neural networks are used to learn the coarse- to
fine-grid map, which can be viewed as subgrid scale parameterization. We
propose a strategy that uses the NODE and partial knowledge to learn the source
dynamics at a continuous level. Our method inherits the advantages of NODEs and
can be used to parameterize subgrid scales, approximate coupling operators, and
improve the efficiency of low-order solvers. Numerical results using the
two-scale Lorenz 96 ODE and the convection-diffusion PDE are used to illustrate
this approach.
- Abstract(参考訳): 本稿では,線法で解く偏微分方程式 (pdes) をシミュレートする上でのサブグリッドスケールモデルの効果を学習する新しい手法と,神経常微分方程式 (nodes) に基づくカオス常微分方程式の表現法を提案する。
時間的および空間的グリッドスケールの細かいシステムを解くことは、現在進行中の計算課題であり、クロージャモデルは概してチューニングが難しい。
機械学習のアプローチは、計算流体力学ソルバーの精度と効率を高めた。
このアプローチでは、ニューラルネットワークは、サブグリッドスケールのパラメータ化と見なすことができる粗大から細かなグリッドマップを学ぶために使用される。
本稿では,ノードと部分的知識を用いて,ソースダイナミクスを連続的に学習する戦略を提案する。
本手法はノードの利点を継承し,サブグリッドスケールのパラメータ化,近似結合演算子,低次解法効率の向上に利用可能である。
2スケールのLorenz 96 ODEと対流拡散PDEを用いた数値計算により,本手法について述べる。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Enhancing Low-Order Discontinuous Galerkin Methods with Neural Ordinary
Differential Equations for Compressible Navier--Stokes Equations [0.18648070031379424]
計算コストを削減するために、サブグリッドスケールモデルで低忠実度モデルを実行するのが一般的である。
ニューラル常微分演算子によって拡張された偏微分方程式をシミュレートする際のサブグリッドスケールモデル効果の学習法を提案する。
提案手法は,低次DGソルバの欠落スケールを連続的に学習し,低次DG近似の精度を向上させる。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - GNRK: Graph Neural Runge-Kutta method for solving partial differential
equations [0.0]
本研究はグラフニューラルランゲ・クッタ(GNRK)と呼ばれる新しいアプローチを紹介する。
GNRKはグラフニューラルネットワークモジュールを古典的解法にインスパイアされた再帰構造に統合する。
これは、初期条件やPDE係数に関係なく、一般的なPDEに対処する能力を示す。
論文 参考訳(メタデータ) (2023-10-01T08:52:46Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Learning stochastic dynamical systems with neural networks mimicking the
Euler-Maruyama scheme [14.436723124352817]
本稿では,SDEのパラメータを組み込みのSDE統合方式でニューラルネットワークで表現するデータ駆動手法を提案する。
このアルゴリズムは、幾何学的ブラウン運動とロレンツ-63モデルのバージョンに適用される。
論文 参考訳(メタデータ) (2021-05-18T11:41:34Z) - Learning optimal multigrid smoothers via neural networks [1.9336815376402723]
畳み込みニューラルネットワーク(CNN)による演算子ステンシルから最適化されたスムーナを学習するための効率的なフレームワークを提案する。
CNNは、多重グリッド収束理論から導かれる教師付き損失関数に基づいて、与えられた種類のPDEから小さな問題を訓練する。
異方性回転ラプラシアン問題に対する数値解は, 従来の手作り緩和法と比較して収束率と解時間の向上を示した。
論文 参考訳(メタデータ) (2021-02-24T05:02:54Z) - Actor-Critic Algorithm for High-dimensional Partial Differential
Equations [1.5644600570264835]
我々は高次元非線形放物型偏微分方程式を解くためのディープラーニングモデルを開発した。
BSDEのマルコフ的特性は、ニューラルネットワークアーキテクチャの設計に利用されています。
PDEのいくつかのよく知られたクラスを解くことで、これらの改善を実証する。
論文 参考訳(メタデータ) (2020-10-07T20:53:24Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。