論文の概要: Weak Form Theory-guided Neural Network (TgNN-wf) for Deep Learning of
Subsurface Single and Two-phase Flow
- arxiv url: http://arxiv.org/abs/2009.04543v2
- Date: Fri, 11 Sep 2020 14:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:44:55.355456
- Title: Weak Form Theory-guided Neural Network (TgNN-wf) for Deep Learning of
Subsurface Single and Two-phase Flow
- Title(参考訳): 地下一相二相流深層学習のための弱形状理論誘導ニューラルネットワーク(TgNN-wf)
- Authors: Rui Xu, Dongxiao Zhang, Miao Rong, and Nanzhe Wang
- Abstract要約: 弱形理論誘導ニューラルネットワーク(TgNN-wf)を提案する。
弱い形態では、PDEの高次微分は、積分バイパーツを実行することにより、テスト関数に転送することができる。
提案したTgNN-wfが強いTgNNよりも優れていることを示す数値ケースが2つある。
- 参考スコア(独自算出の注目度): 8.692803089714717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are widely used as surrogate models in
geophysical applications; incorporating theoretical guidance into DNNs has
improved the generalizability. However, most of such approaches define the loss
function based on the strong form of conservation laws (via partial
differential equations, PDEs), which is subject to deteriorated accuracy when
the PDE has high order derivatives or the solution has strong discontinuities.
Herein, we propose a weak form theory-guided neural network (TgNN-wf), which
incorporates the weak form formulation of the PDE into the loss function
combined with data constraint and initial and boundary conditions
regularizations to tackle the aforementioned difficulties. In the weak form,
high order derivatives in the PDE can be transferred to the test functions by
performing integration-by-parts, which reduces computational error. We use
domain decomposition with locally defined test functions, which captures local
discontinuity effectively. Two numerical cases demonstrate the superiority of
the proposed TgNN-wf over the strong form TgNN, including the hydraulic head
prediction for unsteady-state 2D single-phase flow problems and the saturation
profile prediction for 1D two-phase flow problems. Results show that TgNN-wf
consistently has higher accuracy than TgNN, especially when strong
discontinuity in the solution is present. TgNN-wf also trains faster than TgNN
when the number of integration subdomains is not too large (<10,000). Moreover,
TgNN-wf is more robust to noises. Thus, the proposed TgNN-wf paves the way for
which a variety of deep learning problems in the small data regime can be
solved more accurately and efficiently.
- Abstract(参考訳): 深部ニューラルネットワーク(DNN)は、物理応用における代理モデルとして広く使われ、DNNに理論的ガイダンスを組み込むことで、一般化性が改善された。
しかし、そのような手法のほとんどが(偏微分方程式、PDEによる)保存則の強い形式に基づいて損失関数を定義し、PDEが高次微分を持つ場合や解が強い不連続性を持つ場合の精度が低下する。
本稿では,pdeの弱形式定式化をデータ制約と初期条件と境界条件の正規化を組み合わせた損失関数に組み込んだ弱形式理論誘導ニューラルネットワーク(tgnn-wf)を提案する。
弱い形式では、PDEの高次微分は、演算誤差を低減する積分バイパーツを実行することで、テスト関数に転送することができる。
局所的な不連続を効果的に捉えた局所定義されたテスト関数による領域分解を用いる。
TgNN-wfは,非定常な2次元単相流問題に対する油圧ヘッド予測や1次元二相流問題に対する飽和プロファイル予測など,強い形状のTgNN-wfよりも優れていることを示す。
結果から,TgNN-wfはTgNNよりも高い精度を示し,特に解に強い不連続性が存在する場合である。
TgNN-wfは、統合サブドメインの数があまり大きくない場合(10,000)、TgNNよりも高速にトレーニングする。
さらに、TgNN-wfはノイズに対してより堅牢である。
そこで提案したTgNN-wfは,小規模データ構造における様々なディープラーニング問題を,より正確かつ効率的に解ける方法である。
関連論文リスト
- Physics-informed deep learning and compressive collocation for high-dimensional diffusion-reaction equations: practical existence theory and numerics [5.380276949049726]
ディープラーニング(DL)に基づく高次元偏微分方程式の効率的な解法の開発と解析
理論的にも数値的にも,新しい安定かつ高精度なスペクトルコロケーション法と競合できることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:16:11Z) - Correctness Verification of Neural Networks Approximating Differential
Equations [0.0]
ニューラルネットワーク(NN)は部分微分方程式(PDE)の解を近似する
NNはシミュレーションソフトウェアツールの不可欠な部分となり、複雑な動的システムのシミュレーションを100回以上加速することができる。
この研究は、NN微分を有限差分近似として定義することにより、これらの関数の検証に対処する。
初めて、出力領域の事前知識のないNN関数のバウンダリング問題に取り組む。
論文 参考訳(メタデータ) (2024-02-12T12:55:35Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Bayesian neural networks for weak solution of PDEs with uncertainty
quantification [3.4773470589069473]
ラベルなしでPDEを解くために、新しい物理制約ニューラルネットワーク(NN)アプローチが提案されている。
我々は,PDEの離散化残差に基づくNNの損失関数を,効率的で畳み込み演算子に基づくベクトル化実装により記述する。
本研究では, 定常拡散, 線形弾性, 非線形弾性に応用し, 提案フレームワークの性能と性能を示す。
論文 参考訳(メタデータ) (2021-01-13T04:57:51Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。