論文の概要: Physics-aware deep neural networks for surrogate modeling of turbulent
natural convection
- arxiv url: http://arxiv.org/abs/2103.03565v1
- Date: Fri, 5 Mar 2021 09:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:56:30.386802
- Title: Physics-aware deep neural networks for surrogate modeling of turbulent
natural convection
- Title(参考訳): 乱流自然対流のサーロゲートモデリングのための物理認識ディープニューラルネットワーク
- Authors: Didier Lucor (LISN), Atul Agrawal (TUM, LISN), Anne Sergent (LISN, UFR
919)
- Abstract要約: Rayleigh-B'enard乱流流に対するPINNのサーロゲートモデルの使用を検討する。
標準ピンの精度が低いゾーンであるトレーニング境界に近い正規化として、どのように機能するかを示す。
50億のDNS座標全体のサロゲートの予測精度は、相対的なL2ノルムで[0.3% -- 4%]の範囲のすべてのフロー変数のエラーをもたらします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have explored the potential of machine learning as data-driven
turbulence closures for RANS and LES techniques. Beyond these advances, the
high expressivity and agility of physics-informed neural networks (PINNs) make
them promising candidates for full fluid flow PDE modeling. An important
question is whether this new paradigm, exempt from the traditional notion of
discretization of the underlying operators very much connected to the flow
scales resolution, is capable of sustaining high levels of turbulence
characterized by multi-scale features? We investigate the use of PINNs
surrogate modeling for turbulent Rayleigh-B{\'e}nard (RB) convection flows in
rough and smooth rectangular cavities, mainly relying on DNS temperature data
from the fluid bulk. We carefully quantify the computational requirements under
which the formulation is capable of accurately recovering the flow hidden
quantities. We then propose a new padding technique to distribute some of the
scattered coordinates-at which PDE residuals are minimized-around the region of
labeled data acquisition. We show how it comes to play as a regularization
close to the training boundaries which are zones of poor accuracy for standard
PINNs and results in a noticeable global accuracy improvement at iso-budget.
Finally, we propose for the first time to relax the incompressibility condition
in such a way that it drastically benefits the optimization search and results
in a much improved convergence of the composite loss function. The RB results
obtained at high Rayleigh number Ra = 2 $\bullet$ 10 9 are particularly
impressive: the predictive accuracy of the surrogate over the entire half a
billion DNS coordinates yields errors for all flow variables ranging between
[0.3% -- 4%] in the relative L 2 norm, with a training relying only on 1.6% of
the DNS data points.
- Abstract(参考訳): 近年の研究では、RANSおよびLES技術のデータ駆動乱流閉鎖としての機械学習の可能性を検討している。
これらの進歩の他に、物理インフォームドニューラルネットワーク(PINN)の高表現性と俊敏性により、フルフローPDEモデリングの候補候補が期待できる。
重要な疑問は、この新しいパラダイムが、フロースケールの解像度と非常に密接に結びついている従来の演算子の離散化の概念を除外し、マルチスケールの特徴によって特徴づけられる高レベルの乱流を維持できるかどうかである。
流体バルクからのDNS温度データを主として, 乱流Rayleigh-B{\'e}nard(RB)対流流に対するPINNのサーロゲートモデルの利用を検討した。
我々は, 流れの隠れた量を正確に復元できる計算条件を慎重に定量化する。
次に,PDE残差を最小限に抑えた分散座標をラベル付きデータ取得領域周辺に分散する新しいパディング手法を提案する。
標準PINNの精度が低いゾーンであるトレーニングバウンダリに近い正規化としてどのように機能するかを示し、 iso-budgetで顕著なグローバル精度の向上をもたらします。
最後に,非圧縮性条件を緩和する手法として,最適化探索を劇的に改善し,複合損失関数の収束性を大幅に向上させる手法を提案する。
高レイリー数Ra = 2 $\bullet$ 10 9で得られたRBの結果は特に印象的です。半億のDNS座標全体にわたるサーロゲートの予測精度は、相対的なL2ノルムで[0.3% -- 4%]の範囲のすべてのフロー変数のエラーを引き起こし、トレーニングはDNSデータポイントの1.6%のみに依存します。
関連論文リスト
- Using Parametric PINNs for Predicting Internal and External Turbulent Flows [6.387263468033964]
提案するRANS-PINNフレームワークは,シリンダー上の流れの予測にのみ焦点をあてたものである。
本研究では,内流と外流の双方に対して,関連する乱流変数を予測する際の精度について検討する。
論文 参考訳(メタデータ) (2024-10-24T17:08:20Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Accelerated replica exchange stochastic gradient Langevin diffusion
enhanced Bayesian DeepONet for solving noisy parametric PDEs [7.337247167823921]
本稿では,DeepONetsのニューラルネットワークアーキテクチャを利用したレプリカ交換型Langevin拡散のトレーニングフレームワークを提案する。
提案するフレームワークの探索と活用機能により,ノイズの多いシナリオにおけるDeepONetsのトレーニング収束性の向上が期待できることを示す。
また,レプリカ交換型Langeving Diffusionにより,雑音のシナリオにおけるDeepONetの平均予測精度も向上することを示す。
論文 参考訳(メタデータ) (2021-11-03T19:23:59Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Multi-fidelity Bayesian Neural Networks: Algorithms and Applications [0.0]
本稿では,可変忠実度の雑音データを用いて訓練できるベイズ型ニューラルネットワーク(BNN)を提案する。
関数近似の学習や、偏微分方程式(PDE)に基づく逆問題の解法に応用する。
論文 参考訳(メタデータ) (2020-12-19T02:03:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。