論文の概要: Dynamic Deep Learning LES Closures: Online Optimization With Embedded
DNS
- arxiv url: http://arxiv.org/abs/2303.02338v1
- Date: Sat, 4 Mar 2023 06:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:13:59.226974
- Title: Dynamic Deep Learning LES Closures: Online Optimization With Embedded
DNS
- Title(参考訳): 動的ディープラーニング LESクロージャ - 組込みDNSによるオンライン最適化
- Authors: Justin Sirignano and Jonathan F. MacArt
- Abstract要約: 我々は、大規模シミュレーション(LES)におけるディープラーニングクロージャモデルのための新しいオンライントレーニング手法を開発した。
深層学習クロージャモデルは,組込み直接数値シミュレーション(DNS)データを用いてLES計算中に動的に訓練される。
オンライン最適化アルゴリズムは,LES組込みDNS計算における深層学習クロージャモデルを動的に学習するために開発された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has recently emerged as a candidate for closure modeling
of large-eddy simulation (LES) of turbulent flows. High-fidelity training data
is typically limited: it is computationally costly (or even impossible) to
numerically generate at high Reynolds numbers, while experimental data is also
expensive to produce and might only include sparse/aggregate flow measurements.
Thus, only a relatively small number of geometries and physical regimes will
realistically be included in any training dataset. Limited data can lead to
overfitting and therefore inaccurate predictions for geometries and physical
regimes that are different from the training cases. We develop a new online
training method for deep learning closure models in LES which seeks to address
this challenge. The deep learning closure model is dynamically trained during a
large-eddy simulation (LES) calculation using embedded direct numerical
simulation (DNS) data. That is, in a small subset of the domain, the flow is
computed at DNS resolutions in concert with the LES prediction. The closure
model then adjusts its approximation to the unclosed terms using data from the
embedded DNS. Consequently, the closure model is trained on data from the exact
geometry/physical regime of the prediction at hand. An online optimization
algorithm is developed to dynamically train the deep learning closure model in
the coupled, LES-embedded DNS calculation.
- Abstract(参考訳): 深層学習(DL)は近年,乱流の大規模渦シミュレーション(LES)の閉鎖モデル候補として浮上している。
高忠実度トレーニングデータは通常、計算コストがかかる(あるいは不可能)レイノルズ数で数値を生成するのに対して、実験データは製造コストが高く、スパース/アグリゲートフロー測定のみを含む。
したがって、実際のトレーニングデータセットには、比較的少数のジオメトリと物理レギュレーションしか含まれない。
限られたデータは過剰フィッティングにつながるため、トレーニングケースとは異なるジオメトリや物理的レジームに対する不正確な予測につながる可能性がある。
我々は,この課題に対処すべく,LESにおけるディープラーニングクロージャモデルのための新しいオンライントレーニング手法を開発した。
深層学習クロージャモデルは,組込み直接数値シミュレーション(DNS)データを用いた大規模シミュレーション(LES)計算中に動的に訓練される。
つまり、ドメインの小さなサブセットでは、フローは les 予測と連動して dns 解像度で計算される。
クロージャモデルは、埋め込みDNSのデータを使用して、その近似を未閉語に調整する。
その結果、閉包モデルは、予測の正確な幾何学的・物理的レジームからのデータに基づいて訓練される。
les組込みdns計算におけるディープラーニングクロージャモデルを動的に学習するために,オンライン最適化アルゴリズムを開発した。
関連論文リスト
- Graph Neural Networks and Differential Equations: A hybrid approach for data assimilation of fluid flows [0.0]
本研究では,グラフニューラルネットワーク(GNN)とReynolds-Averaged Navier Stokes(RANS)方程式を組み合わせた新しいハイブリッド手法を提案する。
その結果, 純粋なデータ駆動モデルと比較して, 再構成平均流の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Data-Augmented Predictive Deep Neural Network: Enhancing the extrapolation capabilities of non-intrusive surrogate models [0.5735035463793009]
本稿では、カーネル動的モード分解(KDMD)を用いて、畳み込みオートエンコーダ(CAE)のエンコーダ部が生成する潜伏空間のダイナミクスを進化させる新しいディープラーニングフレームワークを提案する。
KDMD-decoder-extrapolated dataを元のデータセットに追加した後、この拡張データを用いてフィードフォワードディープニューラルネットワークと共にCAEをトレーニングする。
トレーニングされたネットワークは、トレーニング外のパラメータサンプルでトレーニング時間間隔外の将来の状態を予測できる。
論文 参考訳(メタデータ) (2024-10-17T09:26:14Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Reconstructing High-resolution Turbulent Flows Using Physics-Guided
Neural Networks [3.9548535445908928]
乱流の直接数値シミュレーション(DNS)は計算コストが高く、レイノルズ数が大きい流れには適用できない。
大規模渦シミュレーション(LES)は計算量が少ないが、乱流輸送の全てのスケールを正確に捉えることはできない。
LES予測からDNSデータを再構築するための超解像技術に基づく新しいデータ駆動手法を構築した。
論文 参考訳(メタデータ) (2021-09-06T03:01:24Z) - AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks [78.62086125399831]
本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
論文 参考訳(メタデータ) (2021-06-23T13:23:00Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。