論文の概要: oRANS: Online optimisation of RANS machine learning models with embedded DNS data generation
- arxiv url: http://arxiv.org/abs/2510.02982v1
- Date: Fri, 03 Oct 2025 13:19:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.392686
- Title: oRANS: Online optimisation of RANS machine learning models with embedded DNS data generation
- Title(参考訳): oRANS: 組み込みDNSデータ生成によるRANS機械学習モデルのオンライン最適化
- Authors: Daniel Dehtyriov, Jonathan F. MacArt, Justin Sirignano,
- Abstract要約: 従来のオフラインパラダイムで訓練されたクロージャは、過度に適合し、新しい体制に一般化できない傾向にある。
DLベースのNavier-Stokes(RANS)クロージャに対するオンライン最適化フレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has demonstrated promise for accelerating and enhancing the accuracy of flow physics simulations, but progress is constrained by the scarcity of high-fidelity training data, which is costly to generate and inherently limited to a small set of flow conditions. Consequently, closures trained in the conventional offline paradigm tend to overfit and fail to generalise to new regimes. We introduce an online optimisation framework for DL-based Reynolds-averaged Navier--Stokes (RANS) closures which seeks to address the challenge of limited high-fidelity datasets. Training data is dynamically generated by embedding a direct numerical simulation (DNS) within a subdomain of the RANS domain. The RANS solution supplies boundary conditions to the DNS, while the DNS provides mean velocity and turbulence statistics that are used to update a DL closure model during the simulation. This feedback loop enables the closure to adapt to the embedded DNS target flow, avoiding reliance on precomputed datasets and improving out-of-distribution performance. The approach is demonstrated for the stochastically forced Burgers equation and for turbulent channel flow at $Re_\tau=180$, $270$, $395$ and $590$ with varying embedded domain lengths $1\leq L_0/L\leq 8$. Online-optimised RANS models significantly outperform both offline-trained and literature-calibrated closures, with accurate training achieved using modest DNS subdomains. Performance degrades primarily when boundary-condition contamination dominates or when domains are too short to capture low-wavenumber modes. This framework provides a scalable route to physics-informed machine learning closures, enabling data-adaptive reduced-order models that generalise across flow regimes without requiring large precomputed training datasets.
- Abstract(参考訳): 深層学習 (DL) は, 流れ物理シミュレーションの精度の向上と高速化を約束しているが, 高忠実度トレーニングデータの不足により進行が制限されている。
その結果、従来のオフラインパラダイムで訓練されたクロージャは過度に適合し、新しい体制に一般化できない傾向にある。
DLをベースとしたReynolds-averaged Navier-Stokes (RANS) クロージャに対するオンライン最適化フレームワークを導入する。
トレーニングデータは、RANSドメインのサブドメインに直接数値シミュレーション(DNS)を埋め込むことで動的に生成される。
RANSソリューションはDNSに境界条件を提供し、DNSはシミュレーション中にDLクロージャモデルを更新するために使用される平均速度と乱流統計を提供する。
このフィードバックループにより、クロージャは組み込みDNSターゲットフローに適応し、事前計算されたデータセットへの依存を回避し、アウト・オブ・ディストリビューションのパフォーマンスを向上させることができる。
この手法は、確率論的に強制されたバーガース方程式と乱流チャネルフローが$Re_\tau=180$, $270$, $395$, 590$で、組込みドメインの長さが1\leq L_0/L\leq 8$であることを示す。
オンライン最適化RANSモデルは、オフライントレーニングと文学キャリブレーションの両方で大幅にパフォーマンスが向上し、適度なDNSサブドメインを使用して正確なトレーニングが達成された。
境界条件の汚染が支配的であったり、低波数モードを捕捉するにはドメインが短すぎる場合、パフォーマンスが低下する。
このフレームワークは、物理インフォームド機械学習のクロージャへのスケーラブルなルートを提供し、大規模な事前計算されたトレーニングデータセットを必要とせずに、フローレシブをまたいで一般化するデータ適応型リダクションモデルを可能にする。
関連論文リスト
- Towards a Proactive Autoscaling Framework for Data Stream Processing at the Edge using GRU and Transfer Learning [0.0]
実世界のDSPデータセットと合成DSPデータセットを用いて,GRUニューラルネットワークが上流の負荷を予測する方法を示す。
転送学習フレームワークは、予測モデルをオンラインストリーム処理システムに統合する。
負荷予測のための軽量GRUモデルは、実世界のデータセット上で最大1.3%のSMAPE値を記録した。
論文 参考訳(メタデータ) (2025-07-19T12:47:50Z) - Mean flow data assimilation using physics-constrained Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)と最適化手法を統合し,平均流路復元の精度を高める新しいデータ同化手法を提案する。
GNNフレームワークは非構造化データを扱うのに適しており、計算流体力学(CFD)で遭遇する複雑な測地に共通している。
その結果,データ駆動モデルに類似するモデルと比較して,訓練データに制限がある場合でも,平均フロー再構成の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Data-Augmented Predictive Deep Neural Network: Enhancing the extrapolation capabilities of non-intrusive surrogate models [0.5735035463793009]
本稿では、カーネル動的モード分解(KDMD)を用いて、畳み込みオートエンコーダ(CAE)のエンコーダ部が生成する潜伏空間のダイナミクスを進化させる新しいディープラーニングフレームワークを提案する。
KDMD-decoder-extrapolated dataを元のデータセットに追加した後、この拡張データを用いてフィードフォワードディープニューラルネットワークと共にCAEをトレーニングする。
トレーニングされたネットワークは、トレーニング外のパラメータサンプルでトレーニング時間間隔外の将来の状態を予測できる。
論文 参考訳(メタデータ) (2024-10-17T09:26:14Z) - Dynamic Deep Learning LES Closures: Online Optimization With Embedded
DNS [0.0]
我々は、大規模シミュレーション(LES)におけるディープラーニングクロージャモデルのための新しいオンライントレーニング手法を開発した。
深層学習クロージャモデルは,組込み直接数値シミュレーション(DNS)データを用いてLES計算中に動的に訓練される。
オンライン最適化アルゴリズムは,LES組込みDNS計算における深層学習クロージャモデルを動的に学習するために開発された。
論文 参考訳(メタデータ) (2023-03-04T06:20:47Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks [78.62086125399831]
本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
論文 参考訳(メタデータ) (2021-06-23T13:23:00Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Procrustes: a Dataflow and Accelerator for Sparse Deep Neural Network
Training [0.5219568203653523]
我々は,まず,第1の訓練を行わず,第2の訓練を行ない,第2の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行なう。
最先端のDNNアクセラレーターをスパーストレーニングサポートなしで使用した同等の未使用モデルのトレーニングと比較すると、Procrustesは最大3.26$times$少ないエネルギーを消費し、様々なモデルにわたって最大4$times$のスピードアップを提供する。
論文 参考訳(メタデータ) (2020-09-23T07:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。