論文の概要: Energy-Conserving Neural Network Closure Model for Long-Time Accurate and Stable LES
- arxiv url: http://arxiv.org/abs/2504.05868v1
- Date: Tue, 08 Apr 2025 09:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:28:11.515552
- Title: Energy-Conserving Neural Network Closure Model for Long-Time Accurate and Stable LES
- Title(参考訳): 長期精度・安定LESのためのエネルギー保存型ニューラルネットワーククロージャモデル
- Authors: Toby van Gastelen, Wouter Edeling, Benjamin Sanderse,
- Abstract要約: 我々は,鍵となる物理保存則を保ちながら安定性を強制する閉鎖モデルとして,スキュー対称ニューラルネットワークアーキテクチャを開発した。
提案手法は, 質量, 運動量, エネルギーの保存を確実にする離散化と, 粗粒な速度場における質量の保存を維持するための対面吸収フィルタを利用する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning-based closure models for LES have shown promise in capturing complex turbulence dynamics but often suffer from instabilities and physical inconsistencies. In this work, we develop a novel skew-symmetric neural architecture as closure model that enforces stability while preserving key physical conservation laws. Our approach leverages a discretization that ensures mass, momentum, and energy conservation, along with a face-averaging filter to maintain mass conservation in coarse-grained velocity fields. We compare our model against several conventional data-driven closures (including unconstrained convolutional neural networks), and the physics-based Smagorinsky model. Performance is evaluated on decaying turbulence and Kolmogorov flow for multiple coarse-graining factors. In these test cases we observe that unconstrained machine learning models suffer from numerical instabilities. In contrast, our skew-symmetric model remains stable across all tests, though at the cost of increased dissipation. Despite this trade-off, we demonstrate that our model still outperforms the Smagorinsky model in unseen scenarios. These findings highlight the potential of structure-preserving machine learning closures for reliable long-time LES.
- Abstract(参考訳): LESのための機械学習ベースのクロージャモデルは、複雑な乱流のダイナミクスをキャプチャする上で有望であるが、しばしば不安定性と物理的不整合に悩まされる。
本研究では,鍵となる物理保存則を保ちながら安定性を強制する閉包モデルとして,新しいスキュー対称ニューラルアーキテクチャを開発する。
提案手法は, 質量, 運動量, エネルギーの保存を確実にする離散化と, 粗粒な速度場における質量の保存を維持するための対面吸収フィルタを利用する。
我々は、従来のデータ駆動閉包(制約のない畳み込みニューラルネットワークを含む)や、物理学に基づくSmagorinskyモデルと比較する。
複数の粗粒化因子に対する崩壊乱流とコルモゴロフ流の評価を行った。
これらのテストケースでは、制約のない機械学習モデルが数値的な不安定さに悩まされている。
対照的に、我々のスキュー対称モデルは、散逸が増大するコストではあるものの、全てのテストで安定なままである。
このトレードオフにもかかわらず、我々のモデルは、まだ目に見えないシナリオでSmagorinskyモデルより優れていることを実証する。
これらの知見は,長期LESのための構造保存型機械学習クロージャの可能性を強調した。
関連論文リスト
- Oscillatory State-Space Models [61.923849241099184]
長いシーケンスを効率的に学習するための線形状態空間モデル(LinOSS)を提案する。
高速な連想並列スキャンを用いて時間とともに統合された安定な離散化により、提案した状態空間モデルが得られる。
我々はLinOSSが普遍であること、すなわち時間変化関数間の連続および因果作用素写像を近似できることを示す。
論文 参考訳(メタデータ) (2024-10-04T22:00:13Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Learning Robust Precipitation Forecaster by Temporal Frame Interpolation [65.5045412005064]
本研究では,空間的不一致に対するレジリエンスを示す頑健な降水予測モデルを構築した。
提案手法は,textit4cast'23コンペティションの移行学習リーダーボードにおいて,textit1位を確保したモデルにおいて,予測精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-11-30T08:22:08Z) - Koopman Invertible Autoencoder: Leveraging Forward and Backward Dynamics
for Temporal Modeling [13.38194491846739]
我々は、Koopman Invertible Autoencoders (KIA) と呼ぶ、Koopman演算子理論に基づく新しい機械学習モデルを提案する。
KIAは、無限次元ヒルベルト空間における前方と後方のダイナミクスをモデル化することによって、システムの固有の特性を捉えている。
これにより,低次元表現を効率よく学習し,長期システムの挙動をより正確に予測することが可能になる。
論文 参考訳(メタデータ) (2023-09-19T03:42:55Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - On the Memory Mechanism of Tensor-Power Recurrent Models [25.83531612758211]
TPリカレントモデルの記憶機構について検討する。
長期記憶効果を達成するためには, p が重要条件であることが示される。
新しいモデルは、安定して長いメモリ効果の恩恵を受けることが期待されている。
論文 参考訳(メタデータ) (2021-03-02T07:07:47Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。