論文の概要: Learned Turbulence Modelling with Differentiable Fluid Solvers
- arxiv url: http://arxiv.org/abs/2202.06988v1
- Date: Mon, 14 Feb 2022 19:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 16:05:08.341784
- Title: Learned Turbulence Modelling with Differentiable Fluid Solvers
- Title(参考訳): 微分型流体ソルバを用いた学習乱流モデリング
- Authors: Bj\"orn List, Li-Wei Chen and Nils Thuerey
- Abstract要約: 我々は畳み込みニューラルネットワークに基づいて乱流モデルを訓練する。
これらのモデルは、シミュレーション時に非圧縮性ナビエ・ストークス方程式に対する未解決の低分解能解を改善する。
- 参考スコア(独自算出の注目度): 23.535052848123932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we train turbulence models based on convolutional neural
networks. These learned turbulence models improve under-resolved low resolution
solutions to the incompressible Navier-Stokes equations at simulation time. Our
method involves the development of a differentiable numerical solver that
supports the propagation of optimisation gradients through multiple solver
steps. We showcase the significance of this property by demonstrating the
superior stability and accuracy of those models that featured a higher number
of unrolled steps during training. This approach is applied to three
two-dimensional turbulence flow scenarios, a homogeneous decaying turbulence
case, a temporally evolving mixing layer and a spatially evolving mixing layer.
Our method achieves significant improvements of long-term \textit{a-posteriori}
statistics when compared to no-model simulations, without requiring these
statistics to be directly included in the learning targets. At inference time,
our proposed method also gains substantial performance improvements over
similarly accurate, purely numerical methods.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークに基づく乱流モデルの訓練を行う。
これらの学習乱流モデルはシミュレーション時に非圧縮性ナビエ・ストークス方程式の解法を未解決で改善する。
本手法は,複数ステップの最適化勾配の伝播を支援する微分可能な数値解法の開発を含む。
この特性の意義を, 訓練中の未進行ステップ数が多いモデルにおいて, 優れた安定性と精度を示すことで示している。
この手法は, 二次元乱流シナリオ, 均質崩壊乱流ケース, 時間的に変化する混合層, 空間的に変化する混合層に応用される。
本手法は,非モデルシミュレーションと比較して,学習目標に直接統計値を含める必要がなく,長期的 \textit{a-posteriori} 統計の大幅な改善を実現する。
提案手法は, 推定時にも同様に精度良く, 純粋に数値的な手法よりも大幅に性能が向上する。
関連論文リスト
- Adaptive Non-Uniform Timestep Sampling for Diffusion Model Training [4.760537994346813]
データ分布が複雑化するにつれて、収束のためのトレーニング拡散モデルがますます複雑になる。
より重要な時間ステップを優先する一様でない時間ステップサンプリング手法を提案する。
提案手法は, 各種データセット, スケジューリング戦略, 拡散アーキテクチャにまたがるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-11-15T07:12:18Z) - Trajectory Flow Matching with Applications to Clinical Time Series Modeling [77.58277281319253]
Trajectory Flow Matching (TFM) は、シミュレーションのない方法でニューラルSDEを訓練し、ダイナミックスを通してバックプロパゲーションをバイパスする。
絶対的性能と不確実性予測の観点から,3つの臨床時系列データセットの性能向上を実証した。
論文 参考訳(メタデータ) (2024-10-28T15:54:50Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - On stable wrapper-based parameter selection method for efficient
ANN-based data-driven modeling of turbulent flows [2.0731505001992323]
本研究の目的は,ニューラルネットワーク(ANN)とラッパー手法に基づくモデリングの削減手法を解析・開発することである。
その結果, 偏微分損失を最小化するための勾配に基づくサブセット選択は, 整合性向上をもたらすことがわかった。
縮小乱流Prendtl数モデルでは、勾配に基づくサブセット選択は、他の手法よりも検証ケースでの予測を改善する。
論文 参考訳(メタデータ) (2023-08-04T08:26:56Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Forecasting through deep learning and modal decomposition in two-phase
concentric jets [2.362412515574206]
本研究はターボファンエンジンにおける燃料室噴射器の性能向上を目的としている。
燃料/空気混合物のリアルタイム予測と改善を可能にするモデルの開発が必要である。
論文 参考訳(メタデータ) (2022-12-24T12:59:41Z) - A unified method of data assimilation and turbulence modeling for
separated flows at high Reynolds numbers [0.0]
本稿では,データ同化と乱流モデリングの統一的アプローチとして,改良されたアンサンブルカルマン逆変換法を提案する。
DNNのトレーニング可能なパラメータは、与えられた実験的表面圧力係数に応じて最適化される。
その結果, 各種実験状態の連成同化により, 付着流と分離流の双方によく適応する乱流モデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-11-01T17:17:53Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。