論文の概要: Learned Turbulence Modelling with Differentiable Fluid Solvers
- arxiv url: http://arxiv.org/abs/2202.06988v1
- Date: Mon, 14 Feb 2022 19:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 16:05:08.341784
- Title: Learned Turbulence Modelling with Differentiable Fluid Solvers
- Title(参考訳): 微分型流体ソルバを用いた学習乱流モデリング
- Authors: Bj\"orn List, Li-Wei Chen and Nils Thuerey
- Abstract要約: 我々は畳み込みニューラルネットワークに基づいて乱流モデルを訓練する。
これらのモデルは、シミュレーション時に非圧縮性ナビエ・ストークス方程式に対する未解決の低分解能解を改善する。
- 参考スコア(独自算出の注目度): 23.535052848123932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we train turbulence models based on convolutional neural
networks. These learned turbulence models improve under-resolved low resolution
solutions to the incompressible Navier-Stokes equations at simulation time. Our
method involves the development of a differentiable numerical solver that
supports the propagation of optimisation gradients through multiple solver
steps. We showcase the significance of this property by demonstrating the
superior stability and accuracy of those models that featured a higher number
of unrolled steps during training. This approach is applied to three
two-dimensional turbulence flow scenarios, a homogeneous decaying turbulence
case, a temporally evolving mixing layer and a spatially evolving mixing layer.
Our method achieves significant improvements of long-term \textit{a-posteriori}
statistics when compared to no-model simulations, without requiring these
statistics to be directly included in the learning targets. At inference time,
our proposed method also gains substantial performance improvements over
similarly accurate, purely numerical methods.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークに基づく乱流モデルの訓練を行う。
これらの学習乱流モデルはシミュレーション時に非圧縮性ナビエ・ストークス方程式の解法を未解決で改善する。
本手法は,複数ステップの最適化勾配の伝播を支援する微分可能な数値解法の開発を含む。
この特性の意義を, 訓練中の未進行ステップ数が多いモデルにおいて, 優れた安定性と精度を示すことで示している。
この手法は, 二次元乱流シナリオ, 均質崩壊乱流ケース, 時間的に変化する混合層, 空間的に変化する混合層に応用される。
本手法は,非モデルシミュレーションと比較して,学習目標に直接統計値を含める必要がなく,長期的 \textit{a-posteriori} 統計の大幅な改善を実現する。
提案手法は, 推定時にも同様に精度良く, 純粋に数値的な手法よりも大幅に性能が向上する。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - On stable wrapper-based parameter selection method for efficient
ANN-based data-driven modeling of turbulent flows [2.0731505001992323]
本研究の目的は,ニューラルネットワーク(ANN)とラッパー手法に基づくモデリングの削減手法を解析・開発することである。
その結果, 偏微分損失を最小化するための勾配に基づくサブセット選択は, 整合性向上をもたらすことがわかった。
縮小乱流Prendtl数モデルでは、勾配に基づくサブセット選択は、他の手法よりも検証ケースでの予測を改善する。
論文 参考訳(メタデータ) (2023-08-04T08:26:56Z) - A Geometric Perspective on Diffusion Models [60.69328526215776]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングを検証し,そのサンプリングダイナミクスの興味深い構造を明らかにした。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Forecasting through deep learning and modal decomposition in two-phase
concentric jets [2.362412515574206]
本研究はターボファンエンジンにおける燃料室噴射器の性能向上を目的としている。
燃料/空気混合物のリアルタイム予測と改善を可能にするモデルの開発が必要である。
論文 参考訳(メタデータ) (2022-12-24T12:59:41Z) - A unified method of data assimilation and turbulence modeling for
separated flows at high Reynolds numbers [0.0]
本稿では,データ同化と乱流モデリングの統一的アプローチとして,改良されたアンサンブルカルマン逆変換法を提案する。
DNNのトレーニング可能なパラメータは、与えられた実験的表面圧力係数に応じて最適化される。
その結果, 各種実験状態の連成同化により, 付着流と分離流の双方によく適応する乱流モデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-11-01T17:17:53Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - ImitationFlow: Learning Deep Stable Stochastic Dynamic Systems by
Normalizing Flows [29.310742141970394]
我々は,世界規模で安定な非線形力学を学習できる新しいDeep生成モデルであるImitationFlowを紹介した。
提案手法の有効性を,標準データセットと実ロボット実験の両方で示す。
論文 参考訳(メタデータ) (2020-10-25T14:49:46Z) - Stochastic Differential Equations with Variational Wishart Diffusions [18.590352916158093]
回帰タスクと連続時間力学モデリングの両方に対して微分方程式を推論する非パラメトリックな方法を提案する。
この研究は微分方程式の一部(拡散とも呼ばれる)に重点を置いており、ウィッシュアート過程を用いてモデル化している。
論文 参考訳(メタデータ) (2020-06-26T10:21:35Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。