論文の概要: A data-driven approach for the closure of RANS models by the divergence
of the Reynolds Stress Tensor
- arxiv url: http://arxiv.org/abs/2203.16944v1
- Date: Thu, 31 Mar 2022 11:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 01:02:02.214392
- Title: A data-driven approach for the closure of RANS models by the divergence
of the Reynolds Stress Tensor
- Title(参考訳): レイノルズ応力テンソルの発散によるRANSモデルの閉鎖に対するデータ駆動的アプローチ
- Authors: Stefano Berrone and Davide Oberto
- Abstract要約: RANS方程式を閉じて精度を上げる新しいデータ駆動モデルを提案する。
この選択は RANS 方程式における RST の発散によって引き起こされる。
このデータ駆動アプローチが訓練されると、方程式を閉じるために乱流モデルを実行する必要はない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the present paper a new data-driven model to close and increase accuracy
of RANS equations is proposed. It is based on the direct approximation of the
divergence of the Reynolds Stress Tensor (RST) through a Neural Network (NN).
This choice is driven by the presence of the divergence of RST in the RANS
equations. Furthermore, once this data-driven approach is trained, there is no
need to run any turbulence model to close the equations. Finally, it is well
known that a good approximation of a function it is not necessarily a good
approximation of its derivative. The architecture and inputs choices of the
proposed network guarantee both Galilean and coordinates-frame rotation
invariances by looking to a vector basis expansion of the divergence of the
RST. Two well-known test cases are used to show advantages of the proposed
method compared to classic turbulence models.
- Abstract(参考訳): 本稿では,RANS方程式の精度を向上する新しいデータ駆動モデルを提案する。
これはニューラルネットワーク(nn)を介してレイノルズ応力テンソル(rst)の発散の直接近似に基づいている。
この選択は RANS 方程式における RST の発散によって引き起こされる。
さらに、このデータ駆動アプローチが訓練されると、方程式を閉じるために乱流モデルを実行する必要はない。
最後に、函数のよい近似が必ずしもその微分のよい近似であるとは限らないことはよく知られている。
提案したネットワークのアーキテクチャと入力は、RSTの発散のベクトル基底展開を求めることにより、ガリレオと座標フレームの回転不変性の両方を保証する。
従来の乱流モデルと比較して,提案手法の利点を示すために2つのよく知られた試験ケースが用いられている。
関連論文リスト
- Straightness of Rectified Flow: A Theoretical Insight into Wasserstein Convergence [54.580605276017096]
拡散モデルは画像生成とデノナイズのための強力なツールとして登場した。
最近、Liuらは新しい代替生成モデル Rectified Flow (RF) を設計した。
RFは,一連の凸最適化問題を用いて,ノイズからデータへの直流軌跡の学習を目的としている。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Nonuniform random feature models using derivative information [10.239175197655266]
ニューラルネットワークの初期化のための不均一なデータ駆動パラメータ分布を近似する関数の微分データに基づいて提案する。
We address the case of Heaviside and ReLU activation function and their smooth approximations (Sigmoid and softplus)。
入力点における近似微分データに基づいて、これらの正確な密度を単純化し、非常に効率的なサンプリングを可能にし、複数のシナリオにおいて最適なネットワークに近いランダムな特徴モデルの性能をもたらすことを提案する。
論文 参考訳(メタデータ) (2024-10-03T01:30:13Z) - von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - A deep implicit-explicit minimizing movement method for option pricing
in jump-diffusion models [0.0]
我々は、ジャンプ拡散力学に従う資産に書かれた欧州のバスケットオプションの価格設定のための新しいディープラーニングアプローチを開発する。
オプション価格問題は部分積分微分方程式として定式化され、これは新しい暗黙的な最小化運動タイムステッピング手法によって近似される。
論文 参考訳(メタデータ) (2024-01-12T18:21:01Z) - Enhancing Data-Assimilation in CFD using Graph Neural Networks [0.0]
本稿では,グラフニューラルネットワーク(GNN)モデルによる随伴最適化に基づく,流体力学に応用されたデータ同化のための新しい機械学習手法を提案する。
我々は,有限要素法(FEM)の解法に基づく直接数値シミュレーションを用いて,GNNモデルと解法の間の2次元のインターフェースにより,GNNの予測をFEM解析の処理後ステップに組み込むことができることを示す。
論文 参考訳(メタデータ) (2023-11-29T19:11:40Z) - A probabilistic, data-driven closure model for RANS simulations with aleatoric, model uncertainty [1.8416014644193066]
本稿では,レノルズ平均Navier-Stokes (RANS) シミュレーションのためのデータ駆動閉包モデルを提案する。
パラメトリック閉包が不十分な問題領域内の領域を特定するために,完全ベイズ的定式化と余剰誘導先行法を組み合わせて提案する。
論文 参考訳(メタデータ) (2023-07-05T16:53:31Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。