論文の概要: Physical invariance in neural networks for subgrid-scale scalar flux
modeling
- arxiv url: http://arxiv.org/abs/2010.04663v4
- Date: Mon, 1 Mar 2021 15:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 06:24:51.781150
- Title: Physical invariance in neural networks for subgrid-scale scalar flux
modeling
- Title(参考訳): サブグリッドスケールスカラーフラックスモデリングのためのニューラルネットワークの物理的不変性
- Authors: Hugo Frezat, Guillaume Balarac, Julien Le Sommer, Ronan Fablet,
Redouane Lguensat
- Abstract要約: 物理インフォームドニューラルネットワーク(NN)を用いた3次元乱流非圧縮性流れのサブグリッドスケールスカラーフラックスをモデル化するための新しい戦略を提案する。
提案した変換不変NNモデルは、純粋にデータ駆動モデルとパラメトリックなサブグリッドスケールモデルの両方より優れていることを示す。
- 参考スコア(独自算出の注目度): 5.333802479607541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a new strategy to model the subgrid-scale scalar
flux in a three-dimensional turbulent incompressible flow using
physics-informed neural networks (NNs). When trained from direct numerical
simulation (DNS) data, state-of-the-art neural networks, such as convolutional
neural networks, may not preserve well known physical priors, which may in turn
question their application to real case-studies. To address this issue, we
investigate hard and soft constraints into the model based on classical
transformation invariances and symmetries derived from physical laws. From
simulation-based experiments, we show that the proposed
transformation-invariant NN model outperforms both purely data-driven ones as
well as parametric state-of-the-art subgrid-scale models. The considered
invariances are regarded as regularizers on physical metrics during the a
priori evaluation and constrain the distribution tails of the predicted
subgrid-scale term to be closer to the DNS. They also increase the stability
and performance of the model when used as a surrogate during a large-eddy
simulation. Moreover, the transformation-invariant NN is shown to generalize to
regimes that have not been seen during the training phase.
- Abstract(参考訳): 本稿では,物理インフォームドニューラルネットワーク(NN)を用いた三次元乱流非圧縮性流れのサブグリッドスケールスカラーフラックスをモデル化する新しい手法を提案する。
DNS(Direct Numerical Simulation)データからトレーニングされた場合、畳み込みニューラルネットワークのような最先端のニューラルネットワークは、よく知られた物理先行情報を保存しない可能性がある。
この問題に対処するために、古典的変換不変量と物理法則から導かれる対称性に基づくモデルへのハードおよびソフト制約について検討する。
シミュレーションに基づく実験から,提案した変換不変NNモデルは純粋にデータ駆動モデルとパラメトリック・オブ・ザ・アート・サブグリッドスケールモデルの両方に優れることを示した。
この不均一性は、事前評価中に物理メトリクスの正則化子と見なされ、予測されたサブグリッドスケール項の分布尾をDNSに近づけるように制約する。
また,大規模シミュレーション時にサロゲートとして使用する場合,モデルの安定性や性能も向上する。
さらに、トランスフォーメーション不変のNNは、トレーニング段階では見られなかったレギュレーションに一般化することが示されている。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - MMGP: a Mesh Morphing Gaussian Process-based machine learning method for
regression of physical problems under non-parameterized geometrical
variability [0.30693357740321775]
本稿では,グラフニューラルネットワークに依存しない機械学習手法を提案する。
提案手法は, 明示的な形状パラメータ化を必要とせずに, 大きなメッシュを容易に扱うことができる。
論文 参考訳(メタデータ) (2023-05-22T09:50:15Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Dynamical Hyperspectral Unmixing with Variational Recurrent Neural
Networks [25.051918587650636]
MTHU(Multitemporal hyperspectral unmixing)は、ハイパースペクトル画像解析の基本的なツールである。
本稿では,変分リカレントニューラルネットワークに基づく教師なしMTHUアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-19T04:51:34Z) - On feedforward control using physics-guided neural networks: Training
cost regularization and optimized initialization [0.0]
モデルベースのフィードフォワードコントローラの性能は、典型的には逆システム力学モデルの精度によって制限される。
本稿では,特定物理パラメータを用いた正規化手法を提案する。
実生活の産業用リニアモーターで検証され、追跡精度と外挿の精度が向上する。
論文 参考訳(メタデータ) (2022-01-28T12:51:25Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。