論文の概要: Differentiable Turbulence: Closure as a partial differential equation constrained optimization
- arxiv url: http://arxiv.org/abs/2307.03683v2
- Date: Wed, 27 Mar 2024 23:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 22:02:51.231080
- Title: Differentiable Turbulence: Closure as a partial differential equation constrained optimization
- Title(参考訳): 微分可能乱流:偏微分方程式制約最適化としての閉包
- Authors: Varun Shankar, Dibyajyoti Chakraborty, Venkatasubramanian Viswanathan, Romit Maulik,
- Abstract要約: 我々は、ディープラーニングアーキテクチャの物理に着想を得た選択と組み合わせて、エンドツーエンドの微分可能解法を使用する、微分可能な乱流の概念を活用する。
微分可能な物理パラダイムは、オフラインのテキストタプリオリ学習よりも成功しており、深層学習へのハイブリッド・ソルバ・イン・ザ・ループアプローチは、計算効率、精度、一般化の理想的なバランスを提供することを示す。
- 参考スコア(独自算出の注目度): 1.8749305679160366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning is increasingly becoming a promising pathway to improving the accuracy of sub-grid scale (SGS) turbulence closure models for large eddy simulations (LES). We leverage the concept of differentiable turbulence, whereby an end-to-end differentiable solver is used in combination with physics-inspired choices of deep learning architectures to learn highly effective and versatile SGS models for two-dimensional turbulent flow. We perform an in-depth analysis of the inductive biases in the chosen architectures, finding that the inclusion of small-scale non-local features is most critical to effective SGS modeling, while large-scale features can improve pointwise accuracy of the \textit{a-posteriori} solution field. The velocity gradient tensor on the LES grid can be mapped directly to the SGS stress via decomposition of the inputs and outputs into isotropic, deviatoric, and anti-symmetric components. We see that the model can generalize to a variety of flow configurations, including higher and lower Reynolds numbers and different forcing conditions. We show that the differentiable physics paradigm is more successful than offline, \textit{a-priori} learning, and that hybrid solver-in-the-loop approaches to deep learning offer an ideal balance between computational efficiency, accuracy, and generalization. Our experiments provide physics-based recommendations for deep-learning based SGS modeling for generalizable closure modeling of turbulence.
- Abstract(参考訳): 大規模渦シミュレーション(LES)のためのサブグリッドスケール(SGS)乱流閉鎖モデルの精度向上に向けた,ディープラーニングは,ますます有望な経路になりつつある。
本研究では,2次元乱流に対する高効率かつ多目的なSGSモデルを学習するために,エンド・ツー・エンドの微分可能解法と物理に着想を得たディープラーニングアーキテクチャの選択を併用する,微分可能乱流の概念を活用する。
我々は選択したアーキテクチャにおける帰納バイアスの詳細な分析を行い、小規模の非局所的特徴の包含が効果的なSGSモデリングに最も重要であるのに対し、大規模特徴は \textit{a-posteriori} の解場のポイントワイズ精度を向上させることができることを示した。
LESグリッド上の速度勾配テンソルは、入力と出力の分解によって直接SGS応力にマッピングされ、等方性、偏光性および反対称成分に変換される。
このモデルは、レイノルズ数や異なる強制条件を含む様々な流れ構成に一般化できる。
我々は、微分可能な物理パラダイムがオフラインよりも成功しており、深層学習へのハイブリッド・ソルバ・イン・ザ・ループアプローチは、計算効率、精度、一般化の理想的なバランスを提供することを示した。
我々の実験は、乱流の一般化可能な閉鎖モデルのための深層学習に基づくSGSモデリングのための物理ベースの勧告を提供する。
関連論文リスト
- Generalizable data-driven turbulence closure modeling on unstructured grids with differentiable physics [1.8749305679160366]
本研究では,Navier-Stokes方程式を解くために,有限要素ソルバ内にディープラーニングモデルを埋め込むフレームワークを提案する。
後方向きのステップを流れる流れの手法を検証し,その性能を新しい測地で検証する。
我々は,GNNに基づくクロージャモデルについて,解法制約付き最適化としてクロージャモデリングを解釈することにより,データ制限シナリオで学習可能であることを示す。
論文 参考訳(メタデータ) (2023-07-25T14:27:49Z) - Accurate deep learning sub-grid scale models for large eddy simulations [0.0]
大型渦流シミュレーション(LES)のために開発されたサブグリッドスケール(SGS)乱流モデルについて述べる。
彼らの開発には、物理インフォームド・ロバストで効率的なDeep Learning (DL)アルゴリズムの定式化が必要だった。
2つの摩擦レイノルズ数における正準流路流れの直接シミュレーションによるデータの明示的なフィルタリングは、訓練と試験のための正確なデータを提供した。
論文 参考訳(メタデータ) (2023-07-19T15:30:06Z) - Neural Ideal Large Eddy Simulation: Modeling Turbulence with Neural
Stochastic Differential Equations [22.707574194338132]
乱流閉包モデルからの理想渦シミュレーション(LES)と大規模モデリングのためのニューラル微分方程式(SDE)の2つの強力なアイデアを同化するデータ駆動学習フレームワークを提案する。
我々は,この手法がカオス力学系において有効であることを示す: レイノルズ数20,000のコルモゴロフ流。
論文 参考訳(メタデータ) (2023-06-01T22:16:28Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Physics informed machine learning with Smoothed Particle Hydrodynamics:
Hierarchy of reduced Lagrangian models of turbulence [0.6542219246821327]
この原稿は乱流に対するパラメータ化還元ラグランジアンモデルの階層を構築している。
Smoothed Particle Hydrodynamics (SPH) を通した物理的構造を、普遍関数近似器としてニューラルネットワーク(NN)に依存することによる影響について検討する。
論文 参考訳(メタデータ) (2021-10-25T22:57:40Z) - Efficient Differentiable Simulation of Articulated Bodies [89.64118042429287]
本稿では, 音素の効率的な微分可能シミュレーション法を提案する。
これにより、ボディダイナミクスを深層学習フレームワークに統合することが可能になる。
提案手法を用いて, 調音システムによる強化学習を高速化できることを示す。
論文 参考訳(メタデータ) (2021-09-16T04:48:13Z) - Stochastic Polyak Step-size for SGD: An Adaptive Learning Rate for Fast
Convergence [30.393999722555154]
本稿では,古典的ポリアクステップサイズ (Polyak, 1987) の亜次法でよく用いられる変種を提案する。
The proposed Polyak step-size (SPS) is a attractive choice for set the learning rate for gradient descent。
論文 参考訳(メタデータ) (2020-02-24T20:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。