論文の概要: Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2405.13850v1
- Date: Wed, 22 May 2024 17:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 21:02:51.496794
- Title: Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks
- Title(参考訳): 格子同変ニューラルネットワークによる流体力学の格子速度論的スキームの強化
- Authors: Giulio Ortali, Alessandro Gabbana, Imre Atmodimedjo, Alessandro Corbetta,
- Abstract要約: 我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
- 参考スコア(独自算出の注目度): 79.16635054977068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new class of equivariant neural networks, hereby dubbed Lattice-Equivariant Neural Networks (LENNs), designed to satisfy local symmetries of a lattice structure. Our approach develops within a recently introduced framework aimed at learning neural network-based surrogate models Lattice Boltzmann collision operators. Whenever neural networks are employed to model physical systems, respecting symmetries and equivariance properties has been shown to be key for accuracy, numerical stability, and performance. Here, hinging on ideas from group representation theory, we define trainable layers whose algebraic structure is equivariant with respect to the symmetries of the lattice cell. Our method naturally allows for efficient implementations, both in terms of memory usage and computational costs, supporting scalable training/testing for lattices in two spatial dimensions and higher, as the size of symmetry group grows. We validate and test our approach considering 2D and 3D flowing dynamics, both in laminar and turbulent regimes. We compare with group averaged-based symmetric networks and with plain, non-symmetric, networks, showing how our approach unlocks the (a-posteriori) accuracy and training stability of the former models, and the train/inference speed of the latter networks (LENNs are about one order of magnitude faster than group-averaged networks in 3D). Our work opens towards practical utilization of machine learning-augmented Lattice Boltzmann CFD in real-world simulations.
- Abstract(参考訳): そこで我々は格子構造の局所対称性を満たすために,Lattice-Equivariant Neural Networks (LENNs) と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
物理系をモデル化するためにニューラルネットワークを用いる場合、対称性と等値性は精度、数値安定性、性能のキーとなることが示されている。
ここでは、群表現論の考えに基づいて、格子セルの対称性に関して代数構造が同変である訓練可能な層を定義する。
本手法は,メモリ使用量と計算コストの両面で効率的な実装が可能であり,対称性群のサイズが大きくなるにつれて,2次元以上の格子に対するスケーラブルなトレーニング/テストをサポートする。
我々は,2次元および3次元流れの力学を考慮に入れたアプローチを,層流と乱流の双方で検証し,検証した。
我々は,グループ平均型対称ネットワークと非対称型非対称型ネットワークを比較し,従来のモデルの精度と訓練安定性の解き放つ方法と,後者のネットワークの列車/推論速度(LENNは3Dにおけるグループ平均型ネットワークよりも約1桁高速である)を示す。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
関連論文リスト
- A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Applications of Lattice Gauge Equivariant Neural Networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)
L-CNNは従来のニューラルネットワークよりも、異なるサイズの格子をより一般化することができる。
我々はL-CNNのWilsonフローや連続正規化フローへの応用の可能性について述べる。
論文 参考訳(メタデータ) (2022-12-01T19:32:42Z) - Lattice gauge symmetry in neural networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)と呼ばれる新しいニューラルネットワークアーキテクチャについてレビューする。
我々は、ゲージ同変畳み込み層と双線型層を明示的に構築するために使用するゲージ同値の概念について議論する。
L-CNNと等価でないCNNの性能は、一見単純な非線形回帰タスクを用いて比較する。
論文 参考訳(メタデータ) (2021-11-08T11:20:11Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - Physical invariance in neural networks for subgrid-scale scalar flux
modeling [5.333802479607541]
物理インフォームドニューラルネットワーク(NN)を用いた3次元乱流非圧縮性流れのサブグリッドスケールスカラーフラックスをモデル化するための新しい戦略を提案する。
提案した変換不変NNモデルは、純粋にデータ駆動モデルとパラメトリックなサブグリッドスケールモデルの両方より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-09T16:09:54Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Incorporating Symmetry into Deep Dynamics Models for Improved
Generalization [24.363954435050264]
本稿では,畳み込みニューラルネットワークに対称性を組み込むことにより,精度の向上と一般化を提案する。
我々のモデルは、対称性群変換による分布シフトに対して理論的かつ実験的に堅牢である。
画像やテキストアプリケーションと比較して、我々の研究は、高次元システムに同変ニューラルネットワークを適用するための重要なステップである。
論文 参考訳(メタデータ) (2020-02-08T01:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。