論文の概要: RotEqNet: Rotation-Equivariant Network for Fluid Systems with Symmetric
High-Order Tensors
- arxiv url: http://arxiv.org/abs/2005.04286v1
- Date: Tue, 28 Apr 2020 22:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:50:45.438514
- Title: RotEqNet: Rotation-Equivariant Network for Fluid Systems with Symmetric
High-Order Tensors
- Title(参考訳): RotEqNet:対称高次テンソルを持つ流体系の回転同変ネットワーク
- Authors: Liyao Gao, Yifan Du, Hongshan Li, Guang Lin
- Abstract要約: 流体系における高次テンソルの回転等価性を保証するために、回転-等変ネットワーク(RotEqNet)を導入する。
我々は,RotEqNetを実装し,様々な流体システムに関する4つのケーススタディを通して,我々の主張を評価する。
- 参考スコア(独自算出の注目度): 8.965772108396404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the recent application of scientific modeling, machine learning models are
largely applied to facilitate computational simulations of fluid systems.
Rotation symmetry is a general property for most symmetric fluid systems.
However, in general, current machine learning methods have no theoretical way
to guarantee rotational symmetry. By observing an important property of
contraction and rotation operation on high-order symmetric tensors, we prove
that the rotation operation is preserved via tensor contraction. Based on this
theoretical justification, in this paper, we introduce Rotation-Equivariant
Network (RotEqNet) to guarantee the property of rotation-equivariance for
high-order tensors in fluid systems. We implement RotEqNet and evaluate our
claims through four case studies on various fluid systems. The property of
error reduction and rotation-equivariance is verified in these case studies.
Results from the comparative study show that our method outperforms
conventional methods, which rely on data augmentation.
- Abstract(参考訳): 近年の科学モデリングの応用において、機械学習モデルは流体系の計算シミュレーションを容易にするために主に応用されている。
回転対称性は、ほとんどの対称流体系の一般的な性質である。
しかし、一般に、現在の機械学習手法は回転対称性を保証する理論的方法を持たない。
高次対称テンソル上の収縮と回転操作の重要な性質を観察することにより、回転操作がテンソル収縮によって保存されることを示す。
この理論的正当化に基づき,流体系における高次テンソルの回転-等変性を保証するために,回転-等変ネットワーク(RotEqNet)を導入する。
我々は,RotEqNetを実装し,様々な流体システムに関する4つのケーススタディを通して,我々の主張を評価する。
これらのケーススタディでは, 誤差低減と回転等価性の検証を行った。
比較実験の結果,本手法はデータ拡張に依存する従来の手法よりも優れていた。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - E($3$) Equivariant Graph Neural Networks for Particle-Based Fluid
Mechanics [2.1401663582288144]
等変グラフニューラルネットワークは、より正確な動的相互作用モデルを学ぶことができることを示した。
3次元崩壊するテイラー・グリーン渦と3次元逆ポアゼイユ流の2つのよく研究された流れ系をベンチマークした。
論文 参考訳(メタデータ) (2023-03-31T21:56:35Z) - REMuS-GNN: A Rotation-Equivariant Model for Simulating Continuum
Dynamics [0.0]
本稿では,連続体力学系をシミュレーションする回転同変マルチスケールモデルREMuS-GNNを紹介する。
楕円円柱まわりの非圧縮性流れについて,本手法の実証と評価を行った。
論文 参考訳(メタデータ) (2022-05-05T16:20:37Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Extracting Governing Laws from Sample Path Data of Non-Gaussian
Stochastic Dynamical Systems [4.527698247742305]
我々は、利用可能なデータから非ガウスL'evy雑音の方程式を推定し、動的挙動を合理的に予測する。
理論的枠組みを確立し、非対称なL'evyジャンプ測度、ドリフト、拡散を計算する数値アルゴリズムを設計する。
この方法は、利用可能なデータセットから規制法則を発見し、複雑なランダム現象のメカニズムを理解するのに有効なツールとなる。
論文 参考訳(メタデータ) (2021-07-21T14:50:36Z) - Equivariant Wavelets: Fast Rotation and Translation Invariant Wavelet
Scattering Transforms [0.0]
画像統計に対称性を与えることは、人間の解釈性を改善し、一般化を助け、寸法減少をもたらす。
本稿では,高速かつ変換不変かつ回転不変なウェーブレット散乱ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-22T18:00:01Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Incorporating Symmetry into Deep Dynamics Models for Improved
Generalization [24.363954435050264]
本稿では,畳み込みニューラルネットワークに対称性を組み込むことにより,精度の向上と一般化を提案する。
我々のモデルは、対称性群変換による分布シフトに対して理論的かつ実験的に堅牢である。
画像やテキストアプリケーションと比較して、我々の研究は、高次元システムに同変ニューラルネットワークを適用するための重要なステップである。
論文 参考訳(メタデータ) (2020-02-08T01:28:17Z) - Understanding Graph Neural Networks with Generalized Geometric
Scattering Transforms [67.88675386638043]
散乱変換は、畳み込みニューラルネットワークのモデルとして機能する多層ウェーブレットベースのディープラーニングアーキテクチャである。
非対称ウェーブレットの非常に一般的なクラスに基づくグラフに対して、窓付きおよび非窓付き幾何散乱変換を導入する。
これらの非対称グラフ散乱変換は、対称グラフ散乱変換と多くの理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2019-11-14T17:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。