論文の概要: GFINNs: GENERIC Formalism Informed Neural Networks for Deterministic and
Stochastic Dynamical Systems
- arxiv url: http://arxiv.org/abs/2109.00092v1
- Date: Tue, 31 Aug 2021 22:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:08:58.154174
- Title: GFINNs: GENERIC Formalism Informed Neural Networks for Deterministic and
Stochastic Dynamical Systems
- Title(参考訳): GFINNs:決定論的・確率力学系のための汎用形式的インフォームドニューラルネットワーク
- Authors: Zhen Zhang, Yeonjong Shin, George Em Karniadakis
- Abstract要約: 本稿では,ジェネリックフォーマリズムの対称縮退条件に従うGFINN(ジェネリックフォーマリズム情報ニューラルネットワーク)を提案する。
GFINNは2つのモジュールから構成され、それぞれが2つのコンポーネントを含む。我々は、アーキテクチャが要求条件を満たすように設計されたニューラルネットワークを用いて、各コンポーネントをモデル化する。
熱と体積を交換するガス容器,熱弾性二重振り子,ランゲヴィン力学の3つのシミュレーション問題において,GFINNの性能を示す。
- 参考スコア(独自算出の注目度): 3.6256699349409205
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose the GENERIC formalism informed neural networks (GFINNs) that obey
the symmetric degeneracy conditions of the GENERIC formalism. GFINNs comprise
two modules, each of which contains two components. We model each component
using a neural network whose architecture is designed to satisfy the required
conditions. The component-wise architecture design provides flexible ways of
leveraging available physics information into neural networks. We prove
theoretically that GFINNs are sufficiently expressive to learn the underlying
equations, hence establishing the universal approximation theorem. We
demonstrate the performance of GFINNs in three simulation problems: gas
containers exchanging heat and volume, thermoelastic double pendulum and the
Langevin dynamics. In all the examples, GFINNs outperform existing methods,
hence demonstrating good accuracy in predictions for both deterministic and
stochastic systems.
- Abstract(参考訳): 本稿では,ジェネリックフォーマリズムの対称縮退条件に従う汎用的フォーマリズムインフォームドニューラルネットワーク(gfinns)を提案する。
GFINNは2つのモジュールから構成され、それぞれが2つのコンポーネントを含んでいる。
必要な条件を満たすように設計したニューラルネットワークを用いて,各コンポーネントをモデル化する。
コンポーネント指向アーキテクチャ設計は、利用可能な物理情報をニューラルネットワークに活用するための柔軟な方法を提供する。
理論的には、GFINNは基礎となる方程式を学習するのに十分な表現力があることを証明し、普遍近似定理を確立する。
熱と体積を交換するガス容器,熱弾性二重振り子,ランゲヴィン力学の3つのシミュレーション問題において,GFINNの性能を示す。
すべての例において、GFINNは既存の手法よりも優れており、決定論的および確率的システムの予測において優れた精度を示す。
関連論文リスト
- PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Physically Consistent Neural ODEs for Learning Multi-Physics Systems [0.0]
本稿では, 可逆ポート・ハミルトニアンシステム (IPHS) の枠組みを利用する。
データからパラメータを学習するために,PC-NODE(Physically Consistent NODE)を提案する。
提案手法の有効性を実世界の実測値から建物熱力学を学習し,その有効性を実証する。
論文 参考訳(メタデータ) (2022-11-11T11:20:35Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - Composing Partial Differential Equations with Physics-Aware Neural
Networks [0.831246680772592]
本稿では,吸着拡散過程を学習するための物理認識ニューラルネットワーク(FINN)を提案する。
平均的なパラメータの10分の1しか持たないFINNは、機械学習やその他の最先端の物理認識モデルよりも優れています。
論文 参考訳(メタデータ) (2021-11-23T11:27:13Z) - Learning the ground state of a non-stoquastic quantum Hamiltonian in a
rugged neural network landscape [0.0]
ニューラルネットワークに基づく普遍的変動波動関数のクラスについて検討する。
特に,本稿では,ニューラルネットワークの表現率とモンテカルロサンプリングが一次制限因子ではないことを示す。
論文 参考訳(メタデータ) (2020-11-23T05:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。