論文の概要: Energy stable neural network for gradient flow equations
- arxiv url: http://arxiv.org/abs/2309.10002v2
- Date: Thu, 26 Dec 2024 06:25:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:21:01.287152
- Title: Energy stable neural network for gradient flow equations
- Title(参考訳): 勾配流方程式に対するエネルギー安定ニューラルネットワーク
- Authors: Yue Wu, Tianyu Jin, Chuqi Chen, Ganghua Fan, Yuan Lan, Luchan Zhang, Yang Xiang,
- Abstract要約: 勾配流方程式を解くためのエネルギー安定ネットワーク(EStable-Net)を提案する。
EStable-Netは、勾配流方程式の特性と整合したニューラルネットワークに沿った離散エネルギーの減少を可能にする。
- 参考スコア(独自算出の注目度): 7.860561477316135
- License:
- Abstract: We propose an energy stable network (EStable-Net) for solving gradient flow equations. The EStable-Net enables decreasing of a discrete energy along the neural network, which is consistent with the property of the gradient flow equation. The architecture of the neural network EStable-Net is based on the block network structure (Autoflow) in which output of each block can be interpreted as an intermediate state of the evolution process of the equation, and the energy stable property is incorporated in each block, which is easily generalized to include other physical and/or numerical properties. Our EStable-Net is a supervised learning network approach for solving evolution equations which does not depend on the convergence of time step goes to 0, and can be applied generally even when only data is available but the equation is unknown. We also propose a training strategy for supervised learning that employs data of the evolution stages with different nature. The EStable-Net is validated by numerical experimental results based on the Allen-Cahn equation and the Cahn-Hilliard equation in two dimensions.
- Abstract(参考訳): 勾配流方程式を解くためのエネルギー安定ネットワーク(EStable-Net)を提案する。
EStable-Netは、勾配流方程式の特性と整合したニューラルネットワークに沿った離散エネルギーの減少を可能にする。
ニューラルネットワークEStable-Netのアーキテクチャは、各ブロックの出力を方程式の進化過程の中間状態として解釈できるブロックネットワーク構造(オートフロー)に基づいており、エネルギー安定性は各ブロックに組み込まれ、他の物理的および/または数値的性質を含むように容易に一般化される。
我々のEStable-Netは、時間ステップの収束に依存しない進化方程式を解くための教師付き学習ネットワークアプローチである。
また,進化段階のデータを用いた教師あり学習のための学習戦略を提案する。
EStable-NetはAllen-Cahn方程式とCahn-Hilliard方程式に基づいて2次元の数値実験により検証される。
関連論文リスト
- GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Solving the Discretised Multiphase Flow Equations with Interface
Capturing on Structured Grids Using Machine Learning Libraries [0.6299766708197884]
本稿では,機械学習ライブラリのツールと手法を用いて,離散化した多相流方程式を解く。
はじめて、(訓練されていない)畳み込みニューラルネットワークに基づくアプローチを用いて、多相流の有限要素判別を解くことができる。
論文 参考訳(メタデータ) (2024-01-12T18:42:42Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Physics-constrained Unsupervised Learning of Partial Differential
Equations using Meshes [1.066048003460524]
グラフニューラルネットワークは、不規則にメッシュ化されたオブジェクトを正確に表現し、それらのダイナミクスを学ぶことを約束する。
本研究では、メッシュをグラフとして自然に表現し、グラフネットワークを用いてそれらを処理し、物理に基づく損失を定式化し、偏微分方程式(PDE)の教師なし学習フレームワークを提供する。
本フレームワークは, ソフトボディ変形のモデルベース制御など, PDEソルバをインタラクティブな設定に適用する。
論文 参考訳(メタデータ) (2022-03-30T19:22:56Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - FiniteNet: A Fully Convolutional LSTM Network Architecture for
Time-Dependent Partial Differential Equations [0.0]
我々は、PDEのダイナミクスを利用するために、完全に畳み込みLSTMネットワークを使用する。
ベースラインアルゴリズムと比較して,ネットワークの誤差を2~3倍に削減できることを示す。
論文 参考訳(メタデータ) (2020-02-07T21:18:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。