論文の概要: Energy stable neural network for gradient flow equations
- arxiv url: http://arxiv.org/abs/2309.10002v1
- Date: Sun, 17 Sep 2023 15:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 18:29:29.506662
- Title: Energy stable neural network for gradient flow equations
- Title(参考訳): 勾配流方程式に対するエネルギー安定ニューラルネットワーク
- Authors: Ganghua Fan, Tianyu Jin, Yuan Lan, Yang Xiang, Luchan Zhang
- Abstract要約: 勾配流方程式を解くためのエネルギー安定ネットワーク(EStable-Net)を提案する。
EStable-Netは、ニューラルネットワークに沿った離散エネルギーの減少を可能にする。
- 参考スコア(独自算出の注目度): 6.203380486789917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an energy stable network (EStable-Net) for solving
gradient flow equations. The solution update scheme in our neural network
EStable-Net is inspired by a proposed auxiliary variable based equivalent form
of the gradient flow equation. EStable-Net enables decreasing of a discrete
energy along the neural network, which is consistent with the property in the
evolution process of the gradient flow equation. The architecture of the neural
network EStable-Net consists of a few energy decay blocks, and the output of
each block can be interpreted as an intermediate state of the evolution process
of the gradient flow equation. This design provides a stable, efficient and
interpretable network structure. Numerical experimental results demonstrate
that our network is able to generate high accuracy and stable predictions.
- Abstract(参考訳): 本稿では,勾配流方程式を解くためのエネルギー安定ネットワーク(EStable-Net)を提案する。
ニューラルネットワークEStable-Netの解更新スキームは、勾配流方程式の補助変数に基づく等価形式に着想を得たものである。
EStable-Netは、勾配流方程式の進化過程における特性と一致するニューラルネットワークに沿った離散エネルギーの減少を可能にする。
ニューラルネットワークのestable-netのアーキテクチャはいくつかのエネルギー減衰ブロックで構成されており、各ブロックの出力は勾配流方程式の進化過程の中間状態として解釈できる。
この設計は、安定で効率的で解釈可能なネットワーク構造を提供する。
数値実験の結果,ネットワークは高精度で安定した予測を実現できることがわかった。
関連論文リスト
- Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Solving the Discretised Multiphase Flow Equations with Interface
Capturing on Structured Grids Using Machine Learning Libraries [0.6299766708197884]
本稿では,機械学習ライブラリのツールと手法を用いて,離散化した多相流方程式を解く。
はじめて、(訓練されていない)畳み込みニューラルネットワークに基づくアプローチを用いて、多相流の有限要素判別を解くことができる。
論文 参考訳(メタデータ) (2024-01-12T18:42:42Z) - Stacked networks improve physics-informed training: applications to
neural networks and deep operator networks [0.9999629695552196]
本稿では,物理インフォームドニューラルネットワークと演算子ネットワークを積み重ねる新しい多元性フレームワークを提案する。
物理インフォームドニューラルネットワークと演算子ネットワークの精度向上と必要なサイズ削減のために,スタックリングがいかに有効かを示す。
論文 参考訳(メタデータ) (2023-11-11T05:43:54Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - A Finite Element-Inspired Hypergraph Neural Network: Application to
Fluid Dynamics Simulations [4.984601297028257]
ディープラーニング研究の新たなトレンドは、連続体力学シミュレーションにおけるグラフニューラルネットワーク(GNN)の適用に焦点を当てている。
本稿では,ノードをエッジではなく要素で接続することでハイパーグラフを構築する手法を提案する。
本稿では,この手法を有限要素インスパイアされたハイパーグラフニューラルネットワーク(FEIH($phi$)-GNN)と呼ぶ。
論文 参考訳(メタデータ) (2022-12-30T04:10:01Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。