論文の概要: Finite Difference Neural Networks: Fast Prediction of Partial
Differential Equations
- arxiv url: http://arxiv.org/abs/2006.01892v1
- Date: Tue, 2 Jun 2020 19:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:02:17.377148
- Title: Finite Difference Neural Networks: Fast Prediction of Partial
Differential Equations
- Title(参考訳): 差分ニューラルネットワーク:部分微分方程式の高速予測
- Authors: Zheng Shi, Nur Sila Gulgec, Albert S. Berahas, Shamim N. Pakzad,
Martin Tak\'a\v{c}
- Abstract要約: データから偏微分方程式を学習するための新しいニューラルネットワークフレームワークである有限差分ニューラルネットワーク(FDNet)を提案する。
具体的には、トラジェクトリデータから基礎となる偏微分方程式を学習するために提案した有限差分ネットワークを設計する。
- 参考スコア(独自算出の注目度): 5.575293536755126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering the underlying behavior of complex systems is an important topic
in many science and engineering disciplines. In this paper, we propose a novel
neural network framework, finite difference neural networks (FDNet), to learn
partial differential equations from data. Specifically, our proposed finite
difference inspired network is designed to learn the underlying governing
partial differential equations from trajectory data, and to iteratively
estimate the future dynamical behavior using only a few trainable parameters.
We illustrate the performance (predictive power) of our framework on the heat
equation, with and without noise and/or forcing, and compare our results to the
Forward Euler method. Moreover, we show the advantages of using a Hessian-Free
Trust Region method to train the network.
- Abstract(参考訳): 複雑なシステムの基本的な振る舞いを発見することは、多くの科学と工学の分野において重要なトピックである。
本稿では,データから偏微分方程式を学ぶための新しいニューラルネットワークフレームワークである有限差分ニューラルネットワーク(fdnet)を提案する。
具体的には, トラジェクティブデータから基礎となる偏微分方程式を学習し, 学習可能なパラメータのみを用いて, 将来の動的挙動を反復的に推定するネットワークを提案する。
提案手法は, 音と強制を伴わずとも, 熱方程式上でのフレームワークの性能(予測力)を示し, 結果と前方オイラー法を比較した。
さらに,Hessian-Free Trust Region 法を用いてネットワークのトレーニングを行う利点を示す。
関連論文リスト
- Physics Informed Kolmogorov-Arnold Neural Networks for Dynamical Analysis via Efficent-KAN and WAV-KAN [0.12045539806824918]
物理インフォームド・コルモゴロフ・アルノルドニューラルネットワーク(PIKAN)を効率的なKANとWAV-KANにより実装する。
PIKANは従来のディープニューラルネットワークよりも優れた性能を示し、少ないレイヤで同じレベルの精度を実現し、計算オーバーヘッドを低減している。
論文 参考訳(メタデータ) (2024-07-25T20:14:58Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Neural DAEs: Constrained neural networks [4.212663349859165]
我々はいくつかの基本的なシナリオの違いにもかかわらず、残差ニューラルネットワークに関連した手法を実装した。
マルチボディ振り子と分子動力学シナリオのシミュレーションを含む実験に基づいて,どの手法をいつ使うかを示す。
既存のコードで実装するのは簡単で、トレーニングのパフォーマンスに制限がある一方、推論の面では大幅に向上しています。
論文 参考訳(メタデータ) (2022-11-25T18:58:28Z) - SPINN: Sparse, Physics-based, and Interpretable Neural Networks for PDEs [0.0]
Sparse, Physics-based, and Interpretable Neural Networks (SPINN) のクラスを導入し,一般微分方程式と部分微分方程式を解く。
従来のPDEのソリューションのメッシュレス表現を特別なスパースディープニューラルネットワークとして再解釈することにより、解釈可能なスパースニューラルネットワークアーキテクチャのクラスを開発する。
論文 参考訳(メタデータ) (2021-02-25T17:45:50Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。