論文の概要: Going Deeper with Five-point Stencil Convolutions for Reaction-Diffusion
Equations
- arxiv url: http://arxiv.org/abs/2308.04735v1
- Date: Wed, 9 Aug 2023 07:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 14:50:41.662482
- Title: Going Deeper with Five-point Stencil Convolutions for Reaction-Diffusion
Equations
- Title(参考訳): 反応拡散方程式に対する5点ステンシル畳み込みについて
- Authors: Yongho Kim, Yongho Choi
- Abstract要約: 物理インフォームドニューラルネットワークは偏微分方程式に広く応用されている。
我々は,CFL条件のしきい値よりも長い時間ステップで時間進化を予測するために,大きな受容場を持つ深部FCNNを提案する。
深部FCNNは、爆発するFDMとは対照的に、一定の精度を維持していることを実証する。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks have been widely applied to partial
differential equations with great success because the physics-informed loss
essentially requires no observations or discretization. However, it is
difficult to optimize model parameters, and these parameters must be trained
for each distinct initial condition. To overcome these challenges in
second-order reaction-diffusion type equations, a possible way is to use
five-point stencil convolutional neural networks (FCNNs). FCNNs are trained
using two consecutive snapshots, where the time step corresponds to the step
size of the given snapshots. Thus, the time evolution of FCNNs depends on the
time step, and the time step must satisfy its CFL condition to avoid blow-up
solutions. In this work, we propose deep FCNNs that have large receptive fields
to predict time evolutions with a time step larger than the threshold of the
CFL condition. To evaluate our models, we consider the heat, Fisher's, and
Allen-Cahn equations with diverse initial conditions. We demonstrate that deep
FCNNs retain certain accuracies, in contrast to FDMs that blow up.
- Abstract(参考訳): 物理学的不定形ニューラルネットワークは、物理学的不定形損失が本質的には観測や離散化を必要としないため、大きな成功を収めた偏微分方程式に広く適用されている。
しかし、モデルパラメータの最適化は困難であり、これらのパラメータはそれぞれの異なる初期条件に対して訓練されなければならない。
2次反応拡散型方程式におけるこれらの課題を克服するために、五点ステンシル畳み込みニューラルネットワーク(FCNN)を使用することが考えられる。
fcnnは2つの連続したスナップショットを使用してトレーニングされ、タイムステップは与えられたスナップショットのステップサイズに対応する。
したがって、fcnnの時間発展は時間ステップに依存し、時間ステップはブローアップソリューションを避けるためにcfl条件を満たす必要がある。
本研究では,CFL条件のしきい値よりも長い時間ステップで時間進化を予測するために,大きな受容場を持つ深部FCNNを提案する。
我々のモデルを評価するために、様々な初期条件を持つ熱、フィッシャー方程式、アレン・カーンの方程式を考える。
深部FCNNは、爆発するFDMとは対照的に、一定の精度を維持していることを示す。
関連論文リスト
- Stuffed Mamba: State Collapse and State Capacity of RNN-Based Long-Context Modeling [69.36377985746878]
本研究では,RNNの長期的文脈処理能力の低下の原因について検討し,重要な緩和策を提案する。
まず,訓練中に遭遇しないシーケンス長の大幅な性能劣化を引き起こす*状態崩壊*(SC)について検討する。
我々は,言語モデルとパスキー検索における逐次状態キャパシティを実証的に推定するために,長い文書上に一連のマンバ2モデルを訓練する。
論文 参考訳(メタデータ) (2024-10-09T17:54:28Z) - Revising the Structure of Recurrent Neural Networks to Eliminate Numerical Derivatives in Forming Physics Informed Loss Terms with Respect to Time [0.0]
Mutual Interval RNN (MI-RNN) は、バーガーズ方程式、不規則領域における非定常熱伝導、グリーン渦問題という3つの異なるベンチマークを解くために用いられる。
以上の結果から,MI-RNNは既存のRNNモデルよりも正確な解を見つけることができることがわかった。
論文 参考訳(メタデータ) (2024-09-16T15:24:25Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Wave simulation in non-smooth media by PINN with quadratic neural
network and PML condition [2.7651063843287718]
最近提案された物理インフォームドニューラルネットワーク(PINN)は、幅広い偏微分方程式(PDE)を解くことに成功している。
本稿では、波動方程式の代わりにPINNを用いて周波数領域における音響および粘性音響散乱波動方程式を解き、震源の摂動を除去する。
PMLと2次ニューロンは、その効果と減衰を改善できることを示し、この改善の理由を議論する。
論文 参考訳(メタデータ) (2022-08-16T13:29:01Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Finite volume method network for acceleration of unsteady computational
fluid dynamics: non-reacting and reacting flows [0.0]
CFDシミュレーションを高速化するために,ユニークなネットワークアーキテクチャと物理インフォームド損失関数を備えたニューラルネットワークモデルを開発した。
反応フローデータセットでは、このネットワークモデルの計算速度はCFDソルバの約10倍の速さで測定された。
論文 参考訳(メタデータ) (2021-05-07T15:33:49Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - A Joint Convolutional and Spatial Quad-Directional LSTM Network for
Phase Unwrapping [7.716156977428555]
本稿では,位相アンラッピングのための空間的四方向長短期記憶(SQD-LSTM)を組み込んだ新しい畳み込みニューラルネットワーク(CNN)を提案する。
提案手法は, 強騒音条件下での既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-26T01:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。