論文の概要: SMS: Spiking Marching Scheme for Efficient Long Time Integration of
Differential Equations
- arxiv url: http://arxiv.org/abs/2211.09928v1
- Date: Thu, 17 Nov 2022 22:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:58:46.585109
- Title: SMS: Spiking Marching Scheme for Efficient Long Time Integration of
Differential Equations
- Title(参考訳): sms: 微分方程式の効率的な長時間積分のためのスパイキングマーチングスキーム
- Authors: Qian Zhang, Adar Kahana, George Em Karniadakis, Panos Stinis
- Abstract要約: 時間依存型正規および部分微分方程式(ODE, PDE)の統合のためのスパイキングニューラルネットワーク(SNN)に基づく明示的数値スキームを提案する。
この手法の中核となる要素はSNNであり、次のタイミングでスパイクエンコードされた情報を予測するために、前のタイミングでソリューションに関するスパイクエンコードされた情報を使用するように訓練されている。
デコーダは、進化したスパイキング符号化されたソリューションを関数値に戻すために使用される。
- 参考スコア(独自算出の注目度): 2.935661780430872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a Spiking Neural Network (SNN)-based explicit numerical scheme for
long time integration of time-dependent Ordinary and Partial Differential
Equations (ODEs, PDEs). The core element of the method is a SNN, trained to use
spike-encoded information about the solution at previous timesteps to predict
spike-encoded information at the next timestep. After the network has been
trained, it operates as an explicit numerical scheme that can be used to
compute the solution at future timesteps, given a spike-encoded initial
condition. A decoder is used to transform the evolved spiking-encoded solution
back to function values. We present results from numerical experiments of using
the proposed method for ODEs and PDEs of varying complexity.
- Abstract(参考訳): 本稿では、時間依存の正規項と部分微分方程式(ODE、PDE)を長時間統合するためのスパイキングニューラルネットワーク(SNN)に基づく明示的な数値スキームを提案する。
この手法の核となる要素はsnであり、前回のタイムステップでソリューションに関するスパイクエンコード情報を使用して、次のタイムステップでスパイクエンコード情報を予測するように訓練されている。
ネットワークがトレーニングされた後、スパイクエンコードされた初期条件により、将来の時間ステップで解を計算するために使用できる明示的な数値スキームとして動作する。
デコーダは、進化したスパイクエンコードされたソリューションを関数値に戻すために使用される。
提案手法を用いて複雑度の異なるODEとPDEの数値実験を行った。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Neural Differential Recurrent Neural Network with Adaptive Time Steps [11.999568208578799]
隠れ状態の時間的発達を表すためにニューラルODEを用いるRNN-ODE-Adapと呼ばれるRNNベースのモデルを提案する。
我々は、データの変化の急激さに基づいて時間ステップを適応的に選択し、「スパイクのような」時系列に対してより効率的にモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-02T16:46:47Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - A PINN Approach to Symbolic Differential Operator Discovery with Sparse
Data [0.0]
本研究では,実験データが少ない状況下で微分作用素の記号的発見を行う。
微分方程式における未知の隠れ項の表現を学習するニューラルネットワークを追加することで、PINNのアプローチを変更する。
このアルゴリズムは微分方程式に対する代理解と隠れた項のブラックボックス表現の両方を与える。
論文 参考訳(メタデータ) (2022-12-09T02:09:37Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Accelerated solving of coupled, non-linear ODEs through LSTM-AI [0.0]
本研究の目的は、機械学習、特にニューラルネットワーク(NN)を用いて、結合された常微分方程式(ODE)の集合の軌跡を学習することである。
予測計算時間と数値解を求める計算時間を比較すると,計算速度は9.75倍から197倍に向上した。
論文 参考訳(メタデータ) (2020-09-11T18:31:53Z) - The Seven-League Scheme: Deep learning for large time step Monte Carlo
simulations of stochastic differential equations [0.0]
微分方程式(SDE)を解くための高精度なデータ駆動数値スキームを提案する。
SDE離散化は、正確に決定された(SC)点に基づいてカオス展開法により構築される。
圧縮圧縮とコロケーションという手法により、学習すべきニューラルネットワーク関数の数を劇的に減らすことができる。
論文 参考訳(メタデータ) (2020-09-07T16:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。