論文の概要: Neural Operator Learning for Long-Time Integration in Dynamical Systems
with Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2303.02243v1
- Date: Fri, 3 Mar 2023 22:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:52:08.927099
- Title: Neural Operator Learning for Long-Time Integration in Dynamical Systems
with Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークを用いた動的システムの長期統合のためのニューラルネットワーク学習
- Authors: Katarzyna Micha{\l}owska and Somdatta Goswami and George Em
Karniadakis and Signe Riemer-S{\o}rensen
- Abstract要約: 深層ニューラルネットワークは、推論中に計算コストを削減し、観測データから直接トレーニングすることができる。
しかし、既存の手法は正確には外挿できないため、長時間の統合ではエラーの蓄積が困難である。
ニューラル演算子とリカレントニューラルネットワークを組み合わせることで、新しい効果的なアーキテクチャを構築することができ、その結果、最先端技術と比較して精度が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are an attractive alternative for simulating complex
dynamical systems, as in comparison to traditional scientific computing
methods, they offer reduced computational costs during inference and can be
trained directly from observational data. Existing methods, however, cannot
extrapolate accurately and are prone to error accumulation in long-time
integration. Herein, we address this issue by combining neural operators with
recurrent neural networks to construct a novel and effective architecture,
resulting in superior accuracy compared to the state-of-the-art. The new hybrid
model is based on operator learning while offering a recurrent structure to
capture temporal dependencies. The integrated framework is shown to stabilize
the solution and reduce error accumulation for both interpolation and
extrapolation of the Korteweg-de Vries equation.
- Abstract(参考訳): ディープニューラルネットワークは複雑な力学系をシミュレートする魅力的な代替手段であり、従来の科学計算法と比較すると、推論中に計算コストを削減し、観測データから直接訓練することができる。
しかし、既存のメソッドは正確な外挿はできず、長期間の統合ではエラーの蓄積が起こりやすい。
本稿では、ニューラル演算子とリカレントニューラルネットワークを組み合わせることで、新しい効率的なアーキテクチャを構築することでこの問題に対処する。
新しいハイブリッドモデルは、時間的依存関係をキャプチャする繰り返し構造を提供しながら、オペレータ学習に基づいている。
統合されたフレームワークは解を安定化し、コルテヴェーグ・ド・ブリーズ方程式の補間と外挿の両方の誤差蓄積を低減する。
関連論文リスト
- Neural Network with Local Converging Input (NNLCI) for Supersonic Flow
Problems with Unstructured Grids [0.9152133607343995]
非構造データを用いた高忠実度予測のための局所収束入力(NNLCI)を用いたニューラルネットワークを開発した。
また, NNLCI法を用いて, バンプを有するチャネル内の超音速流の可視化を行った。
論文 参考訳(メタデータ) (2023-10-23T19:03:37Z) - Neural Modelling of Dynamic Systems with Time Delays Based on an
Adjusted NEAT Algorithm [0.0]
提案アルゴリズムは、よく知られたNeuroEvolution of Augmenting Topologies (NEAT)アルゴリズムに基づいている。
この研究は、模範システムの数学的モデルから生成されたデータに基づいて、拡張された検証研究を含む。
シミュレーションの結果,時間遅延を伴う動的システムのニューラル(ブラックボックス)モデルの有効性が示された。
論文 参考訳(メタデータ) (2023-09-21T15:04:42Z) - A Data-Driven Hybrid Automaton Framework to Modeling Complex Dynamical
Systems [2.610470075814367]
データ駆動型ハイブリッドオートマトンモデルを提案する。
小規模ニューラルネットワークは、対応するトポロジの局所的力学記述として訓練される。
限界サイクルの数値的な例を示し、発達したモデルが到達可能な集合計算の計算コストを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-04-26T20:18:12Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。