論文の概要: Learning Wave Propagation with Attention-Based Convolutional Recurrent
Autoencoder Net
- arxiv url: http://arxiv.org/abs/2201.06628v1
- Date: Mon, 17 Jan 2022 20:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 06:17:46.799957
- Title: Learning Wave Propagation with Attention-Based Convolutional Recurrent
Autoencoder Net
- Title(参考訳): 意図に基づく畳み込みリカレントオートエンコーダネットによる学習波伝播
- Authors: Indu Kant Deo, Rajeev Jaiman
- Abstract要約: 本稿では、波動伝播現象のデータ駆動モデリングのための、エンド・ツー・エンドの注意に基づく畳み込み再帰型オートエンコーダ(AB-CRAN)ネットワークを提案する。
波動伝搬に時間依存の双曲偏微分方程式で与えられる全階スナップショットから、デノナイジングに基づく畳み込みオートエンコーダを用いる。
注意に基づくシーケンス・ツー・シーケンス・ネットワークは、通常のRNN-LSTMと比較して、予測の時間-水平を5倍増加させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present an end-to-end attention-based convolutional
recurrent autoencoder (AB-CRAN) network for data-driven modeling of wave
propagation phenomena. The proposed network architecture relies on the
attention-based recurrent neural network (RNN) with long short-term memory
(LSTM) cells. To construct the low-dimensional learning model, we employ a
denoising-based convolutional autoencoder from the full-order snapshots given
by time-dependent hyperbolic partial differential equations for wave
propagation. To begin, we attempt to address the difficulty in evolving the
low-dimensional representation in time with a plain RNN-LSTM for wave
propagation phenomenon. We build an attention-based sequence-to-sequence
RNN-LSTM architecture to predict the solution over a long time horizon. To
demonstrate the effectiveness of the proposed learning model, we consider three
benchmark problems namely one-dimensional linear convection, nonlinear viscous
Burgers, and two-dimensional Saint-Venant shallow water system. Using the
time-series datasets from the benchmark problems, our novel AB-CRAN
architecture accurately captures the wave amplitude and preserves the wave
characteristics of the solution for long time horizons. The attention-based
sequence-to-sequence network increases the time-horizon of prediction by five
times compared to the plain RNN-LSTM. Denoising autoencoder further reduces the
mean squared error of prediction and improves the generalization capability in
the parameter space.
- Abstract(参考訳): 本稿では,波動伝播現象をデータ駆動でモデル化するための,エンド・ツー・エンドの注意に基づく畳み込みリカレントオートエンコーダ(AB-CRAN)ネットワークを提案する。
提案したネットワークアーキテクチャは、長い短期記憶(LSTM)セルを持つ注意ベースのリカレントニューラルネットワーク(RNN)に依存している。
低次元学習モデルを構築するために,波伝搬の時間依存双曲型偏微分方程式が与える全次スナップショットからデニュージングに基づく畳み込みオートエンコーダを用いる。
まず,低次元表現を時間的に発展させることの難しさを,波動伝播現象に対するプレーンなRNN-LSTMを用いて解決しようとする。
注意に基づくシーケンス・ツー・シークエンス RNN-LSTM アーキテクチャを構築し,その解決策を長期にわたって予測する。
提案した学習モデルの有効性を示すために, 1次元線形対流, 非線形粘性バーガー, 2次元サントベナント浅層水系の3つのベンチマーク問題を検討した。
ベンチマーク問題から得られた時系列データセットを用いて,我々の新しいAB-CRANアーキテクチャは,波の振幅を正確に把握し,解の波動特性を長期水平に保存する。
注意に基づくシーケンスからシーケンスへのネットワークは、通常のrnn-lstmと比較して予測の時間ホリゾンを5倍増加させる。
デノージングオートエンコーダはさらに予測の平均二乗誤差を低減し、パラメータ空間における一般化能力を向上させる。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Reduced-order modeling of unsteady fluid flow using neural network
ensembles [0.0]
本稿では,一般的なアンサンブル学習手法であるバッグングを用いて,完全なデータ駆動型リダクションモデルフレームワークを開発することを提案する。
このフレームワークはCAEを用いて全階モデルとLSTMアンサンブルの空間的再構成を行い、時系列予測を行う。
その結果,提案フレームワークはエラーの伝播を効果的に低減し,未確認点における潜伏変数の時系列予測をより正確に行うことができることがわかった。
論文 参考訳(メタデータ) (2024-02-08T03:02:59Z) - Delayed Memory Unit: Modelling Temporal Dependency Through Delay Gate [17.611912733951662]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、時間的依存をモデル化する能力で有名である。
本稿では,バニラRNNの時間的モデリング能力を高めるために,DMU(Delayed Memory Unit)を提案する。
提案したDMUは、広範囲の逐次モデリングタスクにおいて優れた時間的モデリング能力を示す。
論文 参考訳(メタデータ) (2023-10-23T14:29:48Z) - Fast Temporal Wavelet Graph Neural Networks [7.477634824955323]
時系列データに基づくタスク学習のためのFTWGNN(Fast Temporal Wavelet Graph Neural Networks)を提案する。
我々は高密度グラフ構造を分解し、対応するスパースウェーブレット基底を計算するために、MMF(Multi resolution Matrix Factorization)を用いる。
実世界のPEMS-BAY, METR-LAトラフィックデータセット, AJILE12 ECoGデータセットによる実験結果から,FTWGNNは最先端技術と競合していることが示された。
論文 参考訳(メタデータ) (2023-02-17T01:21:45Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Wave simulation in non-smooth media by PINN with quadratic neural
network and PML condition [2.7651063843287718]
最近提案された物理インフォームドニューラルネットワーク(PINN)は、幅広い偏微分方程式(PDE)を解くことに成功している。
本稿では、波動方程式の代わりにPINNを用いて周波数領域における音響および粘性音響散乱波動方程式を解き、震源の摂動を除去する。
PMLと2次ニューロンは、その効果と減衰を改善できることを示し、この改善の理由を議論する。
論文 参考訳(メタデータ) (2022-08-16T13:29:01Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。