論文の概要: Multi-Time-Scale Input Approaches for Hourly-Scale Rainfall-Runoff
Modeling based on Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2103.10932v1
- Date: Sat, 30 Jan 2021 07:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:23:12.564950
- Title: Multi-Time-Scale Input Approaches for Hourly-Scale Rainfall-Runoff
Modeling based on Recurrent Neural Networks
- Title(参考訳): 繰り返しニューラルネットワークに基づく時間スケール降雨流出モデルのためのマルチスケール入力手法
- Authors: Kei Ishida, Masato Kiyama, Ali Ercan, Motoki Amagasaki, Tongbi Tu,
Makoto Ueda
- Abstract要約: 繰り返しニューラルネットワーク(RNN)による時系列モデリングに必要な計算時間を削減する2つの手法を提案する。
1つのアプローチは、RNNに並列に入力時系列の粗い時間分解を提供する。
その結果,提案手法のどちらも,RNNのトレーニングに要する時間を大幅に短縮できることを確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes two straightforward yet effective approaches to reduce
the required computational time of the training process for time-series
modeling through a recurrent neural network (RNN) using multi-time-scale
time-series data as input. One approach provides coarse and fine temporal
resolutions of the input time-series to RNN in parallel. The other concatenates
the coarse and fine temporal resolutions of the input time-series data over
time before considering them as the input to RNN. In both approaches, first,
finer temporal resolution data are utilized to learn the fine temporal scale
behavior of the target data. Next, coarser temporal resolution data are
expected to capture long-duration dependencies between the input and target
variables. The proposed approaches were implemented for hourly rainfall-runoff
modeling at a snow-dominated watershed by employing a long and short-term
memory (LSTM) network, which is a newer type of RNN. Subsequently, the daily
and hourly meteorological data were utilized as the input, and hourly flow
discharge was considered as the target data. The results confirm that both of
the proposed approaches can reduce the computational time for the training of
RNN significantly (up to 32.4 times). Furthermore, one of the proposed
approaches improves the estimation accuracy.
- Abstract(参考訳): 本研究では,複数時間スケールの時系列データを入力として用いたリカレントニューラルネットワーク(RNN)による時系列モデリングのトレーニングプロセスに必要な時間を削減するための,単純かつ効果的な2つのアプローチを提案する。
1つのアプローチは、RNNに並列に入力時系列の粗い時間分解を提供する。
他方は、RNNへの入力として考える前に、入力時系列データの粗大かつ微細な時間分解を時間とともに結合する。
どちらのアプローチでも、まず、より細かい時間分解データを用いて、ターゲットデータの微妙な時間スケール挙動を学習する。
次に、粗い時間分解能データを用いて、入力変数と対象変数の間の長期依存性をキャプチャする。
提案手法は,新しいタイプのRNNであるLong and Short-term memory(LSTM)ネットワークを用いて,積雪流域における時限降雨流出モデリングのために実装された。
その後, 日時気象データを入力として利用し, 時間流排出を目標データとして検討した。
その結果,両手法ともに,rnnの学習に要する計算時間を大幅に削減できることが確認された(最大32.4倍)。
さらに,提案手法の1つにより推定精度が向上する。
関連論文リスト
- Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation
for Time Series [49.992908221544624]
時系列データは、しばしば多くの欠落した値を示し、これは時系列計算タスクである。
従来の深層学習法は時系列計算に有効であることが示されている。
本研究では,不確実性のある高精度な計算を行う非生成時系列計算法を提案する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - Neural Differential Recurrent Neural Network with Adaptive Time Steps [11.999568208578799]
隠れ状態の時間的発達を表すためにニューラルODEを用いるRNN-ODE-Adapと呼ばれるRNNベースのモデルを提案する。
我々は、データの変化の急激さに基づいて時間ステップを適応的に選択し、「スパイクのような」時系列に対してより効率的にモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-02T16:46:47Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Task-Synchronized Recurrent Neural Networks [0.0]
リカレントニューラルネットワーク(RNN)は、伝統的に事実を無視し、時間差を追加入力として与えたり、データを再サンプリングしたりする。
我々は、データやタスクの時間と一致するように、RNNを効果的に再サンプリングするエレガントな代替手法を提案する。
我々は、我々のモデルがデータの時間的非均一性を効果的に補償できることを実証的に確認し、データ再サンプリングや古典的RNN手法、代替的なRNNモデルと比較することを実証した。
論文 参考訳(メタデータ) (2022-04-11T15:27:40Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Accelerated solving of coupled, non-linear ODEs through LSTM-AI [0.0]
本研究の目的は、機械学習、特にニューラルネットワーク(NN)を用いて、結合された常微分方程式(ODE)の集合の軌跡を学習することである。
予測計算時間と数値解を求める計算時間を比較すると,計算速度は9.75倍から197倍に向上した。
論文 参考訳(メタデータ) (2020-09-11T18:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。