論文の概要: Short-Term Aggregated Residential Load Forecasting using BiLSTM and
CNN-BiLSTM
- arxiv url: http://arxiv.org/abs/2302.05033v1
- Date: Fri, 10 Feb 2023 03:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:48:52.839390
- Title: Short-Term Aggregated Residential Load Forecasting using BiLSTM and
CNN-BiLSTM
- Title(参考訳): BiLSTMとCNN-BiLSTMを用いた短期集合住宅負荷予測
- Authors: Bharat Bohara, Raymond I. Fernandez, Vysali Gollapudi, Xingpeng Li
- Abstract要約: 短期的な住宅負荷予測が注目の的となっている。
最近、この問題に対処するためにディープニューラルネットワークが活用されている。
本稿では、双方向長短期メモリ(BiLSTM)と畳み込みニューラルネットワークに基づくBiLSTMの機能について検討する。
- 参考スコア(独自算出の注目度): 0.3499870393443268
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Higher penetration of renewable and smart home technologies at the
residential level challenges grid stability as utility-customer interactions
add complexity to power system operations. In response, short-term residential
load forecasting has become an increasing area of focus. However, forecasting
at the residential level is challenging due to the higher uncertainties
involved. Recently deep neural networks have been leveraged to address this
issue. This paper investigates the capabilities of a bidirectional long
short-term memory (BiLSTM) and a convolutional neural network-based BiLSTM
(CNN-BiLSTM) to provide a day ahead (24 hr.) forecasting at an hourly
resolution while minimizing the root mean squared error (RMSE) between the
actual and predicted load demand. Using a publicly available dataset consisting
of 38 homes, the BiLSTM and CNN-BiLSTM models are trained to forecast the
aggregated active power demand for each hour within a 24 hr. span, given the
previous 24 hr. load data. The BiLSTM model achieved the lowest RMSE of 1.4842
for the overall daily forecast. In addition, standard LSTM and CNN-LSTM models
are trained and compared with the BiLSTM architecture. The RMSE of BiLSTM is
5.60%, 2.85% and 2.60% lower than the LSTM, CNN-LSTM and CNN-BiLSTM models
respectively. The source code of this work is available at
https://github.com/Varat7v2/STLF-BiLSTM-CNNBiLSTM.git.
- Abstract(参考訳): 住宅レベルでの再生可能およびスマートホーム技術の普及は、電力系統の運用に複雑さを増すため、グリッド安定性に挑戦する。
その結果,短期的な住宅負荷予測が注目されている。
しかし,不確実性が高いため,住宅レベルでの予測は困難である。
最近、この問題に対処するためにディープニューラルネットワークが活用されている。
本稿では、双方向長短期メモリ(BiLSTM)と畳み込みニューラルネットワークベースのBiLSTM(CNN-BiLSTM)の機能について検討し、実負荷と予測負荷の間のルート平均二乗誤差(RMSE)を最小化しつつ、1時間間隔で予測する1日前(24時間)を提供する。
BLSTMとCNN-BiLSTMモデルは、38世帯からなる公開データセットを使用して、前回の24時間負荷データから、24時間以内の各時間毎のアクティブ電力需要を予測するように訓練されている。
BiLSTMモデルは1日当たりの予測で最低の1.4842RMSEを達成した。
さらに、標準のLSTMとCNN-LSTMモデルをトレーニングし、BiLSTMアーキテクチャと比較する。
BiLSTMのRMSEは、それぞれLSTM、CNN-LSTM、CNN-BiLSTMよりも5.60%、2.85%、および2.60%低い。
この作業のソースコードはhttps://github.com/Varat7v2/STLF-BiLSTM-CNNBiLSTM.gitで公開されている。
関連論文リスト
- Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures [0.0]
本稿では,Calabi-Yau 4-folds(CICY4)の約100万の完全交点のデータセットに対して,ハイブリッド畳み込み再帰と純粋に反復するニューラルネットワークアーキテクチャに基づくディープラーニングを適用した結果について報告する。
h1,1,h2,1,h3,1,h2,2$の予測精度は72%のトレーニング率で,CNN-LSTM-400が最適である。
LSTM-448とLSTM-424の上位2つはLSTMベースで、サイズは448である。
論文 参考訳(メタデータ) (2024-05-27T17:55:05Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - RigLSTM: Recurrent Independent Grid LSTM for Generalizable Sequence
Learning [75.61681328968714]
本稿では,対象タスクの基盤となるモジュール構造を利用するために,リカレントな独立したGrid LSTM(RigLSTM)を提案する。
本モデルでは, セル選択, 入力特徴選択, 隠れ状態選択, ソフト状態更新を採用し, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-11-03T07:40:06Z) - Extreme-Long-short Term Memory for Time-series Prediction [0.0]
Long Short-Term Memory (LSTM)は、新しいタイプのリカレントニューラルネットワーク(RNN)である
本稿では,高度なLSTMアルゴリズムであるExtreme Long Short-Term Memory (E-LSTM)を提案する。
新しいE-LSTMは、7番目のエポックなLSTMの結果を得るためには2エポックしか必要としない。
論文 参考訳(メタデータ) (2022-10-15T09:45:48Z) - Image Classification using Sequence of Pixels [3.04585143845864]
本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T09:42:44Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Use of 1D-CNN for input data size reduction of LSTM in Hourly
Rainfall-Runoff modeling [0.0]
CNNsLSTMは石狩川流域で1時間ごとの降雨・流出モデルとして実装された。
CNNsLSTMの結果は、1D-CNNとLSTMを時差入力のみ(LSTMwHour)、1D-CNNとLSTMの並列アーキテクチャ(CNNpLSTM)、日毎および時差入力データ(LSTMwDpH)を用いたLSTMアーキテクチャと比較した。
論文 参考訳(メタデータ) (2021-11-07T23:46:06Z) - End-to-end LSTM based estimation of volcano event epicenter localization [55.60116686945561]
火山イベントの局所化問題に対処するために, エンドツーエンドのLSTMスキームを提案する。
LSTMは、時間変化の信号のダイナミクスを捉えることができるため、選択された。
その結果、LSTMベースのアーキテクチャは成功率、すなわち1.0Km未満のエラーが48.5%に等しいことを示した。
論文 参考訳(メタデータ) (2021-10-27T17:11:33Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Process Outcome Prediction: CNN vs. LSTM (with Attention) [0.15229257192293202]
時系列問題に対する畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)の性能について検討する。
その結果,これらのニューラルネットワークは高い予測能力に満足できることがわかった。
CNNのスピード、早期予測力、堅牢性は、プロセス結果予測への適用の道を開くべきだと主張しています。
論文 参考訳(メタデータ) (2021-04-14T15:38:32Z) - High-Accuracy and Low-Latency Speech Recognition with Two-Head
Contextual Layer Trajectory LSTM Model [46.34788932277904]
我々は,高精度かつ低遅延自動音声認識のための従来のハイブリッドLSTM音響モデルの改良を行った。
高い精度を達成するために、時間的モデリングとターゲット分類タスクを分離する文脈層トラジェクトリLSTM(cltLSTM)を用いる。
シーケンスレベルの教師学生学習による学習戦略をさらに改善する。
論文 参考訳(メタデータ) (2020-03-17T00:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。