論文の概要: Tree-Based Learning in RNNs for Power Consumption Forecasting
- arxiv url: http://arxiv.org/abs/2209.01378v1
- Date: Sat, 3 Sep 2022 09:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:38:39.642752
- Title: Tree-Based Learning in RNNs for Power Consumption Forecasting
- Title(参考訳): 電力消費予測のためのRNNにおけるツリーベース学習
- Authors: Roberto Baviera, Pietro Manzoni
- Abstract要約: RNN(p)と呼ばれる複数の時間ラグで動作するリカレントニューラルネットワークは、自己回帰ARX(p)モデルの自然な一般化である。
我々は、RNN(p)モデルをトレーニングする場合、時間と空間の複雑さの観点から、他の学習アルゴリズムの方がはるかに効率的であることが証明された。
時間スケールでの消費電力予測のためのRNN(p)モデルの適用について述べる。
- 参考スコア(独自算出の注目度): 0.4822598110892847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A Recurrent Neural Network that operates on several time lags, called an
RNN(p), is the natural generalization of an Autoregressive ARX(p) model. It is
a powerful forecasting tool when different time scales can influence a given
phenomenon, as it happens in the energy sector where hourly, daily, weekly and
yearly interactions coexist. The cost-effective BPTT is the industry standard
as learning algorithm for RNNs. We prove that, when training RNN(p) models,
other learning algorithms turn out to be much more efficient in terms of both
time and space complexity. We also introduce a new learning algorithm, the Tree
Recombined Recurrent Learning, that leverages on a tree representation of the
unrolled network and appears to be even more effective. We present an
application of RNN(p) models for power consumption forecasting on the hourly
scale: experimental results demonstrate the efficiency of the proposed
algorithm and the excellent predictive accuracy achieved by the selected model
both in point and in probabilistic forecasting of the energy consumption.
- Abstract(参考訳): RNN(p)と呼ばれる複数の時間ラグで動作するリカレントニューラルネットワークは、自己回帰ARX(p)モデルの自然な一般化である。
時間、日、週、年ごとの相互作用が共存するエネルギーセクターで起こるように、異なる時間スケールが特定の現象に影響を与える強力な予測ツールである。
BPTTは、RNNの学習アルゴリズムとして業界標準である。
我々は、RNN(p)モデルをトレーニングする場合、時間と空間の複雑さの観点から、他の学習アルゴリズムの方がはるかに効率的であることが証明された。
また,未学習ネットワークのツリー表現を利用した新たな学習アルゴリズムである木組再帰学習を導入し,さらに効果的であるように思われる。
本稿では,時間スケールでの電力消費予測へのRNN(p)モデルの適用について述べる。実験により,提案アルゴリズムの効率と,選択したモデルによるエネルギー消費の確率的予測における予測精度について検証した。
関連論文リスト
- Sparse Spiking Neural Network: Exploiting Heterogeneity in Timescales
for Pruning Recurrent SNN [19.551319330414085]
スパイキングニューラルネットワーク(RSNN)は、計算的に効率的で脳に触発された学習モデルとして登場した。
伝統的に、スパースSNNは、まずターゲットタスクのために密度が高く複雑なSNNを訓練することによって得られる。
本稿では,大きめのランダムモデルを用いて,スパースRSNNを設計するためのタスク依存手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T02:36:15Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - Renewable energy management in smart home environment via forecast
embedded scheduling based on Recurrent Trend Predictive Neural Network [0.0]
本稿では,Recurrent Trends Predictive Neural Network based Forecast Embedded Scheduling (rTPNN-FES)と呼ばれるMLアルゴリズムを提案する。
rTPNN-FESは、再生可能エネルギーの発生と家電のスケジュールを同時に予測する新しいニューラルネットワークアーキテクチャである。
組込み構造により、rTPNN-FESは予測とスケジューリングのための別々のアルゴリズムの使用を排除し、予測エラーに対して堅牢なスケジュールを生成する。
論文 参考訳(メタデータ) (2023-07-04T10:18:16Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Distilled Neural Networks for Efficient Learning to Rank [0.0]
本稿では, 蒸留法, プルーニング法, 高速行列乗算法を組み合わせて, ニューラルスコアリング時間を高速化する手法を提案する。
2つの公開学習からランクへのデータセットに関する総合的な実験は、新しいアプローチで生成されたニューラルネットワークが、有効性と効率のトレードオフのあらゆる点で競合していることを示している。
論文 参考訳(メタデータ) (2022-02-22T08:40:18Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。