論文の概要: A New State-of-the-Art Transformers-Based Load Forecaster on the Smart
Grid Domain
- arxiv url: http://arxiv.org/abs/2108.02628v1
- Date: Thu, 5 Aug 2021 14:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 16:36:04.536203
- Title: A New State-of-the-Art Transformers-Based Load Forecaster on the Smart
Grid Domain
- Title(参考訳): スマートグリッド領域における新しい最先端変圧器負荷予測器
- Authors: Andre Luiz Farias Novaes, Rui Alexandre de Matos Araujo, Jose
Figueiredo, Lucas Aguiar Pavanelli
- Abstract要約: スマートグリッドの効率的なエネルギー管理と電力系統計画には,計測レベルの負荷予測が不可欠である。
メーターレベルの負荷予測タスクのための新しいTransformerベースのアルゴリズムは、かつての最先端LSTMと従来のベンチマークであるvanilla RNNを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meter-level load forecasting is crucial for efficient energy management and
power system planning for Smart Grids (SGs), in tasks associated with
regulation, dispatching, scheduling, and unit commitment of power grids.
Although a variety of algorithms have been proposed and applied on the field,
more accurate and robust models are still required: the overall utility cost of
operations in SGs increases 10 million currency units if the load forecasting
error increases 1%, and the mean absolute percentage error (MAPE) in
forecasting is still much higher than 1%. Transformers have become the new
state-of-the-art in a variety of tasks, including the ones in computer vision,
natural language processing and time series forecasting, surpassing alternative
neural models such as convolutional and recurrent neural networks. In this
letter, we present a new state-of-the-art Transformer-based algorithm for the
meter-level load forecasting task, which has surpassed the former
state-of-the-art, LSTM, and the traditional benchmark, vanilla RNN, in all
experiments by a margin of at least 13% in MAPE.
- Abstract(参考訳): スマートグリッド(SG)の効率的なエネルギー管理と電力システム計画には,電力グリッドの規制,ディスパッチ,スケジューリング,ユニットコミットメントに関連するタスクにおいて,メーターレベルの負荷予測が不可欠である。
様々なアルゴリズムが提案され、この分野に適用されているが、より正確で堅牢なモデルが必要であり、sgsでの運用の全体的な実用コストは、負荷予測エラーが1%増加すると1000万通貨単位を増加させ、予測における平均絶対パーセンテージエラー(mape)は1%以上である。
トランスフォーマーは、コンピュータビジョンや自然言語処理、時系列予測など、畳み込みニューラルネットワークやリカレントニューラルネットワークのような代替ニューラルネットワークモデルを上回るさまざまなタスクにおいて、新たな最先端技術となっている。
本稿では,従来のLSTMおよび従来のベンチマークであるバニラRNNを少なくとも13%のMAPEのマージンで越えた,メートルレベルの負荷予測タスクのための,最先端のTransformerベースの新しいアルゴリズムを提案する。
関連論文リスト
- Deep Analysis of Time Series Data for Smart Grid Startup Strategies: A Transformer-LSTM-PSO Model Approach [0.8702432681310401]
Transformer-LSTM-PSOモデルはグリッド起動方式における複雑な時間的関係をより効果的に捉えるように設計されている。
Modelは、既存のベンチマークと比較して、複数のデータセットにわたるRMSEとMAE値の低い値を達成する。
Transformer-LSTM-PSOモデルの適用は、スマートグリッド予測分析の大幅な進歩を示している。
論文 参考訳(メタデータ) (2024-08-22T04:52:02Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Differential Evolution Algorithm based Hyper-Parameters Selection of
Transformer Neural Network Model for Load Forecasting [0.0]
トランスフォーマーモデルは、そのアテンションメカニズムから派生した長距離依存を学習できるため、ロード予測を改善する可能性がある。
我々の研究は,平均二乗誤差 (MSE) や平均絶対パーセンテージ誤差 (MAPE) といった数値に基づく負荷予測において,異なるメタヒューリスティックアルゴリズムと統合されたトランスフォーマーベースニューラルネットワークモデルを比較した。
論文 参考訳(メタデータ) (2023-07-28T04:29:53Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - Short-Term Electricity Load Forecasting Using the Temporal Fusion
Transformer: Effect of Grid Hierarchies and Data Sources [0.0]
短期負荷予測のためのTFTアーキテクチャの可能性について検討する。
TFTアーキテクチャは、グリッド全体の日頭予測のための最先端のLSTMモデルよりも高い予測性能を提供していない。
その結果, サブステーションレベルに適用した場合, 上位グリッドレベルへのアグリゲーションによるTFTの大幅な改善が認められた。
論文 参考訳(メタデータ) (2023-05-17T20:33:51Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Wasserstein Adversarial Transformer for Cloud Workload Prediction [5.4168067277885825]
この研究は、TransformerネットワークにインスパイアされたWGAN-gp Transformerと呼ばれる新しい時系列予測モデルを示し、Wasserstein-GANを改良した。
提案手法では,トランスフォーマーネットワークをジェネレータとして,マルチ層パーセプトロンを批判として採用する。
We show WGAN-gp Transformer achieve a 5 more inference time with up 5.1% higher prediction accuracy against the State-of-the-art approach。
論文 参考訳(メタデータ) (2022-03-12T18:58:00Z) - Demand Forecasting in Smart Grid Using Long Short-Term Memory [0.0]
Long Short-Term Memory (LSTM) は時系列データの予測において有望な結果を示す。
本稿では、ニューラルネットワークアーキテクチャを用いたLSTMに基づくモデルを提案し、電力需要を予測する。
論文 参考訳(メタデータ) (2021-07-28T21:45:54Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Simplified Self-Attention for Transformer-based End-to-End Speech
Recognition [56.818507476125895]
本稿では,プロジェクション層の代わりにFSMNメモリブロックを用いてクエリとキーベクトルを生成する,簡易な自己アテンション層(SSAN)を提案する。
我々は,公的なAISHELL-1,1000時間内,20,000時間大規模マンダリンタスクにおけるSSANベースおよび従来のSANベースのトランスフォーマーの評価を行った。
論文 参考訳(メタデータ) (2020-05-21T04:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。