論文の概要: A Transformer approach for Electricity Price Forecasting
- arxiv url: http://arxiv.org/abs/2403.16108v2
- Date: Sat, 30 Mar 2024 23:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 13:35:12.020078
- Title: A Transformer approach for Electricity Price Forecasting
- Title(参考訳): 電力価格予測のための変圧器アプローチ
- Authors: Oscar Llorente, Jose Portela,
- Abstract要約: 本稿では、純粋なトランスフォーマーモデルを用いた電力価格予測(EPF)に対する新しいアプローチを提案する。
他の選択肢とは対照的に、アテンション機構と組み合わせて他のリカレントネットワークは使用されない。
その結果、トランスフォーマーモデルは従来の手法よりも優れており、信頼性と持続可能な電力系統運用のための有望なソリューションを提供することがわかった。
- 参考スコア(独自算出の注目度): 4.450536872346658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach to electricity price forecasting (EPF) using a pure Transformer model. As opposed to other alternatives, no other recurrent network is used in combination to the attention mechanism. Hence, showing that the attention layer is enough for capturing the temporal patterns. The paper also provides fair comparison of the models using the open-source EPF toolbox and provide the code to enhance reproducibility and transparency in EPF research. The results show that the Transformer model outperforms traditional methods, offering a promising solution for reliable and sustainable power system operation.
- Abstract(参考訳): 本稿では、純粋なトランスフォーマーモデルを用いた電力価格予測(EPF)に対する新しいアプローチを提案する。
他の選択肢とは対照的に、アテンション機構と組み合わせて他のリカレントネットワークは使用されない。
したがって、注意層は時間的パターンを捉えるのに十分であることを示す。
また、オープンソースのEPFツールボックスを用いたモデルの比較を行い、EPF研究における再現性と透明性を高めるためのコードを提供する。
その結果、トランスフォーマーモデルは従来の手法よりも優れており、信頼性と持続可能な電力系統運用のための有望なソリューションを提供することがわかった。
関連論文リスト
- Linearly-evolved Transformer for Pan-sharpening [34.06189165260206]
ビジョン・トランスフォーマー・ファミリーは、地球規模の空間情報モデリング機構によって駆動される衛星パンシャーピング・フィールドを支配してきた。
これらの有望なパンシャープ法における標準的なモデリング規則は、変圧器の変種を概ねカスケード的に積み重ねることである。
本稿では,効率的な線形進化型変圧器変圧器を提案し,軽量なパンシャーピングフレームワークの構築に利用した。
論文 参考訳(メタデータ) (2024-04-19T11:38:34Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Self-Supervised Pre-Training for Table Structure Recognition Transformer [25.04573593082671]
テーブル構造認識変換器のための自己教師付き事前学習(SSP)手法を提案する。
線形射影変換器とハイブリッドCNN変換器のパフォーマンスギャップは、TSRモデルにおける視覚エンコーダのSSPにより緩和できる。
論文 参考訳(メタデータ) (2024-02-23T19:34:06Z) - Enhancing Actuarial Non-Life Pricing Models via Transformers [0.0]
我々は、ニューラルネットワークとローカルGLMnetを組み合わせた基盤を構築し、これらのモデルを特徴トークン変換器を介して強化する。
提案手法は,特定の一般化線形モデルの利点を保ちながら,ベンチマークモデルよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-10T12:06:23Z) - Deep Generative Methods for Producing Forecast Trajectories in Power
Systems [0.0]
トランスポート・システム・オペレーター(TSO)は、将来の電力系統の機能をシミュレートするための分析を行う必要がある。
これらのシミュレーションは意思決定プロセスの入力として使用される。
論文 参考訳(メタデータ) (2023-09-26T14:43:01Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Effective Pre-Training Objectives for Transformer-based Autoencoders [97.99741848756302]
トランスフォーマーエンコーダの効率,コスト,精度のトレードオフについて検討する。
共通の目的の機能を組み合わせて、新しい効果的な事前学習アプローチを作成します。
論文 参考訳(メタデータ) (2022-10-24T18:39:44Z) - Cascaded Deep Hybrid Models for Multistep Household Energy Consumption
Forecasting [5.478764356647437]
本研究は,多段階家庭電力消費予測のための2つのハイブリッドキャスケードモデルを提案する。
提案したハイブリッドモデルでは,既存のマルチステップ電力消費予測手法よりも優れた予測性能が得られる。
論文 参考訳(メタデータ) (2022-07-06T11:02:23Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。