論文の概要: Unlocking the Potential of Deep Learning in Peak-Hour Series Forecasting
- arxiv url: http://arxiv.org/abs/2307.01597v2
- Date: Sat, 30 Sep 2023 05:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 13:53:55.180418
- Title: Unlocking the Potential of Deep Learning in Peak-Hour Series Forecasting
- Title(参考訳): ピーク時間連続予測における深層学習の可能性
- Authors: Zhenwei Zhang, Xin Wang, Jingyuan Xie, Heling Zhang, Yuantao Gu
- Abstract要約: 本稿では,Pak-Hour Series Forecasting (PHSF)タスクに特化して設計された新しいフレームワークであるSeq2Peakについて述べる。
非定常性問題を緩和するCyclicNormパイプラインと、シンプルだが効果的なトレーニング可能なパラメータフリーのピーク時デコーダの2つの重要なコンポーネントを提供する。
公開されている時系列データセットの実験は、提案フレームワークの有効性を実証している。
- 参考スコア(独自算出の注目度): 19.396667925659507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlocking the potential of deep learning in Peak-Hour Series Forecasting
(PHSF) remains a critical yet underexplored task in various domains. While
state-of-the-art deep learning models excel in regular Time Series Forecasting
(TSF), they struggle to achieve comparable results in PHSF. This can be
attributed to the challenges posed by the high degree of non-stationarity in
peak-hour series, which makes direct forecasting more difficult than standard
TSF. Additionally, manually extracting the maximum value from regular
forecasting results leads to suboptimal performance due to models minimizing
the mean deficit. To address these issues, this paper presents Seq2Peak, a
novel framework designed specifically for PHSF tasks, bridging the performance
gap observed in TSF models. Seq2Peak offers two key components: the CyclicNorm
pipeline to mitigate the non-stationarity issue and a simple yet effective
trainable-parameter-free peak-hour decoder with a hybrid loss function that
utilizes both the original series and peak-hour series as supervised signals.
Extensive experimentation on publicly available time series datasets
demonstrates the effectiveness of the proposed framework, yielding a remarkable
average relative improvement of 37.7% across four real-world datasets for both
transformer- and non-transformer-based TSF models.
- Abstract(参考訳): Peak-Hour Series Forecasting (PHSF) における深層学習の可能性を解き放つことは、様々な領域において重要で未調査の課題である。
最先端のディープラーニングモデルは通常の時系列予測(TSF)では優れていますが、PHSFでは同等の結果を得るのに苦労しています。
これは、ピーク時系列における高い非定常性によって引き起こされる課題によるもので、これは通常の TSF よりも直接予測が困難である。
さらに、定期的な予測結果から手動で最大値を抽出すると、平均赤字を最小化するモデルによる最適化性能が低下する。
これらの問題に対処するため,本論文では,PHSFタスク用に設計された新しいフレームワークであるSeq2Peakについて述べる。
Seq2Peakは2つの重要なコンポーネントを提供している。非定常性問題を緩和するCyclicNormパイプラインと、オリジナルのシリーズとピーク時間の両方を教師付き信号として利用するハイブリッド損失関数を備えた単純なトレーニング可能なパラメータなしピーク時デコーダである。
一般公開された時系列データセットに関する広範囲な実験により、提案フレームワークの有効性が示され、トランスフォーマベースとトランスフォーマベースの両方のtsfモデルにおいて、4つの実世界のデータセットで平均37.7%の大幅な改善が得られた。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Large Language Models Are Zero-Shot Time Series Forecasters [53.24444237828548]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - A Novel Method Combines Moving Fronts, Data Decomposition and Deep
Learning to Forecast Intricate Time Series [0.0]
インド・サマーモンスーン・レインフォール(英語: Indian Summer Monsoon Rainfall、ISMR)は、インドの都市。
従来のワンタイム分解技術は、未来からの情報が漏れることに悩まされている。
データ漏洩を防止するために移動フロント(MF)法を提案する。
論文 参考訳(メタデータ) (2023-03-11T12:07:26Z) - FrAug: Frequency Domain Augmentation for Time Series Forecasting [6.508992154478217]
データ拡張(DA)は、ディープラーニングのためのトレーニングデータサイズを拡張するデファクトソリューションになっています。
本稿では、予測における拡張データ-ラベルペアのセマンティック一貫性を保証するための、単純で効果的な周波数領域拡張手法を提案する。
その結果,ほとんどの場合,FrAugはTSFモデルの予測精度を高めることができることがわかった。
論文 参考訳(メタデータ) (2023-02-18T11:25:42Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - CLMFormer: Mitigating Data Redundancy to Revitalize Transformer-based
Long-Term Time Series Forecasting System [46.39662315849883]
時系列予測(LTSF)は,様々な応用において重要な役割を担っている。
既存のTransformerベースのモデルであるFedformerやInformerは、いくつかのエポックの後、検証セット上で最高のパフォーマンスを達成することが多い。
本稿では,カリキュラム学習とメモリ駆動デコーダの導入により,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。