論文の概要: xPatch: Dual-Stream Time Series Forecasting with Exponential Seasonal-Trend Decomposition
- arxiv url: http://arxiv.org/abs/2412.17323v1
- Date: Mon, 23 Dec 2024 06:32:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:53:58.947056
- Title: xPatch: Dual-Stream Time Series Forecasting with Exponential Seasonal-Trend Decomposition
- Title(参考訳): xPatch: 指数季節変動分解によるデュアルストリーム時系列予測
- Authors: Artyom Stitsyuk, Jaesik Choi,
- Abstract要約: 指数関数分解を利用した新しいデュアルストリームアーキテクチャを開発した。
本研究では,頑健なアークタンジエント損失関数とシグモイド学習率調整スキームを開発し,予測性能の過度化と向上を防止した。
- 参考スコア(独自算出の注目度): 21.919661430250798
- License:
- Abstract: In recent years, the application of transformer-based models in time-series forecasting has received significant attention. While often demonstrating promising results, the transformer architecture encounters challenges in fully exploiting the temporal relations within time series data due to its attention mechanism. In this work, we design eXponential Patch (xPatch for short), a novel dual-stream architecture that utilizes exponential decomposition. Inspired by the classical exponential smoothing approaches, xPatch introduces the innovative seasonal-trend exponential decomposition module. Additionally, we propose a dual-flow architecture that consists of an MLP-based linear stream and a CNN-based non-linear stream. This model investigates the benefits of employing patching and channel-independence techniques within a non-transformer model. Finally, we develop a robust arctangent loss function and a sigmoid learning rate adjustment scheme, which prevent overfitting and boost forecasting performance. The code is available at the following repository: https://github.com/stitsyuk/xPatch.
- Abstract(参考訳): 近年,時系列予測におけるトランスフォーマーモデルの適用が注目されている。
しばしば有望な結果を示すが、トランスフォーマーアーキテクチャは、その注意機構のために時系列データ内の時間的関係を完全に活用する際の課題に直面する。
本研究では,指数分解を利用した新しい二重ストリームアーキテクチャであるeXponential Patch(xPatch,略してxPatch)を設計する。
古典的な指数的滑らか化アプローチにインスパイアされたxPatchは、革新的な季節差指数分解モジュールを導入している。
さらに,MLPベースの線形ストリームとCNNベースの非線形ストリームからなる二重フローアーキテクチャを提案する。
本モデルでは,非変圧器モデルにおけるパッチ適用とチャネル独立性手法の利点について検討する。
最後に,頑健なアークタンジェント損失関数とシグモイド学習率調整スキームを開発し,予測性能の過度化と向上を防止した。
コードは以下のリポジトリで入手できる。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - PatchMixer: A Patch-Mixing Architecture for Long-Term Time Series Forecasting [3.7244649185886978]
本稿では,新しいCNNモデルであるPatchMixerを提案する。
時間的情報を保存するために、置換不変な畳み込み構造を導入する。
最先端のCNNと比べれば、PatchMixerは3.9%、相対的な改善は21.2%である。
論文 参考訳(メタデータ) (2023-10-01T12:47:59Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Infomaxformer: Maximum Entropy Transformer for Long Time-Series
Forecasting Problem [6.497816402045097]
Transformerアーキテクチャは、自然言語処理(NLP)やコンピュータビジョン(CV)といった多くのタスクにおいて、最先端の結果をもたらす。
しかし、この高度な能力により、二次的な時間複雑性と高いメモリ使用量により、Transformerは長い時系列予測問題に対処できなくなる。
本稿では,エンコーダ・デコーダアーキテクチャと季節差分解を併用して,より特定の季節差部分を取得する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T14:08:21Z) - Spatio-Temporal Wind Speed Forecasting using Graph Networks and Novel
Transformer Architectures [1.278093617645299]
本研究は,ノルウェー大陸棚の多段階風速予測に焦点を当てた。
グラフニューラルネットワーク(GNN)アーキテクチャは、時間的相関を学習するために異なる更新機能を持つ空間的依存関係を抽出するために使用された。
LogSparse TransformerとAutoformerが風速予測に適用されたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-08-29T13:26:20Z) - Pattern-based Long Short-term Memory for Mid-term Electrical Load
Forecasting [0.0]
本研究は,1年間の地平線で月次電力需要時系列を予測するためのネットワークを提示する。
この研究の新規性は、分解の代替として季節時系列のパターン表現を使用することである。
欧州35か国における月次電力需要時系列のシミュレーション研究により,提案モデルの高性能性が確認された。
論文 参考訳(メタデータ) (2020-04-22T08:39:32Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。