論文の概要: A Joint Time-frequency Domain Transformer for Multivariate Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2305.14649v1
- Date: Wed, 24 May 2023 02:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:28:49.476880
- Title: A Joint Time-frequency Domain Transformer for Multivariate Time Series
Forecasting
- Title(参考訳): 多変量時系列予測のためのジョイントタイム周波数領域トランス
- Authors: Yushu Chen, Shengzhuo Liu, Jinzhe Yang, Hao Jing, Wenlai Zhao, and
Guangwen Yang
- Abstract要約: 本稿では,多変量予測のための共同時間周波数領域変換器(JTFT)を提案する。
この方法は、少数の学習可能な周波数を用いて周波数領域における時系列の間隔を利用して、時間依存性を効果的に抽出する。
6つの実世界のデータセットで実施された実験は、JTFTが最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 6.616852139690042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To enhance predicting performance while minimizing computational demands,
this paper introduces a joint time-frequency domain Transformer (JTFT) for
multivariate forecasting. The method exploits the sparsity of time series in
the frequency domain using a small number of learnable frequencies to extract
temporal dependencies effectively. Alongside the frequency domain
representation, a fixed number of the most recent data points are directly
encoded in the time domain, bolstering the learning of local relationships and
mitigating the adverse effects of non-stationarity. JTFT achieves linear
complexity since the length of the internal representation remains independent
of the input sequence length. Additionally, a low-rank attention layer is
proposed to efficiently capture cross-dimensional dependencies and prevent
performance degradation due to the entanglement of temporal and channel-wise
modeling. Experiments conducted on six real-world datasets demonstrate that
JTFT outperforms state-of-the-art methods.
- Abstract(参考訳): 計算要求を最小化しながら予測性能を向上させるため,多変量予測のための共同時間周波数領域変換器(JTFT)を提案する。
この方法は、少数の学習可能な周波数を用いて周波数領域における時系列の間隔を利用して、時間依存性を効果的に抽出する。
周波数領域表現と並行して、最新のデータポイントの固定数が時間領域に直接エンコードされ、局所的な関係の学習を促進し、非定常性の悪影響を緩和する。
JTFTは、内部表現の長さが入力シーケンス長に依存していないため、線形複雑性を実現する。
さらに, 時間的およびチャネル的モデリングの絡み合いによる性能劣化を効果的に防止するために, 低ランクの注意層を提案する。
6つの実世界のデータセットで実施された実験は、JTFTが最先端の手法より優れていることを示した。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - MixLinear: Extreme Low Resource Multivariate Time Series Forecasting with 0.1K Parameters [6.733646592789575]
時系列予測(LTSF)は、パターンや傾向を特定するために、大量の時系列データを分析することによって、長期的な価値を予測する。
トランスフォーマーベースのモデルは高い予測精度を提供するが、ハードウェア制約のあるデバイスにデプロイするには計算集約的すぎることが多い。
資源制約のあるデバイスに特化して設計された超軽量時系列予測モデルであるMixLinearを提案する。
論文 参考訳(メタデータ) (2024-10-02T23:04:57Z) - MMFNet: Multi-Scale Frequency Masking Neural Network for Multivariate Time Series Forecasting [6.733646592789575]
長期時系列予測(LTSF)は、電力消費計画、財務予測、疾病の伝播分析など、多くの実世界の応用において重要である。
MMFNetは,マルチスケールマスク付き周波数分解手法を利用して,長期多変量予測を向上する新しいモデルである。
MMFNetは、時系列を様々なスケールの周波数セグメントに変換し、学習可能なマスクを用いて非関連成分を適応的にフィルタリングすることで、微細で中間的で粗い時間パターンをキャプチャする。
論文 参考訳(メタデータ) (2024-10-02T22:38:20Z) - FAITH: Frequency-domain Attention In Two Horizons for Time Series Forecasting [13.253624747448935]
時系列予測は、産業機器の保守、気象学、エネルギー消費、交通流、金融投資など、様々な分野で重要な役割を果たしている。
現在のディープラーニングベースの予測モデルは、予測結果と基礎的真実の間に大きな違いを示すことが多い。
本稿では、時系列をトレンドと季節成分に分解する2つのホライズンズにおける周波数領域注意モデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:37:02Z) - Rough Transformers for Continuous and Efficient Time-Series Modelling [46.58170057001437]
実世界の医療環境における時系列データは、典型的には長距離依存を示し、一様でない間隔で観察される。
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
Rough Transformersは、Neural ODEベースのモデルの利点を得ながら、バニラアテンションを一貫して上回ります。
論文 参考訳(メタデータ) (2024-03-15T13:29:45Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Multi-scale Transformer Pyramid Networks for Multivariate Time Series
Forecasting [8.739572744117634]
短時間の時間依存性をキャプチャする次元不変な埋め込み手法を導入する。
本稿では,マルチスケールトランスフォーマーピラミッドネットワーク(MTPNet)を提案する。
論文 参考訳(メタデータ) (2023-08-23T06:40:05Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。