論文の概要: WFTNet: Exploiting Global and Local Periodicity in Long-term Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2309.11319v2
- Date: Thu, 4 Jan 2024 06:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 17:04:35.435200
- Title: WFTNet: Exploiting Global and Local Periodicity in Long-term Time Series
Forecasting
- Title(参考訳): wftnet:長期時系列予測におけるグローバルおよびローカル周期性の利用
- Authors: Peiyuan Liu, Beiliang Wu, Naiqi Li, Tao Dai, Fengmao Lei, Jigang Bao,
Yong Jiang, Shu-Tao Xia
- Abstract要約: 本稿では,長期連続予測のためのWavelet-Fourier Transform Network (WFTNet)を提案する。
さまざまな時系列データセットのテストでは、WFTNetは他の最先端のベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 61.64303388738395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent CNN and Transformer-based models tried to utilize frequency and
periodicity information for long-term time series forecasting. However, most
existing work is based on Fourier transform, which cannot capture fine-grained
and local frequency structure. In this paper, we propose a Wavelet-Fourier
Transform Network (WFTNet) for long-term time series forecasting. WFTNet
utilizes both Fourier and wavelet transforms to extract comprehensive
temporal-frequency information from the signal, where Fourier transform
captures the global periodic patterns and wavelet transform captures the local
ones. Furthermore, we introduce a Periodicity-Weighted Coefficient (PWC) to
adaptively balance the importance of global and local frequency patterns.
Extensive experiments on various time series datasets show that WFTNet
consistently outperforms other state-of-the-art baseline. Code is available at
https://github.com/Hank0626/WFTNet.
- Abstract(参考訳): 最近のcnnとトランスフォーマのモデルでは、時系列予測に周波数と周期情報を活用しようと試みている。
しかし、既存のほとんどの仕事はフーリエ変換に基づいているため、細粒度および局所周波数構造を捉えることはできない。
本稿では,長期連続予測のためのウェーブレット・フーリエ変換ネットワーク(WFTNet)を提案する。
WFTNetは、フーリエ変換とウェーブレット変換の両方を用いて信号から包括的な時間周波数情報を抽出する。
さらに,グローバルおよび局所周波数パターンの重要性を適応的にバランスさせるために,周期性重み付き係数(PWC)を導入する。
様々な時系列データセットの大規模な実験により、WFTNetは他の最先端のベースラインを一貫して上回っていることが示されている。
コードはhttps://github.com/Hank0626/WFTNetで入手できる。
関連論文リスト
- Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - HiFTNet: A Fast High-Quality Neural Vocoder with Harmonic-plus-Noise
Filter and Inverse Short Time Fourier Transform [21.896817015593122]
時間周波数領域に高調波+雑音源フィルタを組み込んだiSTFTNet(HiFTNet)の拡張を提案する。
LJSpeech の主観評価では,iSTFTNet と HiFi-GAN のどちらよりも優れていた。
私たちの研究は、効率的で高品質なニューラルボコーディングのための新しいベンチマークを設定し、リアルタイムアプリケーションへの道を開いた。
論文 参考訳(メタデータ) (2023-09-18T05:30:15Z) - TFDNet: Time-Frequency Enhanced Decomposed Network for Long-term Time
Series Forecasting [2.6361094144982005]
長期の時系列予測は重要な課題であり、幅広い応用がある。
最近の手法は、1つのドメインから下位のパターンをキャプチャすることに焦点を当てている。
本稿では時間周波数拡張分解ネットワーク(TFDNet)を提案する。
論文 参考訳(メタデータ) (2023-08-25T14:01:43Z) - Fourier-Net+: Leveraging Band-Limited Representation for Efficient 3D
Medical Image Registration [62.53130123397081]
U-Netスタイルのネットワークは、高密度変位場を予測するために、教師なし画像登録に一般的に利用される。
まず,コストのかかるU-Netスタイルの拡張パスをパラメータフリーモデル駆動デコーダに置き換えるFourier-Netを提案する。
次に、Fourier-Net+を導入し、さらに画像の帯域制限空間表現を入力とし、U-Netスタイルのネットワークの収縮経路における畳み込み層の数を減少させる。
論文 参考訳(メタデータ) (2023-07-06T13:57:12Z) - FECAM: Frequency Enhanced Channel Attention Mechanism for Time Series
Forecasting [21.933798421967225]
時系列予測は、実世界の情報が様々なシナリオにあるため、長年にわたる課題である。
モデルが、実世界のデータセットに豊富に含まれている周波数情報をキャプチャする能力に欠けているのは、そのためだと私たちは考えています。
離散コサイン変換に基づく周波数相互依存性を適応的にモデル化する新しい周波数強調チャネルアテンションを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:40:55Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Deep Fourier Up-Sampling [100.59885545206744]
フーリエ領域のアップサンプリングは、そのような局所的な性質に従わないため、より難しい。
これらの問題を解決するために理論的に健全なDeep Fourier Up-Sampling (FourierUp)を提案する。
論文 参考訳(メタデータ) (2022-10-11T06:17:31Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Wavelet Networks: Scale-Translation Equivariant Learning From Raw
Time-Series [31.73386289965465]
スケール変換同変写像はウェーブレット変換と強い類似性を持っている。
この類似性に着想を得て、我々のネットワークをウェーブレットネットワークと呼び、ネストした非線形ウェーブレットのような時間周波数変換を行うことを示す。
論文 参考訳(メタデータ) (2020-06-09T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。