論文の概要: FECAM: Frequency Enhanced Channel Attention Mechanism for Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2212.01209v1
- Date: Fri, 2 Dec 2022 14:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:35:58.161550
- Title: FECAM: Frequency Enhanced Channel Attention Mechanism for Time Series
Forecasting
- Title(参考訳): FECAM:時系列予測のための周波数強調チャネルアテンション機構
- Authors: Maowei Jiang, Pengyu Zeng, Kai Wang, Huan Liu, Wenbo Chen, Haoran Liu
- Abstract要約: 時系列予測は、実世界の情報が様々なシナリオにあるため、長年にわたる課題である。
モデルが、実世界のデータセットに豊富に含まれている周波数情報をキャプチャする能力に欠けているのは、そのためだと私たちは考えています。
離散コサイン変換に基づく周波数相互依存性を適応的にモデル化する新しい周波数強調チャネルアテンションを提案する。
- 参考スコア(独自算出の注目度): 21.933798421967225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is a long-standing challenge due to the real-world
information is in various scenario (e.g., energy, weather, traffic, economics,
earthquake warning). However some mainstream forecasting model forecasting
result is derailed dramatically from ground truth. We believe it's the reason
that model's lacking ability of capturing frequency information which richly
contains in real world datasets. At present, the mainstream frequency
information extraction methods are Fourier transform(FT) based. However, use of
FT is problematic due to Gibbs phenomenon. If the values on both sides of
sequences differ significantly, oscillatory approximations are observed around
both sides and high frequency noise will be introduced. Therefore We propose a
novel frequency enhanced channel attention that adaptively modelling frequency
interdependencies between channels based on Discrete Cosine Transform which
would intrinsically avoid high frequency noise caused by problematic periodity
during Fourier Transform, which is defined as Gibbs Phenomenon. We show that
this network generalize extremely effectively across six real-world datasets
and achieve state-of-the-art performance, we further demonstrate that frequency
enhanced channel attention mechanism module can be flexibly applied to
different networks. This module can improve the prediction ability of existing
mainstream networks, which reduces 35.99% MSE on LSTM, 10.01% on Reformer,
8.71% on Informer, 8.29% on Autoformer, 8.06% on Transformer, etc., at a slight
computational cost ,with just a few line of code. Our codes and data are
available at https://github.com/Zero-coder/FECAM.
- Abstract(参考訳): 時系列予測は、現実の情報が様々なシナリオ(エネルギー、天気、交通、経済、地震警報など)にあるため、長年にわたる課題である。
しかし、いくつかの主流予測モデル予測結果は、真実から劇的に脱線している。
私たちは、モデルが実世界のデータセットに豊富に含まれている周波数情報をキャプチャする能力が欠如しているのが理由だと考えています。
現在、主流周波数情報抽出手法はフーリエ変換(ft)に基づくものである。
しかし、ギブス現象によりFTの使用が問題となる。
列の両側の値が著しく異なる場合、振動近似が両側で観測され、高周波ノイズが導入される。
そこで本研究では,gibbs現象として定義されるフーリエ変換中に発生する高周波ノイズを本質的に回避する離散コサイン変換に基づくチャネル間の周波数相互依存性を適応的にモデル化する新しい周波数拡張チャネル注意を提案する。
本稿では,このネットワークが6つの実世界のデータセットをまたいで極めて効果的に一般化し,最先端のパフォーマンスを実現することを示すとともに,周波数拡張チャネルアテンション機構モジュールを異なるネットワークに柔軟に適用できることを示す。
このモジュールは、LSTMで35.99%のMSE、改革派で10.01%、インフォーマーで8.71%、オートフォーマーで8.29%、トランスフォーマーで8.06%、わずか数行のコードで、既存の主流ネットワークの予測能力を向上させることができる。
私たちのコードとデータはhttps://github.com/Zero-coder/FECAMで公開されています。
関連論文リスト
- FM-TS: Flow Matching for Time Series Generation [71.31148785577085]
本稿では、時系列生成のための修正フローマッチングベースのフレームワークFM-TSを紹介する。
FM-TSは、トレーニングと推論の点でより効率的である。
我々は、太陽予測とMuJoCo計算タスクにおいて優れた性能を達成した。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Less is more: Embracing sparsity and interpolation with Esiformer for time series forecasting [19.8447763392479]
実世界のアプリケーションから生成された時系列データは、常に高いばらつきと多くのノイズを示す。
本稿では,元のデータに適用し,データ全体のばらつきを低減し,ノイズの影響を軽減するEsiformerを提案する。
MSEを6.5%,MAEを5.8%削減した。
論文 参考訳(メタデータ) (2024-10-08T06:45:47Z) - Accelerating Inference of Networks in the Frequency Domain [8.125023712173686]
本稿では,周波数パラメータが疎いネットワークを高速化するために,周波数領域におけるネットワーク推論を提案する。
特に、空間領域におけるネットワーク推論に双対な周波数推論連鎖を提案する。
提案手法は,高速比(100倍以上)の場合の精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-06T03:34:38Z) - Deep Frequency Derivative Learning for Non-stationary Time Series Forecasting [12.989064148254936]
非定常時系列予測のためのディープ周波数微分学習フレームワークDERITSを提案する。
具体的には、DERITSは、新しい可逆変換、すなわち周波数微分変換(FDT)に基づいて構築される。
論文 参考訳(メタデータ) (2024-06-29T17:56:59Z) - Fredformer: Frequency Debiased Transformer for Time Series Forecasting [8.356290446630373]
Transformerモデルは時系列予測において主要なパフォーマンスを示している。
データの中で低周波の特徴を学習し、高周波の特徴を見落とし、周波数バイアスを示す傾向がある。
そこで我々はFredformerを提案する。Fredformerは、異なる周波数帯域にまたがる特徴を均等に学習することで、周波数バイアスを軽減するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-06-13T11:29:21Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - WFTNet: Exploiting Global and Local Periodicity in Long-term Time Series
Forecasting [61.64303388738395]
本稿では,長期連続予測のためのWavelet-Fourier Transform Network (WFTNet)を提案する。
さまざまな時系列データセットのテストでは、WFTNetは他の最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-20T13:44:18Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。