論文の概要: FRWKV:Frequency-Domain Linear Attention for Long-Term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2512.07539v2
- Date: Tue, 09 Dec 2025 06:21:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:23.026653
- Title: FRWKV:Frequency-Domain Linear Attention for Long-Term Time Series Forecasting
- Title(参考訳): FRWKV:長期連続予測のための周波数領域線形アテンション
- Authors: Qingyuan Yang, Shizhuo Deng, Dongyue Chen, Da Teng, Zehua Gan,
- Abstract要約: 従来のトランスフォーマーは、2次複雑さのため、時系列時系列の予測において大きなボトルネックに直面している。
RWKVの$mathcalO(T)$リニアアテンションと周波数領域モデリングに着想を得てFRWKVを提案する。
本モデルでは,線形アテンション機構と周波数領域解析を統合し,アテンションパスにおける計算複雑性を$mathcalO(T)$とする。
- 参考スコア(独自算出の注目度): 9.807623025167093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional Transformers face a major bottleneck in long-sequence time series forecasting due to their quadratic complexity $(\mathcal{O}(T^2))$ and their limited ability to effectively exploit frequency-domain information. Inspired by RWKV's $\mathcal{O}(T)$ linear attention and frequency-domain modeling, we propose FRWKV, a frequency-domain linear-attention framework that overcomes these limitations. Our model integrates linear attention mechanisms with frequency-domain analysis, achieving $\mathcal{O}(T)$ computational complexity in the attention path while exploiting spectral information to enhance temporal feature representations for scalable long-sequence modeling. Across eight real-world datasets, FRWKV achieves a first-place average rank. Our ablation studies confirm the critical roles of both the linear attention and frequency-encoder components. This work demonstrates the powerful synergy between linear attention and frequency analysis, establishing a new paradigm for scalable time series modeling. Code is available at this repository: https://github.com/yangqingyuan-byte/FRWKV.
- Abstract(参考訳): 従来のトランスフォーマーは、2次複雑さ$(\mathcal{O}(T^2))$と周波数領域情報を効果的に活用する限られた能力のために、時系列時系列予測において大きなボトルネックに直面している。
RWKVの$\mathcal{O}(T)$リニアアテンションと周波数領域モデリングに着想を得て、これらの制限を克服する周波数領域リニアアテンションフレームワークFRWKVを提案する。
本モデルでは,周波数領域解析と線形アテンション機構を統合し,スペクトル情報を活用しながら注意経路の計算複雑性を$\mathcal{O}(T)$とする。
8つの実世界のデータセットの中で、FRWKVは1位の平均ランクを達成している。
我々のアブレーション研究は、線形アテンションと周波数エンコーダの両方の重要な役割を裏付けるものである。
この研究は線形注意と周波数解析の強力な相乗効果を示し、スケーラブルな時系列モデリングのための新しいパラダイムを確立した。
コードは、このリポジトリで入手できる。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [42.60778405812048]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - FreEformer: Frequency Enhanced Transformer for Multivariate Time Series Forecasting [17.738942892605234]
本稿は,textbfFrequency textbfEnhanced Transtextbfformerを利用した,シンプルで効果的なモデルである textbfFreEformerを提案する。
実験により、FreEformerは18の現実世界のベンチマークで最先端のモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-01-23T08:53:45Z) - Fi$^2$VTS: Time Series Forecasting Via Capturing Intra- and Inter-Variable Variations in the Frequency Domain [6.61394789494625]
時系列予測(TSF)は,医療モニタリングや作物の生育など,様々な分野で重要な役割を担っている。
これはtextbfintra- および textbfinter- textbfVariations をキャプチャするために textbfFrequency ドメインの観点を活用するものだ。
インセプションブロックは情報を統合するために使用され、異なる変数間の相関をキャプチャする。
バックボーンネットワークであるFi$2$VTSは、複数のFi$2$を連結することで残余アーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-07-31T01:50:39Z) - FAITH: Frequency-domain Attention In Two Horizons for Time Series Forecasting [13.253624747448935]
時系列予測は、産業機器の保守、気象学、エネルギー消費、交通流、金融投資など、様々な分野で重要な役割を果たしている。
現在のディープラーニングベースの予測モデルは、予測結果と基礎的真実の間に大きな違いを示すことが多い。
本稿では、時系列をトレンドと季節成分に分解する2つのホライズンズにおける周波数領域注意モデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:37:02Z) - Time Series Diffusion in the Frequency Domain [54.60573052311487]
周波数領域における時系列表現がスコアベース拡散モデルに有用な帰納バイアスであるか否かを解析する。
重要なニュアンスを持つ周波数領域において、二重拡散過程が生じることを示す。
周波数領域に拡散モデルを実装するために,デノナイジングスコアマッチング手法を適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-08T18:59:05Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Learning Wave Propagation with Attention-Based Convolutional Recurrent
Autoencoder Net [0.0]
本稿では、波動伝播現象のデータ駆動モデリングのための、エンド・ツー・エンドの注意に基づく畳み込み再帰型オートエンコーダ(AB-CRAN)ネットワークを提案する。
波動伝搬に時間依存の双曲偏微分方程式で与えられる全階スナップショットから、デノナイジングに基づく畳み込みオートエンコーダを用いる。
注意に基づくシーケンス・ツー・シーケンス・ネットワークは、通常のRNN-LSTMと比較して、予測の時間-水平を5倍増加させる。
論文 参考訳(メタデータ) (2022-01-17T20:51:59Z) - Deep Autoregressive Models with Spectral Attention [74.08846528440024]
本稿では,深部自己回帰モデルとスペクトル注意(SA)モジュールを組み合わせた予測アーキテクチャを提案する。
時系列の埋め込みをランダムなプロセスの発生としてスペクトル領域に特徴付けることにより,グローバルな傾向と季節パターンを同定することができる。
時系列に対するグローバルとローカルの2つのスペクトルアテンションモデルは、この情報を予測の中に統合し、スペクトルフィルタリングを行い、時系列のノイズを除去する。
論文 参考訳(メタデータ) (2021-07-13T11:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。