論文の概要: FreqTSF: Time Series Forecasting Via Simulating Frequency Kramer-Kronig Relations
- arxiv url: http://arxiv.org/abs/2407.21275v1
- Date: Wed, 31 Jul 2024 01:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 19:04:58.109663
- Title: FreqTSF: Time Series Forecasting Via Simulating Frequency Kramer-Kronig Relations
- Title(参考訳): FreqTSF: 周波数クラマー-クロニッヒ関係を模擬した時系列予測
- Authors: Rujia Shen, Liangliang Liu, Boran Wang, Yi Guan, Yang Yang, Jingchi Jiang,
- Abstract要約: 時系列予測(TSF)は、電気変換、金融取引、医療モニタリング、スマート農業などの応用において非常に重要である。
トランスフォーマーをベースとした手法は時系列データを処理できるが、長期時系列を予測する能力は自己認識機構の「反秩序」性によって制限される。
本稿では、FreqBlockを提案し、まず周波数変換モジュールを通して周波数表現を得る。
新たに設計された周波数クロスアテンションは、実部と虚部の間の拡張周波数表現をオブザーバし、アテンション機構と固有クラマーとのリンクを確立する。
- 参考スコア(独自算出の注目度): 6.945609078450277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting (TSF) is immensely important in extensive applications, such as electricity transformation, financial trade, medical monitoring, and smart agriculture. Although Transformer-based methods can handle time series data, their ability to predict long-term time series is limited due to the ``anti-order" nature of the self-attention mechanism. To address this problem, we focus on frequency domain to weaken the impact of order in TSF and propose the FreqBlock, where we first obtain frequency representations through the Frequency Transform Module. Subsequently, a newly designed Frequency Cross Attention is used to obtian enhanced frequency representations between the real and imaginary parts, thus establishing a link between the attention mechanism and the inherent Kramer-Kronig relations (KKRs). Our backbone network, FreqTSF, adopts a residual structure by concatenating multiple FreqBlocks to simulate KKRs in the frequency domain and avoid degradation problems. On a theoretical level, we demonstrate that the proposed two modules can significantly reduce the time and memory complexity from $\mathcal{O}(L^2)$ to $\mathcal{O}(L)$ for each FreqBlock computation. Empirical studies on four benchmark datasets show that FreqTSF achieves an overall relative MSE reduction of 15\% and an overall relative MAE reduction of 11\% compared to the state-of-the-art methods. The code will be available soon.
- Abstract(参考訳): 時系列予測(TSF)は、電気変換、金融取引、医療モニタリング、スマート農業などの広範な応用において非常に重要である。
Transformer をベースとした手法は時系列データを処理できるが,自己保持機構の ‘anti-order' 特性のため,長期時系列を予測できる能力は限られている。
この問題に対処するために、周波数領域に着目して、TSFにおける順序の影響を弱めるとともに、FreqBlockを提案し、まず周波数変換モジュールを通して周波数表現を得る。
その後、新たに設計された周波数クロスアテンションを用いて実部と虚部の間の拡張周波数表現をオブザーバし、アテンション機構と固有のクラマー・クロニッヒ関係(KKR)のリンクを確立する。
我々のバックボーンネットワークであるFreqTSFは、複数のFreqBlocksを結合して周波数領域のKKRをシミュレートし、劣化問題を回避し、残留構造を採用する。
理論的レベルでは、提案した2つのモジュールは、各 FreqBlock 計算に対して $\mathcal{O}(L^2)$ から $\mathcal{O}(L)$ まで、時間とメモリの複雑さを著しく低減できることを示した。
4つのベンチマークデータセットに関する実証研究により、FreqTSFは、最先端の手法と比較して、全体の相対的MSEの15倍、総合的相対的MAEの11倍を達成していることが示された。
コードはまもなく利用可能になる。
関連論文リスト
- Deep Frequency Derivative Learning for Non-stationary Time Series Forecasting [12.989064148254936]
非定常時系列予測のためのディープ周波数微分学習フレームワークDERITSを提案する。
具体的には、DERITSは、新しい可逆変換、すなわち周波数微分変換(FDT)に基づいて構築される。
論文 参考訳(メタデータ) (2024-06-29T17:56:59Z) - FAITH: Frequency-domain Attention In Two Horizons for Time Series Forecasting [13.253624747448935]
時系列予測は、産業機器の保守、気象学、エネルギー消費、交通流、金融投資など、様々な分野で重要な役割を果たしている。
現在のディープラーニングベースの予測モデルは、予測結果と基礎的真実の間に大きな違いを示すことが多い。
本稿では、時系列をトレンドと季節成分に分解する2つのホライズンズにおける周波数領域注意モデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:37:02Z) - ATFNet: Adaptive Time-Frequency Ensembled Network for Long-term Time Series Forecasting [7.694820760102176]
ATFNetは、時間ドメインモジュールと周波数ドメインモジュールを組み合わせた革新的なフレームワークである。
本稿では,2つのモジュール間の重み調整機構であるドミナント・ハーモニック・シリーズ・エナジー・ウェイトリングを紹介する。
我々の複素数値スペクトル注意機構は、異なる周波数の組み合わせ間の複雑な関係を識別するための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2024-04-08T04:41:39Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Frequency-domain MLPs are More Effective Learners in Time Series
Forecasting [67.60443290781988]
時系列予測は、金融、交通、エネルギー、医療など、さまざまな産業領域において重要な役割を果たしてきた。
最多ベースの予測手法は、ポイントワイドマッピングと情報のボトルネックに悩まされる。
本稿では、時系列予測のための周波数領域上に構築された、シンプルで効果的なアーキテクチャであるFreTSを提案する。
論文 参考訳(メタデータ) (2023-11-10T17:05:13Z) - A Joint Time-frequency Domain Transformer for Multivariate Time Series
Forecasting [7.501660339993144]
本稿では、JTFT(Joint Time-Frequency Domain Transformer)を紹介する。
JTFTは時間と周波数領域の表現を組み合わせて予測を行う。
6つの実世界のデータセットの実験結果から、JTFTは予測性能において最先端のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-05-24T02:37:23Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - FECAM: Frequency Enhanced Channel Attention Mechanism for Time Series
Forecasting [21.933798421967225]
時系列予測は、実世界の情報が様々なシナリオにあるため、長年にわたる課題である。
モデルが、実世界のデータセットに豊富に含まれている周波数情報をキャプチャする能力に欠けているのは、そのためだと私たちは考えています。
離散コサイン変換に基づく周波数相互依存性を適応的にモデル化する新しい周波数強調チャネルアテンションを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:40:55Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Adaptive Frequency Learning in Two-branch Face Forgery Detection [66.91715092251258]
本稿では、AFDと呼ばれる2分岐検出フレームワークにおいて、周波数情報を適応的に学習する手法を提案する。
我々は、固定周波数変換からネットワークを解放し、データおよびタスク依存の変換層でより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-27T14:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。