論文の概要: TimeKAN: KAN-based Frequency Decomposition Learning Architecture for Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2502.06910v1
- Date: Mon, 10 Feb 2025 03:51:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:28.635294
- Title: TimeKAN: KAN-based Frequency Decomposition Learning Architecture for Long-term Time Series Forecasting
- Title(参考訳): TimeKan: 時系列予測のためのkanベースの周波数分解学習アーキテクチャ
- Authors: Songtao Huang, Zhen Zhao, Can Li, Lei Bai,
- Abstract要約: 複数の周波数混在に起因する複雑な予測問題に対処するために,kan-based Frequency Decomposition Learning Architecture (TimeKAN)を提案する。
TimeKANは主に、カスケード周波数分解(CFD)ブロック、M-KAN(Multi-order Kan Representation Learning)ブロック、周波数混合ブロックの3つのコンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 15.333859971089236
- License:
- Abstract: Real-world time series often have multiple frequency components that are intertwined with each other, making accurate time series forecasting challenging. Decomposing the mixed frequency components into multiple single frequency components is a natural choice. However, the information density of patterns varies across different frequencies, and employing a uniform modeling approach for different frequency components can lead to inaccurate characterization. To address this challenges, inspired by the flexibility of the recent Kolmogorov-Arnold Network (KAN), we propose a KAN-based Frequency Decomposition Learning architecture (TimeKAN) to address the complex forecasting challenges caused by multiple frequency mixtures. Specifically, TimeKAN mainly consists of three components: Cascaded Frequency Decomposition (CFD) blocks, Multi-order KAN Representation Learning (M-KAN) blocks and Frequency Mixing blocks. CFD blocks adopt a bottom-up cascading approach to obtain series representations for each frequency band. Benefiting from the high flexibility of KAN, we design a novel M-KAN block to learn and represent specific temporal patterns within each frequency band. Finally, Frequency Mixing blocks is used to recombine the frequency bands into the original format. Extensive experimental results across multiple real-world time series datasets demonstrate that TimeKAN achieves state-of-the-art performance as an extremely lightweight architecture. Code is available at https://github.com/huangst21/TimeKAN.
- Abstract(参考訳): 実世界の時系列は、しばしば複数の周波数成分が互いに絡み合っており、正確な時系列予測が困難である。
混合周波数成分を複数の単一周波数成分に分解することは自然な選択である。
しかし、パターンの情報密度は周波数によって異なり、異なる周波数成分に対して一様モデリングアプローチを採用すると、不正確な特徴付けにつながる可能性がある。
この課題に対処するために、最近のKAN(Kolmogorov-Arnold Network)の柔軟性に着想を得て、複数の周波数混在に起因する複雑な予測問題に対処するKan-based Frequency Decomposition Learning Architecture(TimeKAN)を提案する。
特に、TimeKANは主に、カスケード周波数分解(CFD)ブロック、M-KAN(Multi-order Kan Representation Learning)ブロック、周波数混合ブロックの3つのコンポーネントで構成されている。
CFDブロックは、各周波数帯域の直列表現を得るためにボトムアップカスケード方式を採用する。
kanの高柔軟性を活かして、各周波数帯域内の特定の時間パターンを学習し、表現するための新しいM-KANブロックを設計する。
最後に、周波数ミキシングブロックを使用して、周波数帯域を元のフォーマットに再結合する。
複数の実世界の時系列データセットにわたる大規模な実験結果から、TimeKANは最先端のパフォーマンスを極めて軽量なアーキテクチャとして達成していることがわかる。
コードはhttps://github.com/huangst21/TimeKANで入手できる。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Accelerated Multi-Contrast MRI Reconstruction via Frequency and Spatial Mutual Learning [50.74383395813782]
本稿では,周波数・空間相互学習ネットワーク(FSMNet)を提案する。
提案したFSMNetは, 加速度係数の異なるマルチコントラストMR再構成タスクに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T12:02:47Z) - Frequency Guidance Matters: Skeletal Action Recognition by Frequency-Aware Mixed Transformer [18.459822172890473]
骨格の周波数表現を除去するための周波数認識型アテンションモジュールを提案する。
また、周波数特徴を持つ空間特徴を組み込む混合変圧器アーキテクチャも開発している。
FreqMiXFormerは3つの一般的な骨格認識データセットでSOTAを上回っている。
論文 参考訳(メタデータ) (2024-07-17T05:47:27Z) - FourierMamba: Fourier Learning Integration with State Space Models for Image Deraining [71.46369218331215]
Image derainingは雨が降る画像から雨の跡を取り除き、透明な背景を復元することを目的としている。
本稿では,FourierMambaという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T18:58:59Z) - ATFNet: Adaptive Time-Frequency Ensembled Network for Long-term Time Series Forecasting [7.694820760102176]
ATFNetは、時間ドメインモジュールと周波数ドメインモジュールを組み合わせた革新的なフレームワークである。
本稿では,2つのモジュール間の重み調整機構であるドミナント・ハーモニック・シリーズ・エナジー・ウェイトリングを紹介する。
我々の複素数値スペクトル注意機構は、異なる周波数の組み合わせ間の複雑な関係を識別するための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2024-04-08T04:41:39Z) - D-PAD: Deep-Shallow Multi-Frequency Patterns Disentangling for Time Series Forecasting [7.447606231770597]
時系列予測のためのディープシャロー多周波パターンであるD-PADを提案する。
D-PADは最先端のパフォーマンスを達成し、それぞれMSEとMAEで平均9.48%と7.15%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-03-26T15:52:36Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - Frequency-Adaptive Pan-Sharpening with Mixture of Experts [22.28680499480492]
パンシャーピングのための新しい周波数適応型エキスパート混合学習フレームワーク(FAME)を提案する。
本手法は他の最先端技術に対して最善を尽くし,現実のシーンに対して強力な一般化能力を有する。
論文 参考訳(メタデータ) (2024-01-04T08:58:25Z) - MultiWave: Multiresolution Deep Architectures through Wavelet
Decomposition for Multivariate Time Series Prediction [6.980076213134384]
MultiWaveは、信号の固有周波数で動作するコンポーネントを組み込むことで、ディープラーニング時系列モデルを強化する新しいフレームワークである。
我々は、MultiWaveが重要な特徴とその周波数成分を一貫して識別し、研究対象のアプリケーションに対する貴重な洞察を提供することを示す。
論文 参考訳(メタデータ) (2023-06-16T20:07:15Z) - Frame Flexible Network [52.623337134518835]
既存のビデオ認識アルゴリズムは、常に異なるフレーム番号の入力に対して異なるトレーニングパイプラインを実行する。
トレーニングに使われていない他のフレームを使用してモデルを評価した場合、パフォーマンスが大幅に低下するのを観察する。
本稿では,フレームフレキシブルネットワーク(FFN)と呼ばれる汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T20:51:35Z) - Adaptive Frequency Learning in Two-branch Face Forgery Detection [66.91715092251258]
本稿では、AFDと呼ばれる2分岐検出フレームワークにおいて、周波数情報を適応的に学習する手法を提案する。
我々は、固定周波数変換からネットワークを解放し、データおよびタスク依存の変換層でより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-27T14:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。