論文の概要: MoFE-Time: Mixture of Frequency Domain Experts for Time-Series Forecasting Models
- arxiv url: http://arxiv.org/abs/2507.06502v1
- Date: Wed, 09 Jul 2025 03:00:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.444171
- Title: MoFE-Time: Mixture of Frequency Domain Experts for Time-Series Forecasting Models
- Title(参考訳): MoFE-Time:時系列予測モデルのための周波数領域エキスパートの混合
- Authors: Yiwen Liu, Chenyu Zhang, Junjie Song, Siqi Chen, Sun Yin, Zihan Wang, Lingming Zeng, Yuji Cao, Junming Jiao,
- Abstract要約: MoFE-Timeは、Mixture of Experts (MoE)ネットワーク内に時間と周波数ドメインの機能を統合する。
MoFE-Timeは最先端のパフォーマンスを新たに達成し、MSEとMAEはTime-MoEよりも6.95%、MAEは6.02%削減された。
本手法は, 実運用におけるMoFE-Timeモデルの有効性を実証し, 本データセットの優れた結果を得る。
- 参考スコア(独自算出の注目度): 11.374098795890738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a prominent data modality task, time series forecasting plays a pivotal role in diverse applications. With the remarkable advancements in Large Language Models (LLMs), the adoption of LLMs as the foundational architecture for time series modeling has gained significant attention. Although existing models achieve some success, they rarely both model time and frequency characteristics in a pretraining-finetuning paradigm leading to suboptimal performance in predictions of complex time series, which requires both modeling periodicity and prior pattern knowledge of signals. We propose MoFE-Time, an innovative time series forecasting model that integrates time and frequency domain features within a Mixture of Experts (MoE) network. Moreover, we use the pretraining-finetuning paradigm as our training framework to effectively transfer prior pattern knowledge across pretraining and finetuning datasets with different periodicity distributions. Our method introduces both frequency and time cells as experts after attention modules and leverages the MoE routing mechanism to construct multidimensional sparse representations of input signals. In experiments on six public benchmarks, MoFE-Time has achieved new state-of-the-art performance, reducing MSE and MAE by 6.95% and 6.02% compared to the representative methods Time-MoE. Beyond the existing evaluation benchmarks, we have developed a proprietary dataset, NEV-sales, derived from real-world business scenarios. Our method achieves outstanding results on this dataset, underscoring the effectiveness of the MoFE-Time model in practical commercial applications.
- Abstract(参考訳): データモダリティの卓越したタスクとして、時系列予測は多様なアプリケーションにおいて重要な役割を果たす。
LLM(Large Language Models)の顕著な進歩により、時系列モデリングの基盤となるアーキテクチャとしてのLLMの採用が注目されている。
既存のモデルではある程度の成功を収めるが、事前訓練-ファインタニングのパラダイムにおいて、周期性と信号の事前パターン知識の両方をモデル化する必要がある複雑な時系列の予測において、最適以下の性能をもたらすようなモデル時間と周波数特性の両方をほとんど達成しない。
我々は,Mixture of Experts (MoE)ネットワーク内に時間と周波数領域の機能を統合する,革新的な時系列予測モデルであるMoFE-Timeを提案する。
さらに,プレトレーニング・ファインタニングのパラダイムをトレーニングフレームワークとして使用して,事前学習および周期分布の異なるファインタニングデータセット間で,事前パターン知識を効果的に転送する。
本手法では,周波数と時刻の双方をアテンションモジュールのエキスパートとして導入し,MoEルーティング機構を利用して入力信号の多次元スパース表現を構築する。
6つの公開ベンチマークの実験において、MoFE-Timeは最先端のパフォーマンスを新たに達成し、MSEとMAEはTime-MoEよりも6.95%、MAEは6.02%削減された。
既存の評価ベンチマーク以外にも、現実のビジネスシナリオから派生した独自のデータセットであるNEV-セールを開発しました。
本手法は, 実運用におけるMoFE-Timeモデルの有効性を実証し, 本データセットの優れた結果を得る。
関連論文リスト
- Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - MFF-FTNet: Multi-scale Feature Fusion across Frequency and Temporal Domains for Time Series Forecasting [18.815152183468673]
時系列予測は多くの分野において重要であるが、現在のディープラーニングモデルはノイズやデータの分散、複雑なパターンのキャプチャに苦労している。
本稿では,コントラスト学習とマルチスケール特徴抽出を組み合わせることで,これらの課題に対処する新しいフレームワークであるMFF-FTNetを提案する。
5つの実世界のデータセットに対する大規模な実験は、MFF-FTNetが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-26T12:41:42Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。