論文の概要: EMTSF:Extraordinary Mixture of SOTA Models for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.23396v1
- Date: Mon, 27 Oct 2025 14:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.578696
- Title: EMTSF:Extraordinary Mixture of SOTA Models for Time Series Forecasting
- Title(参考訳): EMTSF:時系列予測のためのSOTAモデルの外部混合
- Authors: Musleh Alharthi, Kaleel Mahmood, Sarosh Patel, Ausif Mahmood,
- Abstract要約: 時系列予測のための強力なMixture of Experts(MoE)フレームワークを提案する。
提案手法は,xLSTM,enhanced Linear,PatchTST,minGRUなどの最先端(SOTA)モデルを組み合わせる。
提案したモデルは、標準ベンチマークで既存のTSFモデルよりも優れており、MoEフレームワークに基づく最新のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 0.750638869146118
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The immense success of the Transformer architecture in Natural Language Processing has led to its adoption in Time Se ries Forecasting (TSF), where superior performance has been shown. However, a recent important paper questioned their effectiveness by demonstrating that a simple single layer linear model outperforms Transformer-based models. This was soon shown to be not as valid, by a better transformer-based model termed PatchTST. More re cently, TimeLLM demonstrated even better results by repurposing a Large Language Model (LLM) for the TSF domain. Again, a follow up paper challenged this by demonstrating that removing the LLM component or replacing it with a basic attention layer in fact yields better performance. One of the challenges in forecasting is the fact that TSF data favors the more recent past, and is sometimes subject to unpredictable events. Based upon these recent insights in TSF, we propose a strong Mixture of Experts (MoE) framework. Our method combines the state-of-the-art (SOTA) models including xLSTM, en hanced Linear, PatchTST, and minGRU, among others. This set of complimentary and diverse models for TSF are integrated in a Trans former based MoE gating network. Our proposed model outperforms all existing TSF models on standard benchmarks, surpassing even the latest approaches based on MoE frameworks.
- Abstract(参考訳): 自然言語処理におけるTransformerアーキテクチャの巨大な成功により、TSF(Time Se ries Forecasting)に採用され、優れたパフォーマンスが示されている。
しかし、最近の重要な論文では、単純な単層線形モデルがトランスフォーマーモデルより優れていることを示すことで、その効果を疑問視している。
これはすぐに、PatchTSTと呼ばれるより優れたトランスフォーマーベースのモデルによって、あまり有効ではないことが判明した。
さらに、TSFドメイン用のLarge Language Model (LLM)を再購入することで、TimeLLMはさらに良い結果を示した。
繰り返しになるが、後続の論文では、LCMコンポーネントを削除したり、基本的な注意層に置き換えることで、パフォーマンスが向上することを示した。
予測の課題の1つは、TSFデータがより最近の過去を好んでおり、時には予測不可能な出来事にさらされているという事実である。
TSFにおける最近の知見に基づいて、我々は強力なMixture of Experts (MoE)フレームワークを提案する。
提案手法は,xLSTM,enhanced Linear,PatchTST,minGRUなどの最先端(SOTA)モデルを組み合わせる。
TSFのこの補完モデルと多種多様なモデルは、Trans formerベースのMoEゲーティングネットワークに統合されている。
提案したモデルは、標準ベンチマークで既存のTSFモデルよりも優れており、MoEフレームワークに基づく最新のアプローチよりも優れています。
関連論文リスト
- TSGym: Design Choices for Deep Multivariate Time-Series Forecasting [38.12202305030755]
この作業は、深いMTSFメソッドをそのコアできめ細かいコンポーネントに分解することでギャップを埋める。
MTSFタスクのためのTSGymと呼ばれる新しい自動化ソリューションを提案する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-09-21T12:49:31Z) - QuLTSF: Long-Term Time Series Forecasting with Quantum Machine Learning [4.2117721107606005]
長期時系列予測(LTSF)は、過去の値に基づいて、時系列の多くの将来の値を予測する。
最近の量子機械学習(QML)は、古典的な機械学習モデルの能力を高めるための領域として進化している。
平均二乗誤差の低減と平均絶対誤差の両面から、最先端の古典的線形モデルに対するQuLTSFの利点を示す。
論文 参考訳(メタデータ) (2024-12-18T12:06:52Z) - LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting [69.33802286580786]
LTSM-Bundleは総合的なツールボックスであり、LTSMをトレーニングするためのベンチマークである。
複数の次元からLTSMをモジュール化し、ベンチマークし、プロンプト戦略、トークン化アプローチ、ベースモデルの選択、データ量、データセットの多様性を含む。
実験により、この組み合わせは最先端のLTSMや従来のTSF法と比較して、ゼロショットと少数ショットのパフォーマンスが優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - Unlocking the Power of Patch: Patch-Based MLP for Long-Term Time Series Forecasting [0.0]
近年,Transformer アーキテクチャを改良し,長期連続予測タスクの有効性を実証する研究が進められている。
これらのモデルの有効性は, 適用されたパッチ機構に大きく寄与する。
LTSFタスクのための新しいシンプルなパッチベースコンポーネント(PatchMLP)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:12:20Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Improving Non-autoregressive Translation Quality with Pretrained Language Model, Embedding Distillation and Upsampling Strategy for CTC [51.34222224728979]
本稿では,非自己回帰翻訳(NAT)モデルの翻訳品質を向上させるための一連の革新的な技術を紹介する。
我々は,NATモデルを効果的に訓練するために,CTCの損失を抑えたPMLM(Pretrained Multilingual Language Models)を提案する。
自動回帰モデルと比較して16.35倍の速度向上を示した。
論文 参考訳(メタデータ) (2023-06-10T05:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。