論文の概要: EMTSF:Extraordinary Mixture of SOTA Models for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.23396v1
- Date: Mon, 27 Oct 2025 14:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.578696
- Title: EMTSF:Extraordinary Mixture of SOTA Models for Time Series Forecasting
- Title(参考訳): EMTSF:時系列予測のためのSOTAモデルの外部混合
- Authors: Musleh Alharthi, Kaleel Mahmood, Sarosh Patel, Ausif Mahmood,
- Abstract要約: 時系列予測のための強力なMixture of Experts(MoE)フレームワークを提案する。
提案手法は,xLSTM,enhanced Linear,PatchTST,minGRUなどの最先端(SOTA)モデルを組み合わせる。
提案したモデルは、標準ベンチマークで既存のTSFモデルよりも優れており、MoEフレームワークに基づく最新のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 0.750638869146118
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The immense success of the Transformer architecture in Natural Language Processing has led to its adoption in Time Se ries Forecasting (TSF), where superior performance has been shown. However, a recent important paper questioned their effectiveness by demonstrating that a simple single layer linear model outperforms Transformer-based models. This was soon shown to be not as valid, by a better transformer-based model termed PatchTST. More re cently, TimeLLM demonstrated even better results by repurposing a Large Language Model (LLM) for the TSF domain. Again, a follow up paper challenged this by demonstrating that removing the LLM component or replacing it with a basic attention layer in fact yields better performance. One of the challenges in forecasting is the fact that TSF data favors the more recent past, and is sometimes subject to unpredictable events. Based upon these recent insights in TSF, we propose a strong Mixture of Experts (MoE) framework. Our method combines the state-of-the-art (SOTA) models including xLSTM, en hanced Linear, PatchTST, and minGRU, among others. This set of complimentary and diverse models for TSF are integrated in a Trans former based MoE gating network. Our proposed model outperforms all existing TSF models on standard benchmarks, surpassing even the latest approaches based on MoE frameworks.
- Abstract(参考訳): 自然言語処理におけるTransformerアーキテクチャの巨大な成功により、TSF(Time Se ries Forecasting)に採用され、優れたパフォーマンスが示されている。
しかし、最近の重要な論文では、単純な単層線形モデルがトランスフォーマーモデルより優れていることを示すことで、その効果を疑問視している。
これはすぐに、PatchTSTと呼ばれるより優れたトランスフォーマーベースのモデルによって、あまり有効ではないことが判明した。
さらに、TSFドメイン用のLarge Language Model (LLM)を再購入することで、TimeLLMはさらに良い結果を示した。
繰り返しになるが、後続の論文では、LCMコンポーネントを削除したり、基本的な注意層に置き換えることで、パフォーマンスが向上することを示した。
予測の課題の1つは、TSFデータがより最近の過去を好んでおり、時には予測不可能な出来事にさらされているという事実である。
TSFにおける最近の知見に基づいて、我々は強力なMixture of Experts (MoE)フレームワークを提案する。
提案手法は,xLSTM,enhanced Linear,PatchTST,minGRUなどの最先端(SOTA)モデルを組み合わせる。
TSFのこの補完モデルと多種多様なモデルは、Trans formerベースのMoEゲーティングネットワークに統合されている。
提案したモデルは、標準ベンチマークで既存のTSFモデルよりも優れており、MoEフレームワークに基づく最新のアプローチよりも優れています。
関連論文リスト
- Benchmarking Few-shot Transferability of Pre-trained Models with Improved Evaluation Protocols [123.73663884421272]
より強力な事前訓練モデルと改良された適応アルゴリズムによって、わずかなショット転送が革新されている。
FEWTRANSは10種類のデータセットを含む総合的なベンチマークである。
FEWTRANS をリリースすることにより,数発の転写学習研究において再現性の向上を合理化するための厳密な "ルーラー" の提供を目指す。
論文 参考訳(メタデータ) (2026-02-28T05:41:57Z) - TokaMind: A Multi-Modal Transformer Foundation Model for Tokamak Plasma Dynamics [56.073642366268764]
TokaMindは、核融合プラズマモデリングのためのオープンソースの基礎モデルフレームワークである。
公開されているMASTデータセットから、異種トカマク診断をトレーニングする。
我々は最近発表されたMASTベンチマークのTokaMarkでTokaMindを評価した。
論文 参考訳(メタデータ) (2026-02-16T12:26:07Z) - TSGym: Design Choices for Deep Multivariate Time-Series Forecasting [38.12202305030755]
この作業は、深いMTSFメソッドをそのコアできめ細かいコンポーネントに分解することでギャップを埋める。
MTSFタスクのためのTSGymと呼ばれる新しい自動化ソリューションを提案する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-09-21T12:49:31Z) - Fusing Large Language Models with Temporal Transformers for Time Series Forecasting [17.549938378193282]
大規模言語モデル(LLM)は、様々なタスクを実行する上で強力な能力を示している。
LLMは離散トークンやセマンティックパターンの推論に長けている。
バニラトランスフォーマーは、しばしば高レベルのセマンティックパターンを学ぶのに苦労する。
論文 参考訳(メタデータ) (2025-07-14T09:33:40Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [67.95907033226585]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
直感的な微調整はパフォーマンスの向上をもたらすが、TSFMの能力を完全に活用するには不十分である、と我々は主張する。
マルチスケール・ファインタニング(MSFT)は,マルチスケール・モデリングをファインタニング・プロセスに明示的に統合する,シンプルながら汎用的なフレームワークである。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - QuLTSF: Long-Term Time Series Forecasting with Quantum Machine Learning [4.2117721107606005]
長期時系列予測(LTSF)は、過去の値に基づいて、時系列の多くの将来の値を予測する。
最近の量子機械学習(QML)は、古典的な機械学習モデルの能力を高めるための領域として進化している。
平均二乗誤差の低減と平均絶対誤差の両面から、最先端の古典的線形モデルに対するQuLTSFの利点を示す。
論文 参考訳(メタデータ) (2024-12-18T12:06:52Z) - sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting [69.33802286580786]
LTSM-Bundleは総合的なツールボックスであり、LTSMをトレーニングするためのベンチマークである。
複数の次元からLTSMをモジュール化し、ベンチマークし、プロンプト戦略、トークン化アプローチ、ベースモデルの選択、データ量、データセットの多様性を含む。
実験により、この組み合わせは最先端のLTSMや従来のTSF法と比較して、ゼロショットと少数ショットのパフォーマンスが優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Unlocking the Power of Patch: Patch-Based MLP for Long-Term Time Series Forecasting [0.0]
近年,Transformer アーキテクチャを改良し,長期連続予測タスクの有効性を実証する研究が進められている。
これらのモデルの有効性は, 適用されたパッチ機構に大きく寄与する。
LTSFタスクのための新しいシンプルなパッチベースコンポーネント(PatchMLP)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:12:20Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Improving Non-autoregressive Translation Quality with Pretrained Language Model, Embedding Distillation and Upsampling Strategy for CTC [51.34222224728979]
本稿では,非自己回帰翻訳(NAT)モデルの翻訳品質を向上させるための一連の革新的な技術を紹介する。
我々は,NATモデルを効果的に訓練するために,CTCの損失を抑えたPMLM(Pretrained Multilingual Language Models)を提案する。
自動回帰モデルと比較して16.35倍の速度向上を示した。
論文 参考訳(メタデータ) (2023-06-10T05:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。