論文の概要: MoHETS: Long-term Time Series Forecasting with Mixture-of-Heterogeneous-Experts
- arxiv url: http://arxiv.org/abs/2601.21866v1
- Date: Thu, 29 Jan 2026 15:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.941405
- Title: MoHETS: Long-term Time Series Forecasting with Mixture-of-Heterogeneous-Experts
- Title(参考訳): MoHETS:Mixture-of-heterogeneous-Expertsを用いた長期時系列予測
- Authors: Evandro S. Ortigossa, Guy Lutsker, Eran Segal,
- Abstract要約: 実世界の時系列は、グローバルな傾向、局所的な周期性、非定常的な体制を含む複雑なマルチスケール構造を示すことができる。
MoHETSはSparse Mixture-of-Heterogeneous-Expertsレイヤを統合している。
パラメータ重リニアプロジェクションヘッドを軽量な畳み込みパッチデコーダに置き換える。
- 参考スコア(独自算出の注目度): 0.8292000624465587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world multivariate time series can exhibit intricate multi-scale structures, including global trends, local periodicities, and non-stationary regimes, which makes long-horizon forecasting challenging. Although sparse Mixture-of-Experts (MoE) approaches improve scalability and specialization, they typically rely on homogeneous MLP experts that poorly capture the diverse temporal dynamics of time series data. We address these limitations with MoHETS, an encoder-only Transformer that integrates sparse Mixture-of-Heterogeneous-Experts (MoHE) layers. MoHE routes temporal patches to a small subset of expert networks, combining a shared depthwise-convolution expert for sequence-level continuity with routed Fourier-based experts for patch-level periodic structures. MoHETS further improves robustness to non-stationary dynamics by incorporating exogenous information via cross-attention over covariate patch embeddings. Finally, we replace parameter-heavy linear projection heads with a lightweight convolutional patch decoder, improving parameter efficiency, reducing training instability, and allowing a single model to generalize across arbitrary forecast horizons. We validate across seven multivariate benchmarks and multiple horizons, with MoHETS consistently achieving state-of-the-art performance, reducing the average MSE by $12\%$ compared to strong recent baselines, demonstrating effective heterogeneous specialization for long-term forecasting.
- Abstract(参考訳): 実世界の多変量時系列は、グローバルなトレンド、局所的な周期性、非定常的な体制を含む複雑なマルチスケール構造を示すことができ、これは長期の水平予測を困難にしている。
sparse Mixture-of-Experts (MoE) アプローチはスケーラビリティと特殊化を改善するが、一般的には時系列データの多様な時間的ダイナミクスをうまく捉えていない均質なMPPの専門家に頼っている。
この制限に対処するためには、MoHE(Mixture-of-Heterogeneous-Experts)層を統合したエンコーダのみの変換器であるMoHETSを使う。
MoHEは、時間的パッチを専門家ネットワークの小さなサブセットにルーティングし、シークエンスレベルの連続性に関する共有深度変換の専門家と、パッチレベルの周期構造に関するルーティングされたFourierベースのエキスパートを組み合わせた。
MoHETSは、共変量パッチの埋め込みに対するクロスアテンションを通じて外因性情報を統合することで、非定常力学に対する堅牢性をさらに向上する。
最後に、パラメータ重大線形投影ヘッドを軽量な畳み込みパッチデコーダに置き換え、パラメータ効率を改善し、トレーニング不安定性を低減し、任意の予測地平線をまたいで単一モデルを一般化できるようにする。
我々は、7つの多変量ベンチマークと複数の地平線にまたがって検証を行い、MoHETSは一貫して最先端の性能を達成し、最近の強力なベースラインと比較して平均MSEを12.%削減し、長期予測のための効果的な異種特殊化を実証した。
関連論文リスト
- Seg-MoE: Multi-Resolution Segment-wise Mixture-of-Experts for Time Series Forecasting Transformers [0.9058414988965365]
独立した専門家決定を行うのではなく、連続した時間ステップセグメントを処理するスパースなMoE設計であるSeg-MoEを紹介する。
Seg-MoEは、ほぼすべての予測地平線にわたって、最先端の予測精度を一貫して達成する。
この結果から,MoEルーティングの粒度と時系列の固有構造との整合性は,より強力で未探索な帰納バイアスをもたらすことが示された。
論文 参考訳(メタデータ) (2026-01-29T12:43:35Z) - FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis [92.23551599659186]
時系列分析は、金融、医療、産業、気象学などの分野において重要な役割を果たす。
FusADは多様な時系列タスク用に設計された統合分析フレームワークである。
論文 参考訳(メタデータ) (2025-12-16T04:34:27Z) - A Multi-scale Representation Learning Framework for Long-Term Time Series Forecasting [6.344911113059126]
長期時系列予測(LTSF)は、エネルギー消費や天気予報といった実用的な設定において幅広い用途を提供する。
この研究は、多粒度情報の最適部分利用を含むLTSFの重要な問題に直面している。
提案手法は,様々なスケールにわたる明瞭で同時的な予測を用いて,複雑な時間的ダイナミクスを適切に解き放つ。
論文 参考訳(メタデータ) (2025-05-13T03:26:44Z) - MGCP: A Multi-Grained Correlation based Prediction Network for Multivariate Time Series [54.91026286579748]
本稿では,マルチグラインド相関に基づく予測ネットワークを提案する。
予測性能を高めるために3段階の相関を同時に検討する。
注意機構に基づく予測器と条件判別器を用いて、粗い粒度の予測結果を最適化する。
論文 参考訳(メタデータ) (2024-05-30T03:32:44Z) - TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting [19.88184356154215]
時系列予測は、交通計画や天気予報などのアプリケーションで広く使われている。
TimeMixerは、長期および短期の予測タスクにおいて、一貫した最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-05-23T14:27:07Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos Perspective [63.60312929416228]
textbftextitAttraosはカオス理論を長期時系列予測に取り入れている。
本研究では,AttraosがPatchTSTと比較して,パラメータの12分の1しか持たない主流データセットやカオスデータセットにおいて,LTSF法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis [14.40202378972828]
そこで我々は,MSD-Mixerを提案する。MSD-Mixerは,各レイヤの入力時系列を明示的に分解し,表現することを学ぶマルチスケール分解ミクサーである。
我々は,MSD-Mixerが他の最先端のアルゴリズムよりも効率よく優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T13:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。