論文の概要: AdaMixT: Adaptive Weighted Mixture of Multi-Scale Expert Transformers for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.18107v1
- Date: Tue, 09 Sep 2025 15:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-28 15:30:14.361797
- Title: AdaMixT: Adaptive Weighted Mixture of Multi-Scale Expert Transformers for Time Series Forecasting
- Title(参考訳): AdaMixT: 時系列予測のためのマルチスケールエキスパートトランスの適応重み付き混合
- Authors: Huanyao Zhang, Jiaye Lin, Wentao Zhang, Haitao Yuan, Guoliang Li,
- Abstract要約: AdaMixT (Adaptive Weighted Mixture of Multi-Scale Expert Transformers) という新しいアーキテクチャを提案する。
AdaMixTは様々なパッチを導入し、汎用事前訓練モデル(GPM)とドメイン固有モデル(DSM)の両方を活用してマルチスケールの特徴抽出を行う。
気象、交通、電気、ILI、および4つのETTデータセットを含む8つの広く使用されているベンチマークに関する総合的な実験は、一貫してAdaMixTの有効性を実証している。
- 参考スコア(独自算出の注目度): 15.522567372502762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series forecasting involves predicting future values based on historical observations. However, existing approaches primarily rely on predefined single-scale patches or lack effective mechanisms for multi-scale feature fusion. These limitations hinder them from fully capturing the complex patterns inherent in time series, leading to constrained performance and insufficient generalizability. To address these challenges, we propose a novel architecture named Adaptive Weighted Mixture of Multi-Scale Expert Transformers (AdaMixT). Specifically, AdaMixT introduces various patches and leverages both General Pre-trained Models (GPM) and Domain-specific Models (DSM) for multi-scale feature extraction. To accommodate the heterogeneity of temporal features, AdaMixT incorporates a gating network that dynamically allocates weights among different experts, enabling more accurate predictions through adaptive multi-scale fusion. Comprehensive experiments on eight widely used benchmarks, including Weather, Traffic, Electricity, ILI, and four ETT datasets, consistently demonstrate the effectiveness of AdaMixT in real-world scenarios.
- Abstract(参考訳): 多変量時系列予測では、過去の観測に基づいて将来の値を予測する。
しかし、既存のアプローチは、主に事前に定義された単一スケールのパッチや、マルチスケールの機能融合のための効果的なメカニズムの欠如に依存している。
これらの制限は、時系列に固有の複雑なパターンを完全にキャプチャすることを妨げる。
これらの課題に対処するため,AdaMixT (Adaptive Weighted Mixture of Multi-Scale Expert Transformers) という新しいアーキテクチャを提案する。
具体的には、AdaMixTは様々なパッチを導入し、汎用事前訓練モデル(GPM)とドメイン固有モデル(DSM)の両方を活用してマルチスケールの特徴抽出を行う。
時間的特徴の不均一性に対応するため、AdaMixTは異なる専門家間で動的に重みを割り当てるゲーティングネットワークを導入し、適応的なマルチスケール融合によってより正確な予測を可能にする。
天気、交通、電気、ILI、および4つのETTデータセットを含む8つの広く使用されているベンチマークに関する総合的な実験は、現実世界のシナリオにおけるAdaMixTの有効性を一貫して実証している。
関連論文リスト
- Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - A Multi-scale Representation Learning Framework for Long-Term Time Series Forecasting [6.344911113059126]
長期時系列予測(LTSF)は、エネルギー消費や天気予報といった実用的な設定において幅広い用途を提供する。
この研究は、多粒度情報の最適部分利用を含むLTSFの重要な問題に直面している。
提案手法は,様々なスケールにわたる明瞭で同時的な予測を用いて,複雑な時間的ダイナミクスを適切に解き放つ。
論文 参考訳(メタデータ) (2025-05-13T03:26:44Z) - xLSTM-Mixer: Multivariate Time Series Forecasting by Mixing via Scalar Memories [20.773694998061707]
時系列データは様々な分野に分散しており、堅牢で正確な予測モデルの開発が必要である。
我々は,時間的シーケンス,共同時間可変情報,堅牢な予測のための複数の視点を効果的に統合するモデルであるxLSTM-Mixerを紹介する。
我々は,最近の最先端手法と比較して,xLSTM-Mixerの長期予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-10-22T11:59:36Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - MGCP: A Multi-Grained Correlation based Prediction Network for Multivariate Time Series [54.91026286579748]
本稿では,マルチグラインド相関に基づく予測ネットワークを提案する。
予測性能を高めるために3段階の相関を同時に検討する。
注意機構に基づく予測器と条件判別器を用いて、粗い粒度の予測結果を最適化する。
論文 参考訳(メタデータ) (2024-05-30T03:32:44Z) - TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting [19.88184356154215]
時系列予測は、交通計画や天気予報などのアプリケーションで広く使われている。
TimeMixerは、長期および短期の予測タスクにおいて、一貫した最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-05-23T14:27:07Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis [14.40202378972828]
そこで我々は,MSD-Mixerを提案する。MSD-Mixerは,各レイヤの入力時系列を明示的に分解し,表現することを学ぶマルチスケール分解ミクサーである。
我々は,MSD-Mixerが他の最先端のアルゴリズムよりも効率よく優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T13:39:07Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。