論文の概要: Multi-Modal Time Series Prediction via Mixture of Modulated Experts
- arxiv url: http://arxiv.org/abs/2601.21547v1
- Date: Thu, 29 Jan 2026 11:03:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.754385
- Title: Multi-Modal Time Series Prediction via Mixture of Modulated Experts
- Title(参考訳): 変調エキスパートの混合によるマルチモーダル時系列予測
- Authors: Lige Zhang, Ali Maatouk, Jialin Chen, Leandros Tassiulas, Rex Ying,
- Abstract要約: マルチモーダル時系列予測のための新しいパラダイムであるExpert Modulationを提案する。
提案手法は,マルチモーダル時系列予測の大幅な改善を示す。
- 参考スコア(独自算出の注目度): 28.358760170766004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world time series exhibit complex and evolving dynamics, making accurate forecasting extremely challenging. Recent multi-modal forecasting methods leverage textual information such as news reports to improve prediction, but most rely on token-level fusion that mixes temporal patches with language tokens in a shared embedding space. However, such fusion can be ill-suited when high-quality time-text pairs are scarce and when time series exhibit substantial variation in scale and characteristics, thus complicating cross-modal alignment. In parallel, Mixture-of-Experts (MoE) architectures have proven effective for both time series modeling and multi-modal learning, yet many existing MoE-based modality integration methods still depend on token-level fusion. To address this, we propose Expert Modulation, a new paradigm for multi-modal time series prediction that conditions both routing and expert computation on textual signals, enabling direct and efficient cross-modal control over expert behavior. Through comprehensive theoretical analysis and experiments, our proposed method demonstrates substantial improvements in multi-modal time series prediction. The current code is available at https://github.com/BruceZhangReve/MoME
- Abstract(参考訳): 実世界の時系列は複雑で進化するダイナミクスを示し、正確な予測は非常に困難である。
最近のマルチモーダル予測手法では、ニュースレポートなどのテキスト情報を利用して予測を改善するが、ほとんどの場合、時間的パッチと共通埋め込み空間における言語トークンを混合するトークンレベルの融合に依存している。
しかし、このような融合は、高品質のタイムテキストペアが不足している場合や、時系列がスケールや特性のかなりのばらつきを示す場合にも適さないため、クロスモーダルアライメントが複雑になる。
並行して、Mixture-of-Experts (MoE)アーキテクチャは時系列モデリングとマルチモーダル学習の両方に有効であることが証明されている。
そこで本稿では,マルチモーダル時系列予測のための新しいパラダイムであるExpert Modulationを提案する。
理論的解析と実験を通じて,提案手法はマルチモーダル時系列予測の大幅な改善を示す。
現在のコードはhttps://github.com/BruceZhangReve/MoMEで入手できる。
関連論文リスト
- AdaMixT: Adaptive Weighted Mixture of Multi-Scale Expert Transformers for Time Series Forecasting [15.522567372502762]
AdaMixT (Adaptive Weighted Mixture of Multi-Scale Expert Transformers) という新しいアーキテクチャを提案する。
AdaMixTは様々なパッチを導入し、汎用事前訓練モデル(GPM)とドメイン固有モデル(DSM)の両方を活用してマルチスケールの特徴抽出を行う。
気象、交通、電気、ILI、および4つのETTデータセットを含む8つの広く使用されているベンチマークに関する総合的な実験は、一貫してAdaMixTの有効性を実証している。
論文 参考訳(メタデータ) (2025-09-09T15:30:53Z) - FindRec: Stein-Guided Entropic Flow for Multi-Modal Sequential Recommendation [57.577843653775]
textbfFindRec (textbfFlexible unified textbfinformation textbfdisentanglement for multi-modal sequence textbfRecommendation)を提案する。
Stein kernel-based Integrated Information Coordination Module (IICM) は理論上、マルチモーダル特徴とIDストリーム間の分散一貫性を保証する。
マルチモーダル特徴を文脈的関連性に基づいて適応的にフィルタリング・結合するクロスモーダル・エキスパート・ルーティング機構。
論文 参考訳(メタデータ) (2025-07-07T04:09:45Z) - When Does Multimodality Lead to Better Time Series Forecasting? [96.26052272121615]
このようなマルチモーダルな統合が常に利益をもたらすかどうか、どのような条件で検討する。
その結果,マルチモーダリティの利点は条件に依存していることが判明した。
我々の研究は、マルチモーダリティが予測タスクに役立つことをいつ予測できるかを理解するための厳密で定量的な基礎を提供する。
論文 参考訳(メタデータ) (2025-06-20T23:55:56Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - xLSTM-Mixer: Multivariate Time Series Forecasting by Mixing via Scalar Memories [20.773694998061707]
時系列データは様々な分野に分散しており、堅牢で正確な予測モデルの開発が必要である。
我々は,時間的シーケンス,共同時間可変情報,堅牢な予測のための複数の視点を効果的に統合するモデルであるxLSTM-Mixerを紹介する。
我々は,最近の最先端手法と比較して,xLSTM-Mixerの長期予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-10-22T11:59:36Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。