論文の概要: MSTN: Fast and Efficient Multivariate Time Series Model
- arxiv url: http://arxiv.org/abs/2511.20577v1
- Date: Tue, 25 Nov 2025 18:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.601473
- Title: MSTN: Fast and Efficient Multivariate Time Series Model
- Title(参考訳): MSTN: 高速かつ効率的な多変量時系列モデル
- Authors: Sumit S Shevtekar, Chandresh K Maurya, Gourab Sil,
- Abstract要約: 階層型マルチスケールおよびシーケンスモデリングの原理に基づいて構築された,新しいディープラーニングアーキテクチャであるMulti-scale Temporal Network(MSTN)を紹介する。
MSTNは、局所パターンのための階層的な特徴ピラミッドを構築する畳み込みエンコーダと、長距離時間依存のためのシーケンスモデリングコンポーネントを統合する。
時系列長軸予測, 計算, 分類, 一般化可能性調査における広範囲な評価は, MSTNがSOTA(コントラスト・オブ・ザ・アーティファクト)のパフォーマンスを達成することを示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world time-series data is highly non stationary and complex in dynamics that operate across multiple timescales, ranging from fast, short-term changes to slow, long-term trends. Most existing models rely on fixed-scale structural priors, such as patch-based tokenization, fixed frequency transformations, or frozen backbone architectures. This often leads to over-regularization of temporal dynamics, which limits their ability to adaptively model the full spectrum of temporal variations and impairs their performance on unpredictable, Sudden, high-magnitude events. To address this, we introduce the Multi-scale Temporal Network (MSTN), a novel deep learning architecture founded on a hierarchical multi-scale and sequence modeling principle. The MSTN framework integrates: (i) a multi-scale convolutional encoder that constructs a hierarchical feature pyramid for local patterns (ii) a sequence modeling component for long-range temporal dependencies. We empirically validate this with BiLSTM and Transformer variants, establishing a flexible foundation for future architectural advancements. and (iii) a gated fusion mechanism augmented with squeeze-and-excitation (SE) and multi-head temporal attention (MHTA) for dynamic, context-aware feature integration. This design enables MSTN to adaptively model temporal patterns from milliseconds to long-range dependencies within a unified framework. Extensive evaluations across time-series long-horizon forecasting, imputation, classification and generalizability study demonstrate that MSTN achieves competitive state-of-the-art (SOTA) performance, showing improvements over contemporary approaches including EMTSF, LLM4TS, HiMTM, TIME-LLM, MTST, SOFTS, iTransformer, TimesNet, and PatchTST. In total, MSTN establishes new SOTA performance on 24 of 32 benchmark datasets, demonstrating its consistent performance across diverse temporal tasks.
- Abstract(参考訳): 実世界の時系列データは、高速で短期的な変化から遅い、長期的なトレンドまで、複数の時間スケールで運用される、非常に非定常で複雑なダイナミックスである。
既存のモデルの多くは、パッチベースのトークン化、固定周波数変換、フリーズバックボーンアーキテクチャなど、固定スケールの構造上の前提に依存している。
これはしばしば時間力学の過規則化につながり、時間的変動の完全なスペクトルを適応的にモデル化する能力に制限を与え、予測不能で急激な高次事象におけるパフォーマンスを損なう。
これを解決するために,階層型マルチスケールおよびシーケンスモデリングの原理に基づいて構築された新しいディープラーニングアーキテクチャであるMulti-scale Temporal Network (MSTN)を導入する。
MSTNフレームワークが統合される。
(i)局所パターンの階層的特徴ピラミッドを構成するマルチスケール畳み込みエンコーダ
(ii)長距離時間依存のためのシーケンスモデリングコンポーネント。
BiLSTMとTransformerでこれを実証的に検証し、将来のアーキテクチャの進歩のための柔軟な基盤を確立します。
そして
三 動的・文脈対応機能統合のための押出し励起(SE)とマルチヘッド時間的注意(MHTA)を付加したゲート融合機構。
この設計により、MSTNは、ミリ秒から、統一されたフレームワーク内での長距離依存関係までの時間パターンを適応的にモデル化できる。
時系列長軸予測, インプット, 分類, 一般化可能性調査により, MSTNは競争的最先端(SOTA)性能を達成し, EMTSF, LLM4TS, HiMTM, TIME-LLM, MTST, SOFTS, iTransformer, TimesNet, PatchTSTなどの現代的アプローチよりも改善されていることが示された。
合計して、MSTNは32のベンチマークデータセットのうち24で新しいSOTAパフォーマンスを確立し、多様な時間的タスクで一貫したパフォーマンスを示す。
関連論文リスト
- Multi-modal Spatio-Temporal Transformer for High-resolution Land Subsidence Prediction [3.3295066998131637]
本研究では,動的変位データを静的な物理先行値と融合する新しいフレームワークを提案する。
公開EGMSデータセットでは、MM-STTが新しい最先端技術を確立し、長距離予測RMSEを桁違いに削減する。
論文 参考訳(メタデータ) (2025-09-29T18:49:04Z) - UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - Higher-order Cross-structural Embedding Model for Time Series Analysis [12.35149125898563]
時系列分析は、医療、金融、センサーネットワークといった様々な分野における重要な応用のために、注目されている。
現在のアプローチでは、時系列内の高次相互作用をモデル化し、時間的あるいは空間的依存関係を別々に学習することに注力しています。
本稿では,時間的視点と空間的視点の両方を協調的にモデル化する新しいフレームワークであるHigh-TS(Higher-order Cross-structural Embedding Model for Time Series)を提案する。
論文 参考訳(メタデータ) (2024-10-30T12:51:14Z) - TiVaT: A Transformer with a Single Unified Mechanism for Capturing Asynchronous Dependencies in Multivariate Time Series Forecasting [4.733959271565453]
TiVaTは、単一の統一モジュール、JA(Joint-Axis)アテンションモジュールを組み込んだ新しいアーキテクチャである。
JA attentionモジュールは、特に非同期インタラクションをキャプチャする関連機能を動的に選択する。
大規模な実験では、さまざまなデータセットにわたるTiVaTの全体的なパフォーマンスが示されている。
論文 参考訳(メタデータ) (2024-10-02T13:24:24Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - TMS: A Temporal Multi-scale Backbone Design for Speaker Embedding [60.292702363839716]
話者埋め込みのための現在のSOTAバックボーンネットワークは、話者表現のためのマルチブランチネットワークアーキテクチャを用いた発話からマルチスケール特徴を集約するように設計されている。
本稿では, 話者埋め込みネットワークにおいて, 計算コストの増大を伴わずに, マルチスケール分岐を効率的に設計できる効果的な時間的マルチスケール(TMS)モデルを提案する。
論文 参考訳(メタデータ) (2022-03-17T05:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。