論文の概要: InvDec: Inverted Decoder for Multivariate Time Series Forecasting with Separated Temporal and Variate Modeling
- arxiv url: http://arxiv.org/abs/2510.20302v1
- Date: Thu, 23 Oct 2025 07:42:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.531593
- Title: InvDec: Inverted Decoder for Multivariate Time Series Forecasting with Separated Temporal and Variate Modeling
- Title(参考訳): InvDec: 時間と変数の分離モデリングによる多変量時系列予測のための逆デコーダ
- Authors: Yuhang Wang,
- Abstract要約: InvDecは、時間符号化と可変レベルの復号化を原則的に分離するハイブリッドアーキテクチャである。
7つのベンチマークの実験は、高次元データセットにおいて顕著な向上を示した。
- 参考スコア(独自算出の注目度): 19.162716475205308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate time series forecasting requires simultaneously modeling temporal patterns and cross-variate dependencies. Channel-independent methods such as PatchTST excel at temporal modeling but ignore variable correlations, while pure variate-attention approaches such as iTransformer sacrifice temporal encoding. We proposeInvDec (Inverted Decoder), a hybrid architecture that achieves principled separation between temporal encoding and variate-level decoding. InvDec combines a patch-based temporal encoder with an inverted decoder operating on the variate dimension through variate-wise self-attention. We introduce delayed variate embeddings that enrich variable-specific representations only after temporal encoding, preserving temporal feature integrity. An adaptive residual fusion mechanism dynamically balances temporal and variate information across datasets of varying dimensions. Instantiating InvDec with PatchTST yields InvDec-PatchTST. Extensive experiments on seven benchmarks demonstrate significant gains on high-dimensional datasets: 20.9% MSE reduction on Electricity (321 variables), 4.3% improvement on Weather, and 2.7% gain on Traffic compared to PatchTST, while maintaining competitive performance on low-dimensional ETT datasets. Ablation studies validate each component, and analysis reveals that InvDec's advantage grows with dataset dimensionality, confirming that cross-variate modeling becomes critical as the number of variables increases.
- Abstract(参考訳): 多変量時系列予測には、時間的パターンと多変量依存関係を同時にモデル化する必要がある。
PatchTSTのようなチャネルに依存しない手法は時間的モデリングでは優れるが、変数相関は無視される。
InvDec (Inverted Decoder) は,時間符号化と可変レベルの復号化を原理的に分離するハイブリッドアーキテクチャである。
InvDecはパッチベースの時間エンコーダと可変次元で動作する逆デコーダを組み合わせる。
時間的特徴の整合性を保つため,時間的エンコーディング後にのみ変数固有の表現を豊かにする遅延変数埋め込みを導入する。
適応的残留核融合機構は、時間的および変動的な情報を様々な次元のデータセット間で動的にバランスさせる。
InvDecとPatchTSTを併用すると、InvDec-PatchTSTが得られる。
7つのベンチマークでの大規模な実験は、電気の20.9%のMSE削減(321変数)、天気の4.3%の改善、PatchTSTと比較してトラフィックの2.7%向上、低次元ETTデータセットの競争性能を維持しながら、高次元データセットにおいて顕著な上昇を示した。
アブレーション研究は各成分を検証し、分析により、InvDecの利点はデータセットの次元性によって増大し、変数の数が増えるにつれて多変量モデリングが重要になることを示す。
関連論文リスト
- Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations [2.4302562182247636]
私たちはTransformerアーキテクチャを再使用して、クロスタイムとクロス変数の依存関係の両方をモデル化します。
提案手法は13の実世界のデータセットにまたがって最先端のパフォーマンスを実現し,オリジナルモデルよりも最大20.7%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-05-01T04:59:05Z) - Sentinel: Multi-Patch Transformer with Temporal and Channel Attention for Time Series Forecasting [48.52101281458809]
トランスフォーマーに基づく時系列予測は、シーケンシャルデータをモデル化するトランスフォーマーの能力により、近年、強い関心を集めている。
チャネル次元からコンテキスト情報を抽出できるエンコーダで構成されるトランスフォーマーベースのアーキテクチャであるSentinelを提案する。
マルチパッチアテンション機構を導入し、パッチ処理を利用して入力シーケンスをトランスフォーマーアーキテクチャに自然に組み込むことができるように構成する。
論文 参考訳(メタデータ) (2025-03-22T06:01:50Z) - Sensorformer: Cross-patch attention with global-patch compression is effective for high-dimensional multivariate time series forecasting [12.103678233732584]
本稿では,まずグローバルパッチ情報を圧縮し,同時に圧縮された表現からクロス変数およびクロスタイム依存関係を抽出する新しい変換器であるSensorformerを提案する。
センサフォーマは、変数間の動的因果ラグが存在する場合でも、適切な変数間の相関関係と因果関係を効果的に捉えることができる。
論文 参考訳(メタデータ) (2025-01-06T03:14:47Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - VCformer: Variable Correlation Transformer with Inherent Lagged Correlation for Multivariate Time Series Forecasting [1.5165632546654102]
本稿では,変数間の相関を抽出する可変相関変換器(VCformer)を提案する。
VCAはクエリとキー間の遅延に応じて、相互相関スコアを計算し、統合する。
クープマンダイナミクス理論にインスパイアされた我々は、時系列の非定常性を改善するために、クープマン時間検出器(KTD)を開発した。
論文 参考訳(メタデータ) (2024-05-19T07:39:22Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。