論文の概要: vLinear: A Powerful Linear Model for Multivariate Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2601.13768v1
- Date: Tue, 20 Jan 2026 09:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.247484
- Title: vLinear: A Powerful Linear Model for Multivariate Time Series Forecasting
- Title(参考訳): vLinear: 多変量時系列予測のための強力な線形モデル
- Authors: Wenzhen Yue, Ruohao Guo, Ji Shi, Zihan Hao, Shiyu Hu, Xianghua Ying,
- Abstract要約: vecTransは学習可能なベクトルを使って多変量相関をモデル化する軽量モジュールである。
WFMLossは効果的なプラグ・アンド・プレイの目標であり、既存の予測装置を一貫して改善している。
- 参考スコア(独自算出の注目度): 28.587343014443576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present \textbf{vLinear}, an effective yet efficient \textbf{linear}-based multivariate time series forecaster featuring two components: the \textbf{v}ecTrans module and the WFMLoss objective. Many state-of-the-art forecasters rely on self-attention or its variants to capture multivariate correlations, typically incurring $\mathcal{O}(N^2)$ computational complexity with respect to the number of variates $N$. To address this, we propose vecTrans, a lightweight module that utilizes a learnable vector to model multivariate correlations, reducing the complexity to $\mathcal{O}(N)$. Notably, vecTrans can be seamlessly integrated into Transformer-based forecasters, delivering up to 5$\times$ inference speedups and consistent performance gains. Furthermore, we introduce WFMLoss (Weighted Flow Matching Loss) as the objective. In contrast to typical \textbf{velocity-oriented} flow matching objectives, we demonstrate that a \textbf{final-series-oriented} formulation yields significantly superior forecasting accuracy. WFMLoss also incorporates path- and horizon-weighted strategies to focus learning on more reliable paths and horizons. Empirically, vLinear achieves state-of-the-art performance across 22 benchmarks and 124 forecasting settings. Moreover, WFMLoss serves as an effective plug-and-play objective, consistently improving existing forecasters. The code is available at https://anonymous.4open.science/r/vLinear.
- Abstract(参考訳): 本稿では, 有効かつ効率的かつ多変量時系列予測器である, \textbf{v}ecTransモジュールと WFMLoss の2つのコンポーネントを特徴とする \textbf{vLinear} を提案する。
多くの最先端の予測器は、多変量相関を捉えるために自己注意またはその変種に依存しており、通常、変数数$N$に対して$\mathcal{O}(N^2)$の計算複雑性を生じる。
これを解決するために,学習可能なベクトルを用いて多変量相関をモデル化し,複雑性を$\mathcal{O}(N)$に下げる軽量モジュールであるvecTransを提案する。
特に、vecTransはTransformerベースの予測器にシームレスに統合することができ、最大5$\times$推論スピードアップと一貫したパフォーマンス向上を提供する。
さらに,WFMLoss (Weighted Flow Matching Loss) を目的として紹介する。
典型的な {textbf{velocity-oriented} フローマッチングの目的とは対照的に, \textbf{final-series-oriented} の定式化が予測精度を著しく向上させることを示す。
WFMLossはまた、より信頼性の高いパスと地平線に学習を集中させるパスと地平線重みの戦略も取り入れている。
実証的には、vLinearは22のベンチマークと124の予測設定で最先端のパフォーマンスを達成する。
さらに、WFMLossは効果的なプラグアンドプレイの目標として機能し、既存の予測装置を継続的に改善する。
コードはhttps://anonymous.4open.science/r/vLinear.comで公開されている。
関連論文リスト
- Efficiency vs. Fidelity: A Comparative Analysis of Diffusion Probabilistic Models and Flow Matching on Low-Resource Hardware [0.0]
Denoising Diffusion Probabilistic Models (DDPMs) は、生成画像合成における新しい最先端技術を確立した。
本研究では,新たなフローマッチングパラダイムに対するDDPMの比較分析を行った。
論文 参考訳(メタデータ) (2025-11-24T18:19:42Z) - PT$^2$-LLM: Post-Training Ternarization for Large Language Models [52.4629647715623]
大きな言語モデル(LLM)は、様々なタスクにまたがる印象的な機能を示しているが、その大きなメモリと計算能力は、デプロイメントを妨げている。
PT$2$-LLMを提案する。
その中核は2段精製パイプラインを備えた非対称3次量子化器である。
論文 参考訳(メタデータ) (2025-09-27T03:01:48Z) - MPQ-DMv2: Flexible Residual Mixed Precision Quantization for Low-Bit Diffusion Models with Temporal Distillation [74.34220141721231]
我々は,textbfMixed textbfPrecision textbfQuantizationフレームワークを改良したMPQ-DMv2を提案する。
論文 参考訳(メタデータ) (2025-07-06T08:16:50Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [67.95907033226585]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
直感的な微調整はパフォーマンスの向上をもたらすが、TSFMの能力を完全に活用するには不十分である、と我々は主張する。
マルチスケール・ファインタニング(MSFT)は,マルチスケール・モデリングをファインタニング・プロセスに明示的に統合する,シンプルながら汎用的なフレームワークである。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - MaskPro: Linear-Space Probabilistic Learning for Strict (N:M)-Sparsity on Large Language Models [53.36415620647177]
半構造化された空間は、M$M$の重みからN$の要素を戦略的に保持することで、有望なソリューションを提供する。
既存の(N:M)互換のアプローチは通常、かなりのエラーに悩まされるルールベースの階層的な欲求探索と、禁止的なトレーニングコストを引き起こす勾配駆動学習の2つのカテゴリに分類される。
MaskProという新しい線形空間確率的フレームワークを提案する。これは、M$連続重みごとに事前のカテゴリー分布を学習し、その後、この分布を活用して(N:M)スパーシリティを$N$-wayサンプリングを通じて生成することを目的としている。
論文 参考訳(メタデータ) (2025-06-15T15:02:59Z) - Sonnet: Spectral Operator Neural Network for Multivariable Time Series Forecasting [0.34530027457862006]
我々は新しいアーキテクチャ、すなわちスペクトル演算子ニューラルネットワーク(Sonnet)を提案する。
ソンネットは入力に学習可能なウェーブレット変換を適用し、クープマン作用素を用いたスペクトル解析を取り入れている。
われわれの実証分析によると、Sonnetは予測タスクの47ドルのうち34ドルで最高のパフォーマンスを得ている。
論文 参考訳(メタデータ) (2025-05-21T09:43:12Z) - OLinear: A Linear Model for Time Series Forecasting in Orthogonally Transformed Domain [24.24834151329251]
OLinearは$mathbfo$rthogonally変換されたドメインで、$mathbfo$rthogonally変換されたドメインで動作する。
多変量依存を捉えるために正規化重み行列を利用する、カスタマイズされた線形層である $mathbfNormLin$ を導入する。
24のベンチマークと140の予測タスクの実験は、OLinearが常に最先端のパフォーマンスを高い効率で達成していることを示している。
論文 参考訳(メタデータ) (2025-05-12T10:39:37Z) - VE: Modeling Multivariate Time Series Correlation with Variate Embedding [0.4893345190925178]
現在のチャネル非依存(CI)モデルとCI最終射影層を持つモデルは相関を捉えることができない。
可変埋め込み(VE)パイプラインを提案し,各変数に対して一意かつ一貫した埋め込みを学習する。
VEパイプラインは、CI最終プロジェクション層を持つ任意のモデルに統合して、多変量予測を改善することができる。
論文 参考訳(メタデータ) (2024-09-10T02:49:30Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Transformers meet Stochastic Block Models: Attention with Data-Adaptive
Sparsity and Cost [53.746169882193456]
最近の研究は、自己注意の二次的コストを克服するために、様々なスパークアテンションモジュールを提案している。
本稿では,それぞれの注意を混合メンバーシップブロックモデルで表現することで,両方の問題を解決するモデルを提案する。
我々のモデルは、以前の効率的な変種とオリジナルのトランスフォーマーより優れており、十分に注目されています。
論文 参考訳(メタデータ) (2022-10-27T15:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。