論文の概要: IMTS is Worth Time $\times$ Channel Patches: Visual Masked Autoencoders for Irregular Multivariate Time Series Prediction
- arxiv url: http://arxiv.org/abs/2505.22815v1
- Date: Wed, 28 May 2025 19:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.509183
- Title: IMTS is Worth Time $\times$ Channel Patches: Visual Masked Autoencoders for Irregular Multivariate Time Series Prediction
- Title(参考訳): IMTSは、不規則な多変量時系列予測のためのビジュアルマスク付きオートエンコーダ
- Authors: Zhangyi Hu, Jiemin Wu, Hua Xu, Mingqian Liao, Ninghui Feng, Bo Gao, Songning Lai, Yutao Yue,
- Abstract要約: IMTS 予測のための Visual MAE 適応フレームワーク VIMTS を提案する。
欠落した値の影響を軽減するため、VIMTSはまずタイムラインに沿ってIMTSを同じ間隔で特徴パッチに処理する。
そして、パッチ再構成のためのスパースマルチチャネルデータを扱う視覚的MAEの機能を利用し、その後、粗大なテクニックで正確な予測を生成する。
- 参考スコア(独自算出の注目度): 9.007111482874135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Irregular Multivariate Time Series (IMTS) forecasting is challenging due to the unaligned nature of multi-channel signals and the prevalence of extensive missing data. Existing methods struggle to capture reliable temporal patterns from such data due to significant missing values. While pre-trained foundation models show potential for addressing these challenges, they are typically designed for Regularly Sampled Time Series (RTS). Motivated by the visual Mask AutoEncoder's (MAE) powerful capability for modeling sparse multi-channel information and its success in RTS forecasting, we propose VIMTS, a framework adapting Visual MAE for IMTS forecasting. To mitigate the effect of missing values, VIMTS first processes IMTS along the timeline into feature patches at equal intervals. These patches are then complemented using learned cross-channel dependencies. Then it leverages visual MAE's capability in handling sparse multichannel data for patch reconstruction, followed by a coarse-to-fine technique to generate precise predictions from focused contexts. In addition, we integrate self-supervised learning for improved IMTS modeling by adapting the visual MAE to IMTS data. Extensive experiments demonstrate VIMTS's superior performance and few-shot capability, advancing the application of visual foundation models in more general time series tasks. Our code is available at https://github.com/WHU-HZY/VIMTS.
- Abstract(参考訳): 不規則な多変量時系列(IMTS)予測は、マルチチャネル信号の非整合性や大量の欠落データの存在により困難である。
既存の手法では、重要な欠落した値のために、そのようなデータから信頼できる時間パターンを捉えるのに苦労している。
事前訓練された基礎モデルはこれらの課題に対処する可能性を示しているが、通常はRTS(Regularly Smpled Time Series)のために設計されている。
視覚的Mask AutoEncoder(MAE)のマルチチャネル情報モデリング能力とRTS予測の成功に触発されて,IMTS予測にVisual MAEを適用するフレームワークであるVIMTSを提案する。
欠落した値の影響を軽減するため、VIMTSはまずタイムラインに沿ってIMTSを同じ間隔で特徴パッチに処理する。
これらのパッチは、学習したチャネル間の依存関係を使って補完される。
そして、パッチ再構成のためのスパースマルチチャネルデータの処理における視覚的MAEの機能を活用し、その後、集中したコンテキストから正確な予測を生成する粗大な技法を用いる。
さらに、視覚的MAEをIMTSデータに適応させることにより、自己教師付き学習を統合し、IMTSモデリングを改善する。
大規模な実験では、VIMTSの優れた性能と少ないショット能力を示し、より一般的な時系列タスクにおける視覚的基礎モデルの適用を推し進めている。
私たちのコードはhttps://github.com/WHU-HZY/VIMTS.comで公開されています。
関連論文リスト
- HyperIMTS: Hypergraph Neural Network for Irregular Multivariate Time Series Forecasting [24.29827089303662]
不規則な多変量時系列(IMTS)は変数内の不規則な時間間隔と変数間の不整合観察によって特徴づけられる。
IMTS予測のためのハイパーグラフニューラルネットワークHyperIMTSを提案する。
実験では、計算コストの低いIMTS予測において、最先端モデル間のHyperIMTSの競合性能を示す。
論文 参考訳(メタデータ) (2025-05-23T03:27:04Z) - IMTS-Mixer: Mixer-Networks for Irregular Multivariate Time Series Forecasting [5.854515369288696]
IMTS専用に設計された新しい予測アーキテクチャであるIMTS-Mixerを紹介する。
提案手法は,IMTSを固定サイズ行列表現に変換する革新的な手法を導入しながら,TSミキサーモデルの中核となる原理を保っている。
この結果から,IMTS-Mixerは予測精度を向上し,計算効率も向上することを示す。
論文 参考訳(メタデータ) (2025-02-17T14:06:36Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - UniTS: A Unified Multi-Task Time Series Model [31.675845788410246]
UniTSは、予測タスクと生成タスクを単一のフレームワークに統合した、統合されたマルチタスク時系列モデルである。
UniTSは、人間の活動センサー、ヘルスケア、エンジニアリング、ファイナンスにまたがる38のデータセットでテストされている。
論文 参考訳(メタデータ) (2024-02-29T21:25:58Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。