論文の概要: IMTS is Worth Time $\times$ Channel Patches: Visual Masked Autoencoders for Irregular Multivariate Time Series Prediction
- arxiv url: http://arxiv.org/abs/2505.22815v2
- Date: Fri, 30 May 2025 02:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 12:43:13.140222
- Title: IMTS is Worth Time $\times$ Channel Patches: Visual Masked Autoencoders for Irregular Multivariate Time Series Prediction
- Title(参考訳): IMTSは、不規則な多変量時系列予測のためのビジュアルマスク付きオートエンコーダ
- Authors: Zhangyi Hu, Jiemin Wu, Hua Xu, Mingqian Liao, Ninghui Feng, Bo Gao, Songning Lai, Yutao Yue,
- Abstract要約: IMTS 予測のための Visual MAE 適応フレームワーク VIMTS を提案する。
欠落した値の影響を軽減するため、VIMTSはまずタイムラインに沿ってIMTSを同じ間隔で特徴パッチに処理する。
そして、パッチ再構成のためのスパースマルチチャネルデータを扱う視覚的MAEの機能を利用し、その後、粗大なテクニックで正確な予測を生成する。
- 参考スコア(独自算出の注目度): 9.007111482874135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Irregular Multivariate Time Series (IMTS) forecasting is challenging due to the unaligned nature of multi-channel signals and the prevalence of extensive missing data. Existing methods struggle to capture reliable temporal patterns from such data due to significant missing values. While pre-trained foundation models show potential for addressing these challenges, they are typically designed for Regularly Sampled Time Series (RTS). Motivated by the visual Mask AutoEncoder's (MAE) powerful capability for modeling sparse multi-channel information and its success in RTS forecasting, we propose VIMTS, a framework adapting Visual MAE for IMTS forecasting. To mitigate the effect of missing values, VIMTS first processes IMTS along the timeline into feature patches at equal intervals. These patches are then complemented using learned cross-channel dependencies. Then it leverages visual MAE's capability in handling sparse multichannel data for patch reconstruction, followed by a coarse-to-fine technique to generate precise predictions from focused contexts. In addition, we integrate self-supervised learning for improved IMTS modeling by adapting the visual MAE to IMTS data. Extensive experiments demonstrate VIMTS's superior performance and few-shot capability, advancing the application of visual foundation models in more general time series tasks. Our code is available at https://github.com/WHU-HZY/VIMTS.
- Abstract(参考訳): 不規則な多変量時系列(IMTS)予測は、マルチチャネル信号の非整合性や大量の欠落データの存在により困難である。
既存の手法では、重要な欠落した値のために、そのようなデータから信頼できる時間パターンを捉えるのに苦労している。
事前訓練された基礎モデルはこれらの課題に対処する可能性を示しているが、通常はRTS(Regularly Smpled Time Series)のために設計されている。
視覚的Mask AutoEncoder(MAE)のマルチチャネル情報モデリング能力とRTS予測の成功に触発されて,IMTS予測にVisual MAEを適用するフレームワークであるVIMTSを提案する。
欠落した値の影響を軽減するため、VIMTSはまずタイムラインに沿ってIMTSを同じ間隔で特徴パッチに処理する。
これらのパッチは、学習したチャネル間の依存関係を使って補完される。
そして、パッチ再構成のためのスパースマルチチャネルデータの処理における視覚的MAEの機能を活用し、その後、集中したコンテキストから正確な予測を生成する粗大な技法を用いる。
さらに、視覚的MAEをIMTSデータに適応させることにより、自己教師付き学習を統合し、IMTSモデリングを改善する。
大規模な実験では、VIMTSの優れた性能と少ないショット能力を示し、より一般的な時系列タスクにおける視覚的基礎モデルの適用を推し進めている。
私たちのコードはhttps://github.com/WHU-HZY/VIMTS.comで公開されています。
関連論文リスト
- Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [56.503053716053]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
我々は、TSFMの能力を十分に活用するに足りず、しばしば過度な適合と準最適性能をもたらすと論じている。
マルチスケールモデリングをファインタニングプロセスに明示的に統合するシンプルなフレームワークであるtextbftextscfinetextbftextsctuning (textbfMSFT)を提案する。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - Time Series Representations for Classification Lie Hidden in Pretrained Vision Transformers [49.07665715422702]
時系列を画像に変換するフレームワークであるTime Vision Transformer (TiViT) を提案する。
標準時系列分類ベンチマークにおいて, TiViT が最先端の性能を達成することを示す。
本研究は,非視覚領域における視覚表現の再利用に向けた新たな方向を明らかにするものである。
論文 参考訳(メタデータ) (2025-06-10T09:54:51Z) - HyperIMTS: Hypergraph Neural Network for Irregular Multivariate Time Series Forecasting [24.29827089303662]
不規則な多変量時系列(IMTS)は変数内の不規則な時間間隔と変数間の不整合観察によって特徴づけられる。
IMTS予測のためのハイパーグラフニューラルネットワークHyperIMTSを提案する。
実験では、計算コストの低いIMTS予測において、最先端モデル間のHyperIMTSの競合性能を示す。
論文 参考訳(メタデータ) (2025-05-23T03:27:04Z) - A Time Series Multitask Framework Integrating a Large Language Model, Pre-Trained Time Series Model, and Knowledge Graph [1.3654846342364308]
時系列分析は金融、交通、産業などの分野において重要である。
本稿では,時間的特徴をテキスト記述と統合した新しい時系列マルチタスクフレームワーク LTM を提案する。
ベンチマークデータセットの実験では、LTMが既存のメソッドよりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-10T11:25:01Z) - IMTS-Mixer: Mixer-Networks for Irregular Multivariate Time Series Forecasting [5.854515369288696]
IMTS専用に設計された新しい予測アーキテクチャであるIMTS-Mixerを紹介する。
提案手法は,IMTSを固定サイズ行列表現に変換する革新的な手法を導入しながら,TSミキサーモデルの中核となる原理を保っている。
この結果から,IMTS-Mixerは予測精度を向上し,計算効率も向上することを示す。
論文 参考訳(メタデータ) (2025-02-17T14:06:36Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - UniTS: A Unified Multi-Task Time Series Model [31.675845788410246]
UniTSは、予測タスクと生成タスクを単一のフレームワークに統合した、統合されたマルチタスク時系列モデルである。
UniTSは、人間の活動センサー、ヘルスケア、エンジニアリング、ファイナンスにまたがる38のデータセットでテストされている。
論文 参考訳(メタデータ) (2024-02-29T21:25:58Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - LIFE: Learning Individual Features for Multivariate Time Series
Prediction with Missing Values [71.52335136040664]
本稿では,MTS予測のための新しいパラダイムを提供する学習個人特徴(LIFE)フレームワークを提案する。
LIFEは、相関次元を補助情報として使用し、非相関次元からの干渉を欠落値で抑制することにより、予測のための信頼性の高い特徴を生成する。
3つの実世界のデータセットの実験は、既存の最先端モデルに対するLIFEの優位性を検証する。
論文 参考訳(メタデータ) (2021-09-30T04:53:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。