論文の概要: Multi-Modal View Enhanced Large Vision Models for Long-Term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2505.24003v1
- Date: Thu, 29 May 2025 20:55:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.662419
- Title: Multi-Modal View Enhanced Large Vision Models for Long-Term Time Series Forecasting
- Title(参考訳): 長期連続予測のためのマルチモーダルビュー拡張大型ビジョンモデル
- Authors: ChengAo Shen, Wenchao Yu, Ziming Zhao, Dongjin Song, Wei Cheng, Haifeng Chen, Jingchao Ni,
- Abstract要約: 時系列は画像やテキストに変換でき、同じ信号のマルチモーダルビュー(MMV)を提供する。
LVMを時系列予測に適用すると、"予測期間"に対する帰納的バイアスが生じる
本稿では,MMVをLTSFに組み込むために,トレンドシーズン分解と新しいバックキャスト残差ベース適応分解を利用する,新しい分解ベースマルチモーダルビューフレームワークDMMVを提案する。
- 参考スコア(独自算出の注目度): 44.62612441537477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series, typically represented as numerical sequences, can also be transformed into images and texts, offering multi-modal views (MMVs) of the same underlying signal. These MMVs can reveal complementary patterns and enable the use of powerful pre-trained large models, such as large vision models (LVMs), for long-term time series forecasting (LTSF). However, as we identified in this work, applying LVMs to LTSF poses an inductive bias towards "forecasting periods". To harness this bias, we propose DMMV, a novel decomposition-based multi-modal view framework that leverages trend-seasonal decomposition and a novel backcast residual based adaptive decomposition to integrate MMVs for LTSF. Comparative evaluations against 14 state-of-the-art (SOTA) models across diverse datasets show that DMMV outperforms single-view and existing multi-modal baselines, achieving the best mean squared error (MSE) on 6 out of 8 benchmark datasets.
- Abstract(参考訳): 時系列は典型的には数値列として表現され、画像やテキストに変換され、同じ信号のマルチモーダルビュー(MMV)を提供する。
これらのMMVは相補的なパターンを明らかにし、大規模ビジョンモデル(LVM)のような強力な事前訓練された大規模モデルを長期時系列予測(LTSF)に利用することができる。
しかし,本研究で確認したように,LVMをLTSFに適用すると,"予測期間"に対して帰納的バイアスが生じる。
このバイアスを生かしたDMMVは、トレンドシーズン分解と新しいバックキャスト残差に基づく適応分解を活用し、LTSFのためのMMVを統合する。
さまざまなデータセットにわたる14の最先端(SOTA)モデルの比較評価では、DMMVはシングルビューと既存のマルチモーダルベースラインより優れており、8つのベンチマークデータセットのうち6つで最高の平均2乗誤差(MSE)を達成する。
関連論文リスト
- HaploVL: A Single-Transformer Baseline for Multi-Modal Understanding [67.24430397016275]
そこで本稿では,マルチモーダル入力を早期に融合し,自動回帰方式で視覚的指示に応答できる新しいアーリーフュージョンLMMを提案する。
提案モデルでは,1つの変圧器を用いた他のLMMと比較して優れた性能を示し,合成LMMによる性能ギャップを著しく狭めている。
論文 参考訳(メタデータ) (2025-03-12T06:01:05Z) - Vision-Enhanced Time Series Forecasting via Latent Diffusion Models [12.54316645614762]
LDM4TSは視覚強調時系列予測のための遅延拡散モデルの強力な画像再構成機能を利用する新しいフレームワークである。
時系列を多視点視覚表現に変換するための補完的変換手法を最初に用いた。
論文 参考訳(メタデータ) (2025-02-16T14:15:06Z) - Harnessing Vision Models for Time Series Analysis: A Survey [72.09716244582684]
本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
論文 参考訳(メタデータ) (2025-02-13T00:42:11Z) - M-CELS: Counterfactual Explanation for Multivariate Time Series Data Guided by Learned Saliency Maps [0.9374652839580181]
M-CELSは,多次元時系列分類タスクにおける解釈可能性を高めるために設計された,対物的説明モデルである。
その結果, M-CELS の有効性, 近接性, 疎度に優れた性能を示した。
論文 参考訳(メタデータ) (2024-11-04T22:16:24Z) - LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting [69.33802286580786]
LTSM-Bundleは総合的なツールボックスであり、LTSMをトレーニングするためのベンチマークである。
複数の次元からLTSMをモジュール化し、ベンチマークし、プロンプト戦略、トークン化アプローチ、ベースモデルの選択、データ量、データセットの多様性を含む。
実験により、この組み合わせは最先端のLTSMや従来のTSF法と比較して、ゼロショットと少数ショットのパフォーマンスが優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - A novel decomposed-ensemble time series forecasting framework: capturing
underlying volatility information [6.590038231008498]
本稿では, 時系列予測のパラダイムを提案する。このパラダイムは, 分解と, 時系列の揺らぎ情報を取得する能力を統合するものである。
各サブモードの数値データとボラティリティ情報の両方を利用してニューラルネットワークを訓練する。
このネットワークはサブモデムの情報予測に長けており、全てのサブモデムの予測を集約して最終的な出力を生成する。
論文 参考訳(メタデータ) (2023-10-13T01:50:43Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。