論文の概要: Dual-Forecaster: A Multimodal Time Series Model Integrating Descriptive and Predictive Texts
- arxiv url: http://arxiv.org/abs/2505.01135v1
- Date: Fri, 02 May 2025 09:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.982773
- Title: Dual-Forecaster: A Multimodal Time Series Model Integrating Descriptive and Predictive Texts
- Title(参考訳): Dual-Forecaster: 記述テキストと予測テキストを統合したマルチモーダル時系列モデル
- Authors: Wenfa Wu, Guanyu Zhang, Zheng Tan, Yi Wang, Hongsheng Qi,
- Abstract要約: 本稿では,記述的歴史的テキスト情報と予測的テキストインサイトを組み合わせたマルチモーダル時系列モデルであるDual-Forecasterを提案する。
15のマルチモーダル時系列データセットに対する包括的評価は、Dual-Forecasterが明らかに有効なマルチモーダル時系列モデルであることを示している。
- 参考スコア(独自算出の注目度): 5.873261646876953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing single-modal time series models rely solely on numerical series, which suffer from the limitations imposed by insufficient information. Recent studies have revealed that multimodal models can address the core issue by integrating textual information. However, these models focus on either historical or future textual information, overlooking the unique contributions each plays in time series forecasting. Besides, these models fail to grasp the intricate relationships between textual and time series data, constrained by their moderate capacity for multimodal comprehension. To tackle these challenges, we propose Dual-Forecaster, a pioneering multimodal time series model that combines both descriptively historical textual information and predictive textual insights, leveraging advanced multimodal comprehension capability empowered by three well-designed cross-modality alignment techniques. Our comprehensive evaluations on fifteen multimodal time series datasets demonstrate that Dual-Forecaster is a distinctly effective multimodal time series model that outperforms or is comparable to other state-of-the-art models, highlighting the superiority of integrating textual information for time series forecasting. This work opens new avenues in the integration of textual information with numerical time series data for multimodal time series analysis.
- Abstract(参考訳): 既存のシングルモーダル時系列モデルの多くは、不十分な情報によって課せられる制限に悩まされる数値列のみに依存している。
近年の研究では、テキスト情報を統合することで、マルチモーダルモデルが中心的な問題に対処できることが示されている。
しかしながら、これらのモデルは、時系列予測において各戯曲の独特な貢献を見越して、歴史的または将来のテキスト情報に焦点を合わせている。
さらに、これらのモデルは、マルチモーダル理解のための適度な能力によって制約される、テキストと時系列データの複雑な関係を把握できない。
これらの課題に対処するために、我々はDual-Forecasterを提案する。Dual-Forecasterは、記述的歴史的テキスト情報と予測的テキストインサイトを組み合わせ、よく設計された3つのクロスモーダルアライメント技術によって強化された高度なマルチモーダル理解能力を活用する、先駆的なマルチモーダル時系列モデルである。
15のマルチモーダル時系列データセットに関する総合的な評価は、Dual-Forecasterが、他の最先端モデルよりも優れ、あるいは同等である、明らかに効果的なマルチモーダル時系列モデルであることを示し、時系列予測のためのテキスト情報の統合の優位性を強調している。
本研究は,マルチモーダル時系列解析のための数値時系列データとテキスト情報の統合における新たな道を開くものである。
関連論文リスト
- TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Unveiling the Potential of Text in High-Dimensional Time Series Forecasting [12.707274099874384]
本稿では,時系列モデルと大規模言語モデルを統合する新しいフレームワークを提案する。
マルチモーダルモデルにインスパイアされた本手法では, 時系列データとテキストデータを重塔構造で結合する。
テキストを組み込んだ実験により,高次元時系列予測性能が向上することが示された。
論文 参考訳(メタデータ) (2025-01-13T04:10:45Z) - ChatTime: A Unified Multimodal Time Series Foundation Model Bridging Numerical and Textual Data [26.300515935897415]
ChatTimeは時系列とテキスト処理のための統合されたフレームワークである。
アウトオブボックスのマルチモーダル時系列基盤モデルとして、ChatTimeはゼロショット予測機能を提供する。
複数のタスクやシナリオでChatTimeの優れたパフォーマンスを検証するために、一連の実験を設計する。
論文 参考訳(メタデータ) (2024-12-16T02:04:06Z) - Text2Freq: Learning Series Patterns from Text via Frequency Domain [8.922661807801227]
Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-11-01T16:11:02Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。