論文の概要: Multi-Modal Forecaster: Jointly Predicting Time Series and Textual Data
- arxiv url: http://arxiv.org/abs/2411.06735v1
- Date: Mon, 11 Nov 2024 06:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:45.608778
- Title: Multi-Modal Forecaster: Jointly Predicting Time Series and Textual Data
- Title(参考訳): マルチモーダル・フォアキャスター:時系列とテキストデータの同時予測
- Authors: Kai Kim, Howard Tsai, Rajat Sen, Abhimanyu Das, Zihao Zhou, Abhishek Tanpure, Mathew Luo, Rose Yu,
- Abstract要約: 現在の予測手法は概ね非定型であり、時系列に付随するリッチテキストデータを無視している。
マルチモーダル予測のためのタイムテキストコーパス(TTC)を開発した。
我々のデータセットは、タイムスタンプに沿った数字とテキストのシーケンスで構成されており、気候科学と医療という2つの異なる領域のデータを含んでいる。
- 参考スコア(独自算出の注目度): 23.10730301634422
- License:
- Abstract: Current forecasting approaches are largely unimodal and ignore the rich textual data that often accompany the time series due to lack of well-curated multimodal benchmark dataset. In this work, we develop TimeText Corpus (TTC), a carefully curated, time-aligned text and time dataset for multimodal forecasting. Our dataset is composed of sequences of numbers and text aligned to timestamps, and includes data from two different domains: climate science and healthcare. Our data is a significant contribution to the rare selection of available multimodal datasets. We also propose the Hybrid Multi-Modal Forecaster (Hybrid-MMF), a multimodal LLM that jointly forecasts both text and time series data using shared embeddings. However, contrary to our expectations, our Hybrid-MMF model does not outperform existing baselines in our experiments. This negative result highlights the challenges inherent in multimodal forecasting. Our code and data are available at https://github.com/Rose-STL-Lab/Multimodal_ Forecasting.
- Abstract(参考訳): 現在の予測手法は、よく計算されたマルチモーダルベンチマークデータセットが欠如しているため、時系列に付随するリッチなテキストデータを無視している。
本研究では,マルチモーダル予測のためのタイムテキストコーパス(TTC)を開発した。
我々のデータセットは、タイムスタンプに沿った数字とテキストのシーケンスで構成されており、気候科学と医療という2つの異なる領域のデータを含んでいる。
私たちのデータは、利用可能なマルチモーダルデータセットの稀な選択に重要な貢献をします。
また,Hybrid-MMF(Hybrid-MMF)を提案する。
しかし、我々の期待に反して、Hybrid-MMFモデルは我々の実験において既存のベースラインを上回りません。
この否定的な結果は、マルチモーダル予測に固有の課題を浮き彫りにする。
私たちのコードとデータはhttps://github.com/Rose-STL-Lab/Multimodal_ Forecasting.comで公開されています。
関連論文リスト
- TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Unveiling the Potential of Text in High-Dimensional Time Series Forecasting [12.707274099874384]
本稿では,時系列モデルと大規模言語モデルを統合する新しいフレームワークを提案する。
マルチモーダルモデルにインスパイアされた本手法では, 時系列データとテキストデータを重塔構造で結合する。
テキストを組み込んだ実験により,高次元時系列予測性能が向上することが示された。
論文 参考訳(メタデータ) (2025-01-13T04:10:45Z) - ChatTime: A Unified Multimodal Time Series Foundation Model Bridging Numerical and Textual Data [26.300515935897415]
ChatTimeは時系列とテキスト処理のための統合されたフレームワークである。
アウトオブボックスのマルチモーダル時系列基盤モデルとして、ChatTimeはゼロショット予測機能を提供する。
複数のタスクやシナリオでChatTimeの優れたパフォーマンスを検証するために、一連の実験を設計する。
論文 参考訳(メタデータ) (2024-12-16T02:04:06Z) - TimeAutoDiff: Combining Autoencoder and Diffusion model for time series tabular data synthesizing [13.385264002435145]
本稿では、遅延拡散モデルのパワーを活用して、合成時系列表データを生成する。
可変オートエンコーダ(VAE)と拡散確率モデル(DDPM)のアイデアを組み合わせることでこの問題に対処する。
textttTimeAutoDiffという名前の私たちのモデルは、(1)汎用性:単一から複数シーケンスのデータセットの幅広い時系列データを処理できる能力など、いくつかの大きな利点があります。
論文 参考訳(メタデータ) (2024-06-23T06:32:27Z) - Time-MMD: Multi-Domain Multimodal Dataset for Time Series Analysis [40.44013652777716]
Time-MMDは、最初のマルチドメイン、マルチモーダル時系列データセットである。
MM-TSFlibは、マルチモーダルな時系列予測ライブラリである。
論文 参考訳(メタデータ) (2024-06-12T20:20:09Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Align and Attend: Multimodal Summarization with Dual Contrastive Losses [57.83012574678091]
マルチモーダル要約の目標は、異なるモーダルから最も重要な情報を抽出し、出力要約を形成することである。
既存の手法では、異なるモダリティ間の時間的対応の活用に失敗し、異なるサンプル間の本質的な相関を無視する。
A2Summ(Align and Attend Multimodal Summarization)は、マルチモーダル入力を効果的に整列し、参加できる統一型マルチモーダルトランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-03-13T17:01:42Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。