論文の概要: Text2Freq: Learning Series Patterns from Text via Frequency Domain
- arxiv url: http://arxiv.org/abs/2411.00929v1
- Date: Fri, 01 Nov 2024 16:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:51:25.941683
- Title: Text2Freq: Learning Series Patterns from Text via Frequency Domain
- Title(参考訳): Text2Freq: 周波数領域によるテキストからの連続パターンの学習
- Authors: Ming-Chih Lo, Ching Chang, Wen-Chih Peng,
- Abstract要約: Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
- 参考スコア(独自算出の注目度): 8.922661807801227
- License:
- Abstract: Traditional time series forecasting models mainly rely on historical numeric values to predict future outcomes.While these models have shown promising results, they often overlook the rich information available in other modalities, such as textual descriptions of special events, which can provide crucial insights into future dynamics.However, research that jointly incorporates text in time series forecasting remains relatively underexplored compared to other cross-modality work. Additionally, the modality gap between time series data and textual information poses a challenge for multimodal learning. To address this task, we propose Text2Freq, a cross-modality model that integrates text and time series data via the frequency domain. Specifically, our approach aligns textual information to the low-frequency components of time series data, establishing more effective and interpretable alignments between these two modalities. Our experiments on paired datasets of real-world stock prices and synthetic texts show that Text2Freq achieves state-of-the-art performance, with its adaptable architecture encouraging future research in this field.
- Abstract(参考訳): 従来の時系列予測モデルは、主に過去の数値に頼って将来の成果を予測するが、将来的な結果を示す一方で、特別な出来事のテキスト記述など、他のモダリティで利用可能な豊富な情報を見落とし、将来のダイナミクスに重要な洞察を与えていることが多いが、時系列予測にテキストを組み込んだ研究は、他のクロスモーダルな作業と比べて比較的過小評価されている。
さらに,時系列データとテキスト情報とのモダリティギャップは,マルチモーダル学習の課題となっている。
この課題に対処するために、周波数領域を介してテキストと時系列データを統合した相互モダリティモデルであるText2Freqを提案する。
具体的には、テキスト情報を時系列データの低周波成分に整合させ、これらの2つのモード間のより効果的で解釈可能なアライメントを確立する。
実物価格と合成テキストのペアデータセットによる実験により、Text2Freqは最先端のパフォーマンスを実現し、その適応可能なアーキテクチャは、この分野における将来の研究を奨励している。
関連論文リスト
- TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Unveiling the Potential of Text in High-Dimensional Time Series Forecasting [12.707274099874384]
本稿では,時系列モデルと大規模言語モデルを統合する新しいフレームワークを提案する。
マルチモーダルモデルにインスパイアされた本手法では, 時系列データとテキストデータを重塔構造で結合する。
テキストを組み込んだ実験により,高次元時系列予測性能が向上することが示された。
論文 参考訳(メタデータ) (2025-01-13T04:10:45Z) - ChatTime: A Unified Multimodal Time Series Foundation Model Bridging Numerical and Textual Data [26.300515935897415]
ChatTimeは時系列とテキスト処理のための統合されたフレームワークである。
アウトオブボックスのマルチモーダル時系列基盤モデルとして、ChatTimeはゼロショット予測機能を提供する。
複数のタスクやシナリオでChatTimeの優れたパフォーマンスを検証するために、一連の実験を設計する。
論文 参考訳(メタデータ) (2024-12-16T02:04:06Z) - Beyond Trend and Periodicity: Guiding Time Series Forecasting with Textual Cues [9.053923035530152]
本研究は,TGTSF(Text-Guided Time Series Forecasting)タスクを紹介する。
TGTSFは、チャネル記述や動的ニュースなどのテキストキューを統合することで、従来の手法の限界に対処する。
テキストキューと時系列データを相互アテンション機構を用いて融合する,堅牢なベースラインモデルである TGForecaster を提案する。
論文 参考訳(メタデータ) (2024-05-22T10:45:50Z) - Dataset Condensation for Time Series Classification via Dual Domain Matching [12.317728375957717]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - Text2Data: Low-Resource Data Generation with Textual Control [100.5970757736845]
Text2Dataは、ラベルのないデータを使って基盤となるデータ配布を理解する新しいアプローチである。
制御性を確保し、破滅的な忘れを効果的に防止する、制約最適化に基づく新たな学習目標を通じて微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - JOIST: A Joint Speech and Text Streaming Model For ASR [63.15848310748753]
JOISTは、音声テキストのペア入力とテキストのみのアンペア入力の両方で、ストリーミング、カスケード、エンコーダエンドツーエンド(E2E)モデルを訓練するアルゴリズムである。
JOISTの最良のテキスト表現は、テキストで訓練されていないモデルと比較して、様々な検索およびレアワードテストセットのWERを4-14%改善することがわかった。
論文 参考訳(メタデータ) (2022-10-13T20:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。