論文の概要: Text2Freq: Learning Series Patterns from Text via Frequency Domain
- arxiv url: http://arxiv.org/abs/2411.00929v1
- Date: Fri, 01 Nov 2024 16:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:51:25.941683
- Title: Text2Freq: Learning Series Patterns from Text via Frequency Domain
- Title(参考訳): Text2Freq: 周波数領域によるテキストからの連続パターンの学習
- Authors: Ming-Chih Lo, Ching Chang, Wen-Chih Peng,
- Abstract要約: Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
- 参考スコア(独自算出の注目度): 8.922661807801227
- License:
- Abstract: Traditional time series forecasting models mainly rely on historical numeric values to predict future outcomes.While these models have shown promising results, they often overlook the rich information available in other modalities, such as textual descriptions of special events, which can provide crucial insights into future dynamics.However, research that jointly incorporates text in time series forecasting remains relatively underexplored compared to other cross-modality work. Additionally, the modality gap between time series data and textual information poses a challenge for multimodal learning. To address this task, we propose Text2Freq, a cross-modality model that integrates text and time series data via the frequency domain. Specifically, our approach aligns textual information to the low-frequency components of time series data, establishing more effective and interpretable alignments between these two modalities. Our experiments on paired datasets of real-world stock prices and synthetic texts show that Text2Freq achieves state-of-the-art performance, with its adaptable architecture encouraging future research in this field.
- Abstract(参考訳): 従来の時系列予測モデルは、主に過去の数値に頼って将来の成果を予測するが、将来的な結果を示す一方で、特別な出来事のテキスト記述など、他のモダリティで利用可能な豊富な情報を見落とし、将来のダイナミクスに重要な洞察を与えていることが多いが、時系列予測にテキストを組み込んだ研究は、他のクロスモーダルな作業と比べて比較的過小評価されている。
さらに,時系列データとテキスト情報とのモダリティギャップは,マルチモーダル学習の課題となっている。
この課題に対処するために、周波数領域を介してテキストと時系列データを統合した相互モダリティモデルであるText2Freqを提案する。
具体的には、テキスト情報を時系列データの低周波成分に整合させ、これらの2つのモード間のより効果的で解釈可能なアライメントを確立する。
実物価格と合成テキストのペアデータセットによる実験により、Text2Freqは最先端のパフォーマンスを実現し、その適応可能なアーキテクチャは、この分野における将来の研究を奨励している。
関連論文リスト
- Domain-Independent Automatic Generation of Descriptive Texts for Time-Series Data [5.264562311559751]
時系列データからドメインに依存しない記述テキストを生成する手法を提案する。
新たな後方アプローチを実装することで、観測データセットのための時間自動キャプションを作成する。
実験の結果,TACOデータセットを用いて学習した対照的な学習ベースモデルでは,新しいドメインにおける時系列データのための記述テキストを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-09-25T06:04:03Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Beyond Trend and Periodicity: Guiding Time Series Forecasting with Textual Cues [9.053923035530152]
本研究は,TGTSF(Text-Guided Time Series Forecasting)タスクを紹介する。
TGTSFは、チャネル記述や動的ニュースなどのテキストキューを統合することで、従来の手法の限界に対処する。
テキストキューと時系列データを相互アテンション機構を用いて融合する,堅牢なベースラインモデルである TGForecaster を提案する。
論文 参考訳(メタデータ) (2024-05-22T10:45:50Z) - Dataset Condensation for Time Series Classification via Dual Domain Matching [12.317728375957717]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - JOIST: A Joint Speech and Text Streaming Model For ASR [63.15848310748753]
JOISTは、音声テキストのペア入力とテキストのみのアンペア入力の両方で、ストリーミング、カスケード、エンコーダエンドツーエンド(E2E)モデルを訓練するアルゴリズムである。
JOISTの最良のテキスト表現は、テキストで訓練されていないモデルと比較して、様々な検索およびレアワードテストセットのWERを4-14%改善することがわかった。
論文 参考訳(メタデータ) (2022-10-13T20:59:22Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Human-like Time Series Summaries via Trend Utility Estimation [13.560018516096754]
本稿では,時系列の人間的な記述を生成するためのモデルを提案する。
本システムは時系列データからパターンを見つけ,人間の行動の経験的観察に基づいてこれらのパターンをランク付けする。
本システムの出力は,人間による同じデータの要約に一致させようとする時系列の自然言語記述である。
論文 参考訳(メタデータ) (2020-01-16T06:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。