論文の概要: Towards Time Series Generation Conditioned on Unstructured Natural Language
- arxiv url: http://arxiv.org/abs/2506.22927v1
- Date: Sat, 28 Jun 2025 15:28:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.632438
- Title: Towards Time Series Generation Conditioned on Unstructured Natural Language
- Title(参考訳): 非構造化自然言語に基づく時系列生成に向けて
- Authors: Jaeyun Woo, Jiseok Lee, Brian Kenji Iwana,
- Abstract要約: 本研究では,非構造化自然言語記述に基づく時系列生成手法を提案する。
提案手法は,カスタム予測,時系列操作,データ拡張,転送学習など,さまざまなアプリケーションを提供できる。
我々は63,010の時系列記述ペアからなる時系列生成のための新しい公開データセットを構築し,提案する。
- 参考スコア(独自算出の注目度): 6.117371161379209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Artificial Intelligence (AI) has rapidly become a powerful tool, capable of generating various types of data, such as images and text. However, despite the significant advancement of generative AI, time series generative AI remains underdeveloped, even though the application of time series is essential in finance, climate, and numerous fields. In this research, we propose a novel method of generating time series conditioned on unstructured natural language descriptions. We use a diffusion model combined with a language model to generate time series from the text. Through the proposed method, we demonstrate that time series generation based on natural language is possible. The proposed method can provide various applications such as custom forecasting, time series manipulation, data augmentation, and transfer learning. Furthermore, we construct and propose a new public dataset for time series generation, consisting of 63,010 time series-description pairs.
- Abstract(参考訳): 生成人工知能(AI)は急速に強力なツールとなり、画像やテキストなど様々な種類のデータを生成することができる。
しかし、生成AIの大幅な進歩にもかかわらず、時系列生成AIは金融、気候、および多くの分野において必要不可欠であるにもかかわらず、まだ開発が進んでいない。
本研究では,非構造化自然言語記述に基づく時系列生成手法を提案する。
拡散モデルと言語モデルを組み合わせてテキストから時系列を生成する。
提案手法により,自然言語に基づく時系列生成が可能であることを示す。
提案手法は,カスタム予測,時系列操作,データ拡張,転送学習など,さまざまなアプリケーションを提供できる。
さらに、63,010の時系列記述ペアからなる時系列生成のための新しい公開データセットを構築し、提案する。
関連論文リスト
- Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Unveiling the Potential of Text in High-Dimensional Time Series Forecasting [12.707274099874384]
本稿では,時系列モデルと大規模言語モデルを統合する新しいフレームワークを提案する。
マルチモーダルモデルにインスパイアされた本手法では, 時系列データとテキストデータを重塔構造で結合する。
テキストを組み込んだ実験により,高次元時系列予測性能が向上することが示された。
論文 参考訳(メタデータ) (2025-01-13T04:10:45Z) - Time Series Language Model for Descriptive Caption Generation [11.796431549951055]
本稿では,時系列キャプションに特化して設計された新しい時系列言語モデルTSLMを紹介する。
TSLMはエンコーダ・デコーダモデルとして機能し、テキストプロンプトと時系列データ表現の両方を活用する。
TSLMは、複数のデータモダリティから既存の最先端アプローチよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T14:34:30Z) - VITRO: Vocabulary Inversion for Time-series Representation Optimization [21.338428379212704]
本稿では,自然言語の離散的,意味的な性質と時系列データの連続的,数値的性質とのギャップを埋めるために,VITROを提案する。
学習可能な時系列固有の擬単語埋め込みは、既存の汎用言語モデル語彙よりも時系列データの表現が優れていることを示す。
論文 参考訳(メタデータ) (2024-12-23T19:24:51Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。